今年長庚大學校慶,醫學院研討會以「人工智慧在醫療照護的應用與趨勢」為題在四月展開,從多場演講中可見到 AI 落地臺灣臨床實務已是正在進行式,倒是資源最豐富的長庚醫院體系還沒跟上腳步,不過常聽聞許多醫師來學院上課時的精神喊話,強調 AI 不可能取代醫師,果真是如此嗎?
去年底澳洲 St Vincent's Hospital Melbourne 和 University Hospital Geelong 兩間醫學中心在內分泌門診首度試辦 AI 糖尿病視網膜病變篩檢 [1],使用的深度學習模型敏感度、特異度皆達 92%以上。試辦期間約 100 名糖尿病患者參加,他們會收到 AI 當場就能完成的嚴重程度報告以及2 週後才能收到的眼科醫師分級報告,後續問卷顯示 96%受試者非常滿意 AI 即時報告,甚至有78%受試者比起傳統人工模式,更偏愛 AI 模式,可見 AI 對醫師業務的衝擊並非空穴來風。即便尚沒有人知道 AI 會如何改革現有醫療模式,但其應用的發展將透漏一些端倪,讓我們一起來看看AI可能做到哪些超越人類醫生極限的有趣事情,它們不僅富有創意,實現可能性也相當高。
1. 內視鏡膠囊機器人 (Endoscopic capsule robots)的動態視力修煉
隨著多年來電機材料科學的進展,已開發出了帶有相機和無線圖像傳輸裝置的可吞嚥膠囊內視鏡,並正嘗試用於篩檢診斷腸胃疾病,如inflammatory bowel disease、ulcerative colitis、colorectal cancer等。不同於標準內視鏡 [2],內視鏡膠囊機器人是非侵入性且無痛的,更適合長時間的檢查,且體積小、沒有管線限制,故可探查標準內視鏡進不了的區域。然而目前膠囊內視鏡的移動力仍主要來自胃腸道蠕動,若要進行遠端遙控,就需要進行精確的機器人3D位置角度實時估計 (6-DoF pose),近年來已有一些嘗試,包括MRI、PET、超音波等設備,但皆需在膠囊上加裝許多特殊sensor,反而降低其機動性,且許多情境下無法正確傳接訊號。於是,一種叫做visual odometry (VO)的方法成為了新興研究熱點。
Visual odometry,即視覺測距法,是不藉助其他訊號,直接從錄影影片中每幀影像去萃取特徵與估計尺度、深度,並對影片序列進行運動估計。Mehmet Turan等人 [3]設計了深度學習模型recurrent convolutional neural networks (RCNNs)來進行 visual odometry,RCNN是由RNN與CNN所組合,CNN先學習影像二維特徵,接著RNN負責萃取影片序列前後的特徵變化。研究團隊使用一種電磁鐵遙控的膠囊內視鏡 (MASCE) [4],在五個豬胃及一個人體模擬模型中邊移動邊拍攝 (5.3 ms per frame),並以黃金標準Optitrack motion tracking system實時記錄6-DoF pose,生成的共80000幀有序影像便可在RCNN模型中學習預測6-DoF pose。往後模型就不需用到龐大複雜的Optitrack系統,即可給出實時的6-DoF pose預測值。
由下圖可見,團隊測試的幾種方法中,其提出的RCNN:EndoVO軌跡計算最接近真實,可見訓練良好的AI能將膠囊內視鏡的視野變化轉換成其在體內運動動態,進而使遙控者能正確評估如何移動到指定位置。甚至未來若要作為一種常規篩檢診斷手段,遙控自動化可避免人爲操作熟練度的差異造成品質不穩定,而預測軌跡能力將有助於自動系統即時修正姿勢。
2. 讓da Vinci手術機器人認識自己
微創手術機器人近年來席捲各大醫學中心的手術房,在許多憑雙手難以處理的創傷病變部位都取得了顯著作用 [5],然而仍是半自動式,有賴於醫師親自操作機器手臂,外科醫師便時常抱怨操作時不能像一般手術一樣憑藉手感來達成許多目的。在校慶研討會上,秀傳院長就分享到為了解決定位困難以及誤傷重要血管等問題,醫院手術房引進了AR技術,利用CT或MRI建立的人體模型投影在AR眼鏡上,讓醫師開刀時能在投影提示下更精準安全地完成工作,而這也是令手術機器人邁向自動化的重要一步,畢竟機器人沒有手感,透視定位能力卻比人類強。
然而AR系統應用到手術機器人卻會遇到一個問題,機器人或許能透視人體,卻不認識手術器械,其存在可能造成辨識異常與誤差,而且無法追蹤器械的角度與遠近,使實用性大打折扣。爲了讓機器人「認識」自己的手臂,去年MICCAI大會舉辦的挑戰賽就是Robotic Instrument Segmentation [6],提供大量da Vinci機器人的第一視角手術操作影片,要求完成各種機械手臂的區域標註 (2),甚至能辨識器械上3種部件 (3)與7類器械 (4)。如下圖,由於畫面中往往光照角度與陰影位置不均,加上攝影鏡頭的不定時霧化與沾染血液等視覺干擾,使這項挑戰相當艱鉅。
兩位Kaggle競賽大師組隊在這場挑戰中奪得總冠軍,分別在這三種挑戰中得到0.887、 0.725、0.236 mean IoU的成績,可見標註區分器械種類是最困難的問題。團隊測試了多種CNN結構,分別是經典的U-Net,以及其變體 TernausNet、 LinkNet。其結果如下表,若不考慮效果都很差的器械分類,具有VGG-16預訓練參數的 TernausNet-16性能表現最好,而具有ResNet-34跳躍結構的 LinkNet則推理速度最快 (90毫秒),近乎實時地完成器械分割任務,至於分類任務的部分,由於影片中有些類別器械出現頻率相對少很多,補足數據將可能提升分類性能。即便從準確度可看出此類任務還在發展中,需要更多數據,不過一旦達成目標,就能加速手術機器人的全自動化。
3. 從CT-only到MR-only的沙盤推演再升級
放射治療的成效好壞,關鍵在於療程前的空間劑量規劃,傳統上使用電腦斷層掃描 (CT scan)產生患者的3D虛擬結構,並將CT強度值(代表輻射衰減程度)轉換為電子密度用於輻射劑量計算。然而CT scan的軟組織成像對比度有限,不利於目標結構的輪廓勾勒,且多少會有輻射傷害,因此考慮用磁振造影 (MRI)取代CT成為研究熱點 [7]。即便MRI沒有輻射副作用,且能提供更優異的軟組織對比度及時空間解析度,但有個致命缺點是磁振訊號與電離輻射訊號不同,無法用於計算劑量 [8],若同時做CT與MRI可以互補短處,但是也會有成本過高、程序繁冗、雙影像配準 (image registration)不確定性等問題,因此學界希望能找到精準迅速的MR-only方法,從MRI生成相應的CT scan來計算劑量,稱為pseudo-CT或synthetic CT (sCT)。
過去研究流行的sCT方法主要是atlas-based,將MR影像用標準MRI圖譜進行扭曲配準,再依據MRI圖譜對應的CT值做換算,然而此法遇到解剖變異或病理差異較大時會產生很大誤差,隨著AI流行,model-based方法開始成為焦點。荷蘭烏特勒支醫學中心的團隊針對骨盆腔區域,開發了一種conditional deep convolutional generative adversarial network (cDCGAN) [9],用pixel-to-pixel的方式生成sCT。GAN是最新提出的深度學習方法,由生成器 (generator)與判別器(discriminator)組成,生成器要盡可能產生讓判別器區分不出差別的虛構物,而判別器則要盡可能區分出虛構物與真實物,兩者互相對抗,故稱之。團隊召集了91位患有前列腺癌、直腸癌、子宮頸癌患者,皆同時拍攝CT與MRI各一組,並將兩者配準。其MRI protocol採用Dixon reconstruction [10],拍攝一次水、脂肪同相 (in-phase)的spin echo images與一次TE延遲數毫秒的不同相 (out-of-phase) images,兩者可組合出water-only或fat-only的影像,由於水與脂肪的CT值不同,將二者分離對生成CT是有助益的。
將in-phase、water-only、fat-only三種影像作為輸入,訓練cDCGAN生成sCT,再依據真實CT與sCT在影像與計算劑量的差異來評估模型能力。結果見下圖 (IP=in-phase MRI),模型可在5.6秒內從MRI生成整組sCT,且sCT與CT的平均絕對誤差 (MAE)是61±9 HU,準確度已遠遠超越圖譜法的紀錄 [11] (94.5 ± 17.8 HU),sCT計算得到的劑量分布圖也只比CT平均略高 0.1-0.3%。可見即便訊號分佈不同,AI仍能成功進行cross modality影像轉換,因此未來將PET/MRI等混合應用簡化成MR-only都有可能實現,也奠定藥理學MRI (phMRI)的可能性。
4. 用顯微鏡照出細菌的抗藥性
抗生素抗藥性已然成為本世紀公共衛生重大威脅,對院內感染的急重症患者尤其致命。現今臨床上仍主要運用antimicrobial susceptibility testing (AST) [12],如broth macrodilution (BMD)等,來計算最小抑菌濃度(minimum inhibitory concentration, MIC),然而此法需耗費數天,且對實驗室環境與操作技術要求高,往往緩不濟急,因此學界正嘗試使用深度學習來加速流程,希冀能及早拯救更多性命,同時也減輕成本負擔。
亞利桑那大學團隊提出DLVM-AST [13],針對尿道感染最常見的大腸桿菌,及對五種抗生素 (polymyxin B, streptomycin, ciprofloxacin, aztreonam, ampicillin)的抗藥性。抗生素可造成無抗藥性者在運動、形態、細胞分裂等動態上的改變,如polymyxin B可降低移動速度,aztreonam則使形狀拉長。將染菌尿液與高濃度抗生素或等量水混合,導入微流體 (Microfluidic chip)後,以光學顯微鏡錄影,再將影片中各別細菌的動態獨立疊合成一張靜態影像作為動態軌跡,輸入卷積神經網絡 (convolutional neural network, CNN)進行訓練。得到的模型可計算未受抗生素影響動態的細菌所佔比例,繪製出抑菌濃度曲線而得到最小抑菌濃度。結果顯示模型分辨抗藥性的準確度高達87%,且計算得到的MIC與broth macrodilution的結果非常相近,其優勢在於只需30分鐘就能得到結果,而標準方法最快也要over night才能得到。作者指出,未來若加入生化動態特徵的考量,例如ATP消耗量、蛋白質與核酸濃度等,將有機會提升敏感度和特異度,或許在未來,ICU病床可以自動化抗生素抗藥性評估,作出即時性處方決策,減輕醫護人員負擔。
5. 手機上的預防保健
日常生活中的預防保健向來是臺灣公衛體系施力較薄弱的一塊,主要手段無非是施打疫苗、疾病篩檢,卻都必須由民眾自行前往有提供服務的場所進行,對於平日其他不舒服的調養,或許中醫經驗有較多可參酌之處。即便中藥相對於西藥較無副作用,但皆各有偏性,誤食或服用過多仍易傷身,因此許多手機App透過導入中醫師意見與經典醫籍來協助民眾認識概念,卻缺乏實際指導意義,因為民眾仍無法確定自身情況是否符合定義。擁有全中國最大門診量的廣東省人民醫院,中醫部門便與華南理工大學合作,嘗試從望聞問切四診中最可行的舌診來設計AI模型 [14],學習如何依據處方病案資料庫給予合適的中藥推薦。其原理是使用CNN輸入大量不同角度、照明、遠近的舌頭照片特徵,並將該名患者的處方清單用中華藥典用Latent Dirichlet Allocation (LDA)無監督分類法標記成特徵向量,作為CNN訓練目標,如此模型分析舌頭影像所作的處方就會接近於過去類似病案。然而中醫強調四診合參,爲增加實用性,未來團隊將繼續開發融合其他診斷方式的模型。
另一方面,臺灣位處亞熱帶,氣候多雨,適合病媒蚊孳生,即便瘧疾等蚊媒傳染病在臺灣幾乎絕跡,日本腦炎、登革熱等疾病仍不定時會爆發流行,即便多年來推動家戶定期換水、保持器皿乾燥,仍難以避免戶外和公共場所的蚊媒。事實上,1940年代便曾嘗試透過蚊蟲飛行時拍打翅膀的聲音來定位與計數,甚至分類蚊蟲,然而由於收音設備昂貴難以普及所以未受重視,今日智慧型手機的普及與AI的流行帶來改變的可能性。蚊蟲拍翅聲不僅隨品種而異,性別、年齡、環境溫溼度等也都是影響因子,但人耳基本上不可能分辨出差異,即便透過儀器收訊,背景雜音的混合也使得蚊蟲拍翅聲音訊號難以被單獨分離出來,史丹佛大學做過手機收音測試 [15],大約最遠距離10公分左右,且背景噪音在50分貝以下,才能錄下明顯可辨的訊號,下圖是手機對各種蚊蟲拍翅聲所錄下的音頻分佈。
於是牛津大學的團隊便嘗試運用深度學習 [16],分析手機所錄製的蚊蟲拍翅聲(包含背景雜音)來辨識蚊蟲的存在。錄音檔是一維時序數據,但蚊蟲拍翅相對於背景雜音是較無穩定週期性的,且振幅也飄忽不定,直接進行深度學習可能很難捕捉到純淨的蚊蟲拍翅特徵,因此先將錄音檔用小波轉換 (wavelet transform)將原始數據前處理成小波形變的scale(頻域)× transition(時域)二維數據,較能使蚊蟲拍翅特徵被區別出來,再進行CNN訓練。結果發現CNN辨識蚊蟲存在的能力很好,AUC高達0.97,超越了受過訓練的人類 (平均0.883)。未來若能收集更多品種足夠的拍翅錄音檔,將可能製作出能早人類一步發現周圍有高危險蚊媒存在的App,讓位處流行地區的民眾能提高警覺,或提早就診檢查。
總結
以上提到的五個有趣案例,可以發現AI不僅能學習醫生對視網膜病變的判斷力,還能做到很多人類肉體不可及的事情,增加了醫療照護的可能性。事實上還有更多醫療應用正在研究開發中,甚至已有通過美國FDA核准上市的產品,或許在未來醫師以及許多專業工作會有許多日常業務被AI搶走,但這又何嘗不是好事?我們不如抱持正面心態看待科技進步爲人類生活帶來更好的品質,同時探索自身的能動性與創新力,那麼即便現行醫師會被取代,未來的新型醫師也能走上屬於自己的路!
參考資料
1. Stuart Kee et al. (2018) "Feasibility and patient acceptability of a novel AI-based screening model for diabetic retinopathy at endocrinology outpatient services: a pilot study." Scientifc Reports 8(1)
2. M. Sitti et al. (2015) "Biomedical applications of untethered mobile milli/microrobots." Proc. IEEE 103 (2) 205–224.
3. Mehmet Turan et al. (2018) "Deep EndoVO: A recurrent convolutional neural network (RCNN) based visual odometry approach for endoscopic capsule robots." Neurocomputing, 275, 1861–1870
4. D. Son, M.D. Dogan, M. Sitti. (2017) "Magnetically actuated soft capsule endoscope for fine-needle aspiration biopsy." IEEE ICRA, pp. 1132–1139.
5. Burgner-Kahrs, J., Rucker, D.C., Choset, H. (2015) "Continuum robots for medical applications: A survey." IEEE Transactions on Robotics 31(6), 1261–1280
6. https://endovissub2017-roboticinstrumentsegmentation.grand-challenge.org/
7. M.A. Schmidt, G.S. Payne (2015) "Radiotherapy planning using MRI" Phys. Med. Biol. 60, 323-361
8. Brown et al. (2014) "Magnetic resonance imaging: physical properties and sequence design." Wiley.
9. Matteo Maspero et al. (2018) "Fast synthetic CT generation with deep learning for general pelvis MR-only Radiotherapy." arXiv:1802.06468
10. Dixon W T (1984) "Simple proton spectroscopic imaging Radiology." 153(1), 189–94.
11. Han X (2017) "MR-based synthetic CT generation using a deep convolutional neural network method." Med Phys. Apr;44(4):1408-1419.
12. L. Barth Reller et al. (2009) "Antimicrobial Susceptibility Testing: A Review of General Principles and Contemporary Practices." Clinical Infectious Diseases, Volume 49, Issue 11, Pages 1749–1755
13. Hui Yu et al. (2018) "Phenotypic Antimicrobial Susceptibility Testing with Deep Learning Video Microscopy." Anal. Chem., 90 (10), pp 6314–6322
14. Yang Hu et al. (2018) "Automatic construction of Chinese herbal prescriptions from tongue images using CNNs and auxiliary latent therapy topics" arXiv:1802.02203v2
15. Mukundarajan et al. (2017) "Using mobile phones as acoustic sensors for high-throughput mosquito surveillance" eLife;6:e27854.
16. Kiskin et al. (2017) "Mosquito Detection with Neural Networks: The Buzz of Deep Learning" arXiv:1705.05180
Top comments (0)