【科技.未來】要取代人類醫生,人工智能還欠甚麼?

國際趨勢
刊登時間

雖然AI診症潛力龐大,但現階段並非無可挑剔。演算法的能力受限於它的訓練數據,若數據不夠多元,或會令這些診斷工具帶有種族偏見。例如,2017年一項有關兒童智能障礙的研究,就發現Face2Gene對於比利時白人唐氏綜合症兒童的診斷準確率為80%,但對剛果黑人只有37%。「我們知道這是需要處理的問題,隨着技術改進,偏見會愈來愈少。」Face2Gene開發公司FDNA的技術總監Yaron Gurovich 說。此外,不是所有疾病都可以用上述方法訓練演算法診斷。例如精神障礙的數據便缺乏正確的參考標準。美國國家精神衞生研究院(NIMH)前總監Steven Hyman指出:「你至少需要有一個真正獨立、強而有力的判斷準則。」以訓練演算法診斷皮膚癌為例,訓練數據中會有分類清晰的活體組織切片樣本,良性還是惡性黑白分明,但精神障礙的數據中沒有活體組織切片,至少現階段如此,「很多人都忘記了這一點。」 Hyman說。 現時以樣本照片訓練演算法或許十分順利,但Google在印度的試驗似乎反映出實地使用如何有別於實驗室研究。去年11月,當地一名病人報稱視力模糊,遙距醫療中心從地區診所收到六張照片,雖然部分圖片因為設備落後而不夠清晰,但醫療中心醫生Anusha Arunachalan仍能從照片中看到病人視網膜出血,診斷為增殖性糖尿病視網膜病變(proliferative diabetic retinopathy)。當時醫生們決定也讓Google診斷,結果其中兩張照片被判斷為增殖性,兩張為嚴重病變,剩餘兩張則被指影像太模糊而無法判斷。 【MORE】