我們都知道,人工智慧的能力,是從許多紀錄裡面尋找出某種脈絡,做出類似人的判斷。本文將用壓(瘡)傷的例子來說明,人工智慧如何幫助長期照顧。
壓(瘡)傷(Pressure Ulcer),俗名褥瘡(Bed Sore),是長期臥床病人最常見的皮膚問題,幾乎每4個住院病人便有一人出現壓傷狀況[1]。造成壓傷的原因很多,包含未定時翻身、輔助物(如約束帶)壓迫、鼻胃管或尿管膠布黏貼不當、大小便失禁未確實清潔身體等。若沒有好好照顧,嚴重者甚至造成截肢或致命的敗血症。
此外,根據統計[2],美國每年治療壓傷花費高達110億美金,而全球治療壓傷的照故市場,預估2025年可高達640億美金[3]。因此,更有效率、更科學的照顧方法勢在必行。在台灣,壓傷照護也一直都和居家照護、長照機構品質息息相關。
AI輔助壓傷照顧的即時判斷
針對傷口照護的輔助需求,我們研究團隊已經發展出相關的AI功能,搭配照護系統,應用於照護現場。步驟很簡單,用任何手機或平板相機拍照、上傳,便能分析出傷口的大小、顏色、形狀和等級。
AI如何像大腦一樣學習?
為了讓電腦看得懂照片,分辨傷口等級,研究人員蒐集了2,000張照片,經過專業護理師協助進行標註、清理後,進行機器學習(Machine Learning)。此處應用監督式學習(Supervised Learning),電腦會在資料處理與運算的過程中,透過比對不同的照片,一邊修正去達到更精準的預測,就像幼稚園教小孩認識動物一樣:這張照片是「狗」,這張照片是「貓」,這樣的方式讓監督式學習有準確率高的優點。
針對傷口照護的輔助需求,智齡科技研究團隊已經發展出相關的AI功能。
這時候我們是用監督式學習中的,電腦的神經網路與人腦的架構非常類似,神經網路模擬我們大腦的運作,無數個神經元緊密連結組成大腦, 而人工的神經網絡則是連結類神經元的節點。每個類神經元從別的節點得到資料,經過數學運算後再傳給其他的節點。就像我們的大腦一樣,這些節點一層一層堆積至數十或數百層的架構。每個運算都代表一組參數,電腦每看過一張照片,就會把學習到的知識記錄在參數中。經由許多照片的訓練,逐漸找到影像與內容的關聯性,這就是「卷積神經網絡」(Convolutional Neural Network, CNN)模型的應用。
在壓傷辨識的神經網絡(Inception-ResNet v2)中, 辨識模型擁有5,600多萬個參數,這是一個很大的模型,因此需要數千張照片反覆教導電腦。最終,電腦不只能在照片中分辨大小、顏色、形狀和等級,還能定位傷口位置,給予準確的資訊。
過勞護理人員值得更好的工具
只要是人可以判斷的影像,就可以透過CNN去訓練人工智慧模型,取代或輔助部分護理師的工作。依據護理師公會調查,高達86%的護理師每天休息不到30分鐘,由於護理人力不足、工作繁忙,未來將會有更多人工智慧應用協助照護人員做視覺辨識的工作,提供照護人員更多休息時間,進而提升直接照顧及關懷的品質。
造成壓傷的發生危險因子有內外在因素,包含內在因素的年齡、行動能力、神經功能、營養不良、意識狀況、慢性病、疾病嚴重度等,以及外在因素的住院時間、環境潮濕等,期待未來長照產業的數位化轉型,加上AI的發展可以納入這些危險因子,提早預測壓傷的發生機率,更精準掌握風險因子 ,進一步預防壓傷的發生,提升整體照護品質。
作者/康仕仲、劉正揚