自動疼痛識別

本文的主題是概念自動疼痛識別

導言

編輯

自動疼痛識別是一種客觀測量疼痛的方法,同時它也是一個跨學科研究領域,涉及到醫學、心理學、生理學與計算機科學。該方法的重點是,在機器學習基礎上的計算機輔助的客觀化疼痛識別。

自動疼痛識可以有效可靠地檢測與監控那些無法口頭溝通的人群的疼痛。機器學習過程可以預先通過單模態或者多模態軀體信號得到訓練與驗證[1]。檢測疼痛的信號包括面部表情或者軀體姿勢,也可以是(心理)生理或者副語言性質。迄今為止,自動疼痛識別的重點在於確定疼痛強度,其他諸如識別疼痛的性質、部位與時間過程的有遠見的努力也正在實踐中。

然而,這種方法的臨床實施是疼痛研究領域中一個有爭議的話題。自動疼痛識別的批評者認為,疼痛診斷只能由人,主觀地實施進行。

背景

編輯

在口頭報告受限這種特定情況下,比如口頭能力或者認知能力受損的人群,或者處於鎮靜麻醉或機械通氣狀態的病人,疼痛診斷由受過訓練的專業人士通過行為觀察進行的[2]。此外,所有已知的觀察方法(例如,蘇黎世疼痛觀察評估,ZOPA[2];痴呆病人的疼痛評估,BESD[3],為PAINAD量表的德語版)需要評估者具備足夠的專業知識。由於評估者可能存在與觀察或者解釋有關的誤判,這些觀察方法的準確性較難保證。這些觀察方法在設計、研究方法、評估樣本及疼痛現象的概念化方面存在差異,因此,很難比較不同評估工具的質量標準。受過訓練的人員理論上可以使用觀察工具每天數次記錄疼痛強度,但也不可能每分鐘或每秒測量一次疼痛。自動疼痛識別的目標在於採用有效、穩健的疼痛反應模式,構建一個自動疼痛強度識別系統,能實現多模態的、動態的、高解像度的疼痛識別。

過程

編輯

自動疼痛識別的疼痛相關參數,通常通過非侵入性傳感器技術記錄,該技術可以捕獲疼痛的(物理)反應數據。錄像技術可以獲取面部表情、軀體姿勢,而音頻傳感器可以記錄副語言特徵。(心理-)生理信息,例如肌肉張力和心率,可以通過生物電位傳感器(電極)收集。

疼痛識別需要從收集的數據中提取有意義的特徵或模式。這可以通過機器學習技術實現的,該技術能夠提供訓練(學習)後疼痛的評估,例如「無疼痛」,「輕度疼痛」或「重度疼痛」。

參數

編輯

疼痛現象包括不同的層面(感覺辨別,情感(情緒),認知,與(心理)運動)[4],自動疼痛識別目前依賴於疼痛反應的可測量性參數。這些參數可以大致分成「生理反應」和「行為反應」兩大類。

生理反應

編輯

人類的疼痛總是能引發自主神經反應,這些反應可以通過測量各種生理信號反映出來。

生理信號

編輯

生理信號的測量通常包括皮膚電活動(EDA,也稱為皮膚電導),肌電圖(EMG),心電圖(ECG),血容量脈衝(BVP),腦電圖(EEG),呼吸與體溫[5][6][7],這些能反映出交感神經和副交感神經系統的調節機制。生理信號主要使用特殊的非侵入性表面電極(用於EDA,EMG,ECG和EEG)、血容量脈衝傳感器(BVP)、呼吸帶(呼吸)與熱傳感器(體溫)來記錄。內分泌與免疫學參數也能被記錄下來,但這些測量在某種程度上具有侵入性(例如,血液採樣)。

行為反應

編輯

疼痛的行為反應具備兩個功能:能保護軀體(例如,通過保護性反射)與實現疼痛的外在交流(例如,尋求幫助的呼救)。這些疼痛行為反應通常表現為面部表情、軀體姿勢及副語言特徵。

面部表情

編輯

行為信號包括面部表情模式(表達行為),其能藉助於視頻信號來測量。面部表情識別基於日常臨床觀察,即疼痛通常能表現在患者的面部表情中[8],但並不一定總是如此,因為面部表情可以通過自我控制來抑制。儘管面部表情可能被有意識地影響,但是面部表情行為仍是疼痛診斷的重要信息來源,也是自動疼痛識別的信息來源[9][10]。基於視頻記錄的面部表情識別的一個優點,是測量時不需直接接觸,通過視頻記錄即可,但是,面部表情並非在所有的軀體姿勢中都能記錄到(例如,臉朝下躺着時無法記錄),或者繃帶包裹面部時也無法記錄。面部表情分析依賴於神經肌肉活動的迅速、自發與動態變化,可在視覺上檢測到面部變化。

軀體姿勢

編輯

軀體姿勢也主要通過非接觸式相機技術捕獲。運動型疼痛的反應各不相同,並且很大程度上取決於疼痛的類型和原因。它們包括突然的保護性反射(例如,四肢的自發性收縮或伸展)、激動焦慮(病理性不安)與迴避行為(猶豫不決、謹慎小心的動作)。頭部也有朝向疼痛部位的方向移動的趨勢[11],患者往往會觸摸身體上的疼痛部位。

副語言特徵

編輯

此外,疼痛也能引發非語言行為,表現為嘆氣、喘氣、呻吟、抱怨等[12]。副語言特徵通常通過高靈敏度麥克風來記錄。

算法

編輯

完成參數記錄後,數據的預處理(例如,過濾)、相關特徵的提取及優化信息融合可以陸續進行。在此過程中,來自不同信號源的模態能被合併以生成新的或更精確的知識點[13]

機器學習過程可以對疼痛進行分類。這一方法對疼痛識別率有很大的影響,並且在很大程度上取決於基礎數據的質量和粒度。與情感計算領域類似,當前被使用的機器學習法如下:

支持向量機(SVM):SVM的目標是找到一個定義明確的最佳超平面,其能區別出兩個(或更多)類別的最小距離。超平面能對未知模式分類進行決策。

隨機森林(RF):RF由隨機的、不相關的決策樹的組成。每棵樹單獨判斷一個未知模式,並分配為一個類別。然後,RF對模式的最終分類遵從多數決定。

K-近鄰算法(k-NN):K-近鄰算法使用類標籤對未知對象進行分類,該類標籤最常用來分類與其最接近的k個鄰居。使用一個相似性度量(例如,歐幾里德距離,Jaccard係數等)來確定其鄰居們。

人工神經網絡(ANNs):人工神經網絡受到生物神經網絡的啟發,並以非常簡化的方式對其組織原則和過程進行建模。類模式通過調整個體神經元連接的權重而被學習。

 
簡化版自動疼痛識別過程。


數據庫

編輯

為了實現以一種有效方式對疼痛進行分類,創建具備代表性的、可靠的及有效的疼痛數據庫則顯得尤為必要,以供機器學習者進行訓練。一個理想的數據庫應該夠大,應該包括自然的(非實驗性的)、高質量的疼痛反應。但是,自然反應難以被記錄,且只能在有限的程度上獲得,在大多數情況下它們質量欠佳。因此,目前可用的數據庫包含實驗性或准實驗性疼痛反應,並且每個數據庫基於不同的疼痛模型而構建。以下列舉了最具相關性的疼痛數據庫(最後更新時間為2019年1月):

·       UNBC-McMaster Shoulder Pain[14]

·       BioVid Heat Pain[15]

·       EmoPain[16]

·       SenseEmotion[12]

·       X-ITE Pain[1]

潛在應用

編輯

原則上,自動疼痛識別可以用於各種臨床環境中,例如重症監護病房(恢復室)。不過,此方法的核心應用領域是病人疼痛交流能力受限的狀況。另一個潛在的應用領域是,在人手不足的醫院進行夜間疼痛檢測。歸根到底,避免止痛藥使用不足及使用過量,是至關重要的。止痛藥使用不足可能導致高風險病人出現疼痛慢性化與心血管應激反應,而使用過量會導致噁心、便秘、潰瘍與胃腸道出血[3]。從長遠來看,如果疼痛的其他特點(例如疼痛部位、質量、持續時間)能夠被獲取,自動疼痛識別可以有效地用於臨床診斷和臨床治療。一個潛在的疼痛監測系統,例如電腦、平板電腦、手機等(見下圖),可以提供與病人疼痛相關的實時、高解像度信息。

 
疼痛監測屏幕的舉例說明。

參考文獻

編輯
  1. 1.0 1.1 S. Gruss, M. Geiger, P. Werner, O. Wilhelm, A. Al-Hamadi, S. Walter: Multimodal Signals for Analyzing Pain Responses to Thermal and Electrical Stimuli. To be published in: JoVe.
  2. 2.0 2.1 Elisabeth Handel: Praxishandbuch ZOPA: Schmerzeinschätzung bei Patienten mit kognitiven und/oder Bewusstseinsbeeinträchtigungen. Huber, Bern 2010, ISBN 978-3-456-84785-6.
  3. BESD videos. [2019-03-07]. 
  4. Henrik Kessler: Kurzlehrbuch Medizinische Psychologie und Soziologie (in German) 3. Edition. Thieme, Stuttgart/New York 2015, ISBN 978-3-13-136423-4, p. 34.
  5. S. Gruss et al.: Pain Intensity Recognition Rates via Biopotential Feature Patterns with Support Vector Machines. In: PLoS One. Vol. 10, No. 10, 2015, pp. 1–14, doi:10.1371/journal.pone.0140330.
  6. S. Walter et al.: Automatic pain quantification using autonomic parameters. In: Psychol. Neurosci. Nol. 7, No. 3, 2014, pp. 363–380, doi:10.3922/j.psns.2014.041.
  7. D. Lopez-Martinez, O. Rudovic, R. Picard: Physiological and behavioral profiling for nociceptive pain estimation using personalized multitask learning. November 2017, doi:10.1109/ACIIW.2017.8272611.
  8. P. Werner, A. Al-Hamadi, K. Limbrecht-Ecklundt, S. Walter, S. Gruss, H. C. Traue: Automatic Pain Assessment with Facial Activity Descriptors. In: IEEE Trans. Affect. Comput. Vol. 8, No. 3, 2017, doi:10.1109/TAFFC.2016.2537327.
  9. S. Brahnam, C. F. Chuang, F. Y. Shih, M. R. Slack: SVM classification of neonatal facial images of pain. In: Fuzzy Log. Appl. Vol. 3849, 2006, pp. 121–128, doi:10.1007/11676935_15.
  10. R. Niese et al.: Towards Pain Recognition in Post-Operative Phases Using 3D-based Features From Video and Support Vector Machines. In: JDCTA 3.4, 2009, pp. 21–33, doi:10.4156/jdcta.vol3.issue4.2.
  11. Harald C. Traue, Steffen Walter, Kerstin Limbrecht-Ecklundt, Ayoub Al-Hamadi, Philipp Werner: Head movements and postures as pain behavior. In: PLoS One. Vol. 13, No. 2, 2018, pp. e0192767, doi:10.1371/journal.pone.0192767.
  12. 12.0 12.1 P. Thiam et al.: Multi-modal Pain Intensity Recognition based on the SenseEmotion Database. To be published in: IEEE Trans. Affect. Comput.
  13. S. Walter et al.: Data fusion for automated pain recognition. In: IEEE. 9th International Conference on Pervasive Computing Technologies for Healthcare. 2015, pp. 261–264, doi:10.4108/icst.pervasivehealth.2015.259166.
  14. P. Lucey, J. F. Cohn, K. M. Prkachin, P. E. Solomon, I. Matthews: Painful data: The UNBC-McMaster shoulder pain expression archive database. In: IEEE Int. Conf. Autom. Face Gesture Recognit. Work. FG. 2011, pp. 57–64, doi:10.1109/FG.2011.5771462.
  15. S. Walter et al.: The biovid heat pain database: Data for the advancement and systematic validation of an automated pain recognition. In: IEEE International Conference on Cybernetics. CYBCONF 2013, doi:10.1109/CYBConf.2013.6617456.
  16. M. S. H. Aung et al.: The Automatic Detection of Chronic Pain-Related Expression: Requirements, Challenges and the Multimodal EmoPain Dataset. In: IEEE Trans. Affect. Comput. Vol. 7, No. 4, 2016, pp. 435–451, doi:10.1109/TAFFC.2015.2462830.