90%!它們“善解人意”到這個份上


90%!它們“善解人意”到這個份上



小說《三體》中 , “三體人”不會撒謊、彼此思維和情緒完全透明 , 這樣的情節正逐漸變為現實 。
隨著人工智能(AI)情緒識別技術的發展 , 機器已經能識別人類情緒的變化 。
情緒識別正被越來越廣泛地應用于機器智能中 , 也許有一天 , 人類會被AI徹底看穿 。
近日 , 臺灣聯合大學研究人員在IEEE ACCESS上發表論文 , 提出用特定連續動作間骨骼點速度的變化程度 , 來區分人類微妙情緒變化的新方法 。
該方法與時空圖卷積網絡(ST-GCN)相比 , “可有效地將識別精度提高50%以上” 。
別動 , 動就被看穿
“通過面部特征、語義與腦波分析來識別人類情緒的研究已經比較多了 , AI也能有效地識別出人類的情緒 。 我們試圖提出一種新的情緒識別方式 , 可以讓人們在不同場景下有更多選擇 , 未來也可以通過多手段融合 , 更準確地進行情緒識別 。 ”
論文第一作者、臺灣聯合大學助理教授蔡明峰在接受《中國科學報》采訪時表示 , “基于Pose Net深度學習神經網絡 , 我們提出時空變化圖卷積網絡技術 , 在進行情緒識別時 , 獲得人體骨架關鍵點信息不受衣物、皮膚或肌肉等因素的影響 。 ”
在人工智能情緒識別領域 , 基于面部、語義或腦電波識別技術需要大量的訓練樣本 , 通過時空變化圖卷積網絡(STV-GCN)的連續運動來訓練和識別人類行為模式 。
其識別訓練方法采用骨骼檢測技術 , 計算連續動作之間的骨骼點變化程度 , 并使用特定算法對速度水平進行分類 , 以區分快速和細微的動作 。
目前 , 該系統對相同動作不同速度的識別精度達到88.89% , 情緒狀態的識別精度達到83.34% 。
在速度分類階段和情緒狀態分類階段 , STV-GCN的準確率比ST-GCN提高50%以上 。
但是 , STV-GCN尚難以區分微妙的情緒變化 。
蔡明峰認為 , 在類似城市廣場的開放區域中 , 通過骨骼點變化進行情感識別 , 可以避免潛在的危險發生 。
系統可以主動識別憤怒或者悲傷等特殊情緒狀況的人 , 并主動通知該區域的安全管理人員進行處理 , 可以在一定程度上規避暴力沖突或惡性傷害事件發生 。
AI“懂你”九分
“并非只有面部才有微表情 , 身體姿態也有 。 ”
中國科學院自動化研究所研究員、模式識別國家重點實驗室副主任陶建華告訴《中國科學報》 , “通過面部區域或身體姿態來識別情緒其實各有優缺點 , 各有不同的適應場景 , 很難說誰比誰強 。 ”
在AI情緒識別領域 , 多數識別方法在分析面部表情的背景下進行 。 而在現實生活中 , 人們有時會通過語言和表情來掩飾自己的情緒 , 相比之下 , 肢體語言卻很難操縱 , 微表情很難被掩飾 , 往往能傳達出更細致、真實的情感狀態 。
陶建華介紹說 , 目前主要有兩種AI情感識別方式 。
一種是接觸式 , 即利用腦電、皮膚電、心率心跳等生理特征的信號變化 , 通過生理參數分析人的情緒變化 。
另一種是非接觸式 , 可以基于音頻或視頻 , 利用聲音的特點或者依靠視頻信息中表情、頭部、身體姿態變化進行識別 。
“無論是傳統的統計模型 , 還是現在基于神經網絡、深度神經網絡的一些方法 , 都能取得比較好的結果” 。
“機器不但能識別出人的情緒 , 還相當準確 。 總體來說 , 現在的準確率超過80% , 在一些特定的場景中 , 甚至能達到90%以上 。 ”
陶建華說 , “情感識別是一種信息通道 , 準確的識別能增強機器對人的理解能力 , 如果結合語義、周圍環境等信息 , 機器可以綜合判斷人的心理狀況和真實的意圖 , 從而改善人機交互能力 , 增強人機交互的友好性 。 ”

推薦閱讀