首頁 > 互聯網 > > 正文

              AI學會“察言觀色” 可對面部表情實時追蹤

              2021-02-18 10:16:13    來源:雷鋒網

              與人類一樣,AI 也學會了 “察言觀色”

              有研究表明,人類在相似的社會環境下表達情感的面部表情幾乎是相同的。如果一個人皺眉、嘟嘴、臉色漲紅,你一定知道 TA 是在生氣,現在 AI 同樣能夠 “看穿”這一點。

              情感分析一直是 AI 的重點研究方向,它分為文本識別、語音識別、視覺識別三種主要途徑,后者也就是面部表情的分析。

              最近這項研究又有了新的進展。在識別生氣,憤怒、開心、悲傷等情緒特征的基礎上,AI 或許能夠更進一步追蹤面部情緒變化的全過程。

              近日,三星人人工智能研究院(Samsung AI)聯合倫敦帝國理工學院(Imperial College London)在《自然機器智能》期刊發表了一篇名為《自然狀態下人臉連續性效價和喚醒水平估計》的論文。

              在論文中,研究人員稱他們開發了一種基于深度神經網絡的 AI 系統,該系統可以通過分析日常環境下拍攝的圖像\視頻,高精度地估計人臉面部的情緒效價和情緒喚醒。

              這意味著 AI 系統不僅能夠快速、實時且精準地監測面部情緒,同時還能呈現不同情緒所達到的程度。

              用深度神經網絡識別面部表情

              上述提到的情緒效價( Valence )和情緒喚醒(Arousal),是心理學專家用來評估人類情緒的專業術語。

              其中,前者描述了一個人對于某事物的感興趣或排斥的程度。后者是指一個人對外界刺激重新產生反應的程度,比如是微笑,大笑,狂笑,還是歇斯底里的笑。

              在大部分人眼中,通過看臉評估情緒效價和喚醒是很容易的,但對于機器來說卻是一項艱難的挑戰。

              在全世界范圍內,眾多科研機構和人員都在開發基于深度神經網絡的模型,以根據人們的面部表情預測情緒,然而,到目前為止所開發的大多數模型僅能夠檢測出憤怒、快樂、悲傷等主要情緒狀態,而不是人類情感中更微妙的情緒特征。

              而本次研究提出的深度神經網絡模型能夠在識別 8 種基本面部情緒之上,進一步評估情緒的效能水平(積極狀態 or 消極狀態)以及喚醒水平(激動 or 平靜)。

              如研究人員在論文中寫道,“長期以來我們一直致力于研究面部情感分析,一般來說,情感的離散類別有限,無法覆蓋人類每天表現出的所有情緒范圍,因此,我們把注意力轉移到更普遍的情感維度上,即效價和喚醒。”

              他們將該模型在三個具有挑戰性的數據集上進行了測試,效果如下:

              如我們所見,在連續性狀態下,模型能夠精準識別面部情緒,并實時反映其情緒所達到的程度,如藍色條越高代表越憤怒。

              黃色條的高度代表悲傷的程度。

              研究人員介紹,該模型主要是通過特定五官來分析面部表情,如一個人的嘴唇、鼻子、眼睛等,這使得它能夠把注意力集中在與估計效價和喚醒水平最相關的區域,并實現分析人臉在自然狀態下的情緒特征。

              另外,該 AI 模型還能夠在 8 種常見的面部情緒中,給出更精確的監測定位(如右下角)。

              研究人員稱,該模型能夠在給定的面部圖像上,準確地、連續性地估計情緒效價和喚醒,是因其經過了有注釋的圖像數據集的訓練,這些圖像包含了有關效價和喚醒的信息。

              同時在算法方面,為了提高模型在任務中的性能,他們使用了離散情緒類別作為輔助標簽,以提供額外監督;為了防止在網絡訓練過程中出現過擬合問題,采用了隨機過程、抖動正則化相結合的方法。

              當然除了關鍵算法,構建機器學習系統還需要一個基本要素:合適的數據集。以上 Demo 的訓練數據集為 AFEW-VA 和 SEWA,它們是研究團隊專門自建的可用于訓練情緒識別的深層神經網絡的數據集。

              研究人員說:“我們創建 AFEW-VA 數據集,目的是要驗證在自然條件下模型的有效性,而不是受控于實驗室條件下的有效性。因此該數據集包含的內容均來自真實世界所拍攝的圖像和視頻。”

              在最初的評估中,深度神經網絡模型能夠在自然條件下拍攝的人臉圖像中達到前所未有的準確度,而且在 AffectNet 和 SEWA 數據集上進行測試時,它所表現的性能與人工標注基本能夠達到一致性。

              研究人員說:“我們的神經網絡在兩個數據集上的表現優于專家注釋之間的一致性。”,這意味著如果將神經網絡視為另一個人工注釋者,那么它與人類注釋者之間的一致性至少與其他人類注釋者之間的一致性相同,這樣的結果是非常顯著的。”

              更重要的是,除了性能表現良好外 , 采用深度學習更易于操作和退推廣,因為它的預測是基于普通相機拍攝的圖像和視頻,例如它可以用于市場分析,或創造更具交互性的機器人。

              論文的最后,研究人員強調,無論是情緒類型識別的精度度,還是反映不同情緒的變化過程,該 AI 模型要優于所有現有的方法。

              看到這里有同學可能會好奇,AI 為什么要達到如此高的情緒識別度?

              有哪些潛在應用場景

              其實,面部情感分析的目的是讓計算機更好地理解人的情緒狀態,從而創建更友好的人機交互過程。

              在現實環境中,它在智能駕駛、新零售、臨床醫療等諸多領域都有著廣泛的應用場景,也正是這些領域對 AI 識別人類情緒的能力提出了更高的要求。

              例如在智能駕駛領域,AI 對駕駛員的表情識別是提升智能汽車安全性和舒適性的關鍵因素。比如當系統推薦了一首駕駛員或乘客不喜歡的音樂時,通過分析車內人員的面部表情,系統便可自動 “切歌”。

              或者在新零售領域,商家可以采用表情識別技術分析顧客情緒,了解他們對不同商品的喜好程度,以此推薦適合的廣告,實現精準營銷等等。

              隨著人工智能技術和相關學科的飛速發展,人們對自動化和人機交互的需求日益強烈,表情識別作為計算機理解人類情感的基礎,相關研究成果也有了很大的進展,不過,總體而言仍處于實驗室探索階段,距離大規模場景落地還有很長的一段距離。

              另外,據有關研究表明,人類的面部表情至少有 21 種,除了高興、悲傷、憤怒、厭惡等 8 種常見情緒外,還有 13 種可別區分的復合表情。那么你覺得未來 AI 真的能看懂人類復雜的情緒變化嗎?

              相關熱詞搜索: AI 面部表情 追蹤

              上一篇:專注自動駕駛 Mobileye芯片已被超27家汽車制造商采用
              下一篇:特斯拉披露ModelY生產線狀況 部署大量庫卡機器人

              熱點話題

              熱點推薦

              頭條

              ? 亚洲午夜久久久久久尤物| 亚洲AV无码专区在线厂| 亚洲成a人片在线不卡一二三区 | 亚洲欧美自偷自拍另类视| 亚洲午夜在线一区| 亚洲视频一区二区在线观看| 亚洲国产第一页www| 亚洲av永久无码制服河南实里| 亚洲熟妇中文字幕五十中出| 在线观看亚洲精品福利片| 中文字幕人成人乱码亚洲电影| 久久精品亚洲乱码伦伦中文| 久久夜色精品国产亚洲av| 日韩亚洲变态另类中文| 亚洲啪啪综合AV一区| 国产亚洲精品一品区99热| 亚洲av永久无码精品漫画| 亚洲AV无一区二区三区久久| 亚洲电影国产一区| 亚洲伊人久久大香线蕉苏妲己| 亚洲午夜久久影院| 亚洲国产成人九九综合| 亚洲第一男人天堂| 99亚洲精品卡2卡三卡4卡2卡| 免费在线观看亚洲| 自拍偷自拍亚洲精品第1页| 亚洲乱码日产一区三区| 亚洲国产精品第一区二区 | 亚洲欧美不卡高清在线| 激情无码亚洲一区二区三区| 国产亚洲精品美女久久久久 | 亚洲情a成黄在线观看| 亚洲自偷自偷图片| 亚洲国产精品不卡在线电影| 亚洲成a人片77777群色| 亚洲色大成网站www永久网站| 无码天堂va亚洲va在线va| 相泽亚洲一区中文字幕| 亚洲成年轻人电影网站www| 亚洲精品影院久久久久久| 中文有码亚洲制服av片|