據英國網站theengineer報道,英國劍橋大學正在開發一種能通過追蹤人的面部表情和說話方式來感知人類情感的軟件。 這個項目是由劍橋大學計算機實驗室的彼得·羅賓遜教授(ProfPeterRobinson)領導,他希望通過這個軟件來提高人機互動的效果。羅賓遜教授 表 示,以往的電腦只能理解人類打字輸入的結果或是人曾說過的話。但他們開發的這套系統不僅能知道人在正在說什么,還能知道人為什么會這么說。 項目組目前與劍橋大學自閉癥研究中心聯合開發這套軟件系統,因為自閉癥研究中心對人類情感的研究成果同樣有助于軟件開發。 這套軟件系統分幾個部分,其中一個部分專門追蹤人類的面部,并對人的手勢進行計算分析,進而推斷出人當前的喜怒哀樂狀況。目前的實驗顯示,它的分析結果正確率為70%,和大部分人直接觀察出的結果幾乎是一致的。 軟件的其它部分則負責分析人說話時的語音語調并結合人的肢體語言與手勢推斷出說話人的情感。 項目組開發者們希望能利用這套技術來開發出新的指揮與控制系統并應用于實際。比如說,通過感知汽車司機的注意力是集中還是分散,系統可以幫助他避免來自于手機、收音機或衛星導航系統的干擾。 還有一些組員則致力于利用這套技術來開發能與人溝通的機器人。他們按照英國計算機先驅查爾斯·巴貝奇(Charles Babbage)的臉容制造出了一個機器人的頭部,這個機器人頭部由24個馬達來控制臉部的“肌肉”,它能做出很多的表情。科學家們希望能通過這個機器人更好地研究人與電腦之間如何才能進行情感交流,進而產生共鳴,建立融洽的感情并共同合作。
|