MIT開(kāi)發(fā)機(jī)器學(xué)習(xí)模型,助力更好的人機(jī)交互

時(shí)間:2018-08-02

來(lái)源:網(wǎng)絡(luò)轉(zhuǎn)載

導(dǎo)語(yǔ):麻省理工學(xué)院媒體實(shí)驗(yàn)室(MITMediaLab)的研究人員開(kāi)發(fā)了一種機(jī)器學(xué)習(xí)模型,它使計(jì)算機(jī)更接近于像人類(lèi)一樣自然地解釋我們的情緒。

【MIT開(kāi)發(fā)機(jī)器學(xué)習(xí)模型,助力更好的人機(jī)交互】麻省理工學(xué)院媒體實(shí)驗(yàn)室(MITMediaLab)的研究人員開(kāi)發(fā)了一種機(jī)器學(xué)習(xí)模型,它使計(jì)算機(jī)更接近于像人類(lèi)一樣自然地解釋我們的情緒。

媒體實(shí)驗(yàn)室的研究人員開(kāi)發(fā)了一種機(jī)器學(xué)習(xí)模型,該模型在捕捉這些小的面部表情變化方面優(yōu)于傳統(tǒng)系統(tǒng),可以在訓(xùn)練數(shù)千張面部圖像時(shí)更好地衡量情緒。此外,通過(guò)使用一些額外的訓(xùn)練數(shù)據(jù),該模型可以適應(yīng)全新的一組人,具有相同的功效。目的是改進(jìn)現(xiàn)有的情感計(jì)算技術(shù)。

“這是監(jiān)控我們心情的一種不引人注目的方式。”媒體實(shí)驗(yàn)室研究員兼合作者OggiRudovic在一篇描述該模型的論文中說(shuō)道,“如果你想要具有社交智能的機(jī)器人,你必須讓它們變得聰明,更像人類(lèi),可以自然地回應(yīng)我們的心情和情緒?!?/p>

該論文的共同作者是:第一作者為MichaelFeffer,電氣工程和計(jì)算機(jī)科學(xué)的本科生;RosalindPicard,媒體藝術(shù)和科學(xué)教授,情感計(jì)算研究小組的創(chuàng)始負(fù)責(zé)人。

個(gè)性化專(zhuān)家

傳統(tǒng)的情感計(jì)算模型使用“一刀切”的概念。他們?cè)谝唤M圖像上進(jìn)行訓(xùn)練,圖像上描繪了各種各樣的面部表情,優(yōu)化了一些特征——例如唇部在微笑時(shí)如何卷曲——并將這些一般特征優(yōu)化映射到整個(gè)新圖像集。

相反,研究人員將一種稱(chēng)為“混合多專(zhuān)家模型”(MoE)的技術(shù)與模型個(gè)性化技術(shù)相結(jié)合,這種技術(shù)幫助從個(gè)體中挖掘出更細(xì)粒度的面部表情數(shù)據(jù)。Rudovic說(shuō),這是第一次將這兩種技術(shù)結(jié)合起來(lái)用于情感計(jì)算。

在MoE中,許多稱(chēng)為“專(zhuān)家”的神經(jīng)網(wǎng)絡(luò)模型都經(jīng)過(guò)訓(xùn)練,專(zhuān)門(mén)從事單獨(dú)的處理任務(wù)并產(chǎn)生一個(gè)輸出。研究人員還納入了一個(gè)“門(mén)控網(wǎng)絡(luò)”,它可以計(jì)算出哪個(gè)專(zhuān)家能夠最能察覺(jué)未被發(fā)現(xiàn)情緒的概率。“基本上,網(wǎng)絡(luò)可以分辨出不同的個(gè)體,并指出,這是給定圖像的正確專(zhuān)家。”Feffer說(shuō)。

對(duì)于他們的模型,研究人員通過(guò)將每個(gè)專(zhuān)家與RECOLA數(shù)據(jù)庫(kù)中的18個(gè)單獨(dú)視頻錄制中的一個(gè)進(jìn)行匹配來(lái)個(gè)性化MoE。RECOLA數(shù)據(jù)庫(kù)是一個(gè)公共數(shù)據(jù)庫(kù),在專(zhuān)為情感計(jì)算應(yīng)用設(shè)計(jì)的視頻聊天平臺(tái)上,人們進(jìn)行交談的數(shù)據(jù)。他們使用9個(gè)分類(lèi)訓(xùn)練模型,并在其他9個(gè)分類(lèi)上對(duì)其進(jìn)行評(píng)估,所有視頻都分解為單獨(dú)的幀。

每個(gè)專(zhuān)家和門(mén)控網(wǎng)絡(luò)在剩余網(wǎng)絡(luò)(“ResNet”)的幫助下跟蹤每個(gè)人的面部表情,該網(wǎng)絡(luò)是用于物體分類(lèi)的神經(jīng)網(wǎng)絡(luò)。在這樣做時(shí),模型基于情緒效價(jià)(愉快或傷心)和喚醒(興奮)對(duì)每個(gè)幀進(jìn)行評(píng)分,這是一種常用指標(biāo)來(lái)編碼不同的情緒狀態(tài)。另外,六名人類(lèi)專(zhuān)家根據(jù)-1(低水平)到1(高水平)的等級(jí)標(biāo)記每一幀的效價(jià)和喚醒,該模型也用于訓(xùn)練。

然后,研究人員進(jìn)行了進(jìn)一步的模型個(gè)性化,他們從剩下視頻片段的一些幀中輸入訓(xùn)練過(guò)的模型數(shù)據(jù),然后在這些視頻中對(duì)所有看不見(jiàn)的幀進(jìn)行測(cè)試。最后的結(jié)果顯示,只有5%到10%的數(shù)據(jù)來(lái)自新人群,該模型大大優(yōu)于傳統(tǒng)模型,這意味著它在看不見(jiàn)的圖像上獲得了效價(jià)和喚醒,更接近人類(lèi)專(zhuān)家的解釋。

Rudovic說(shuō),這表明模型在極少的數(shù)據(jù)下,從人群到人群,或個(gè)體到個(gè)體的適應(yīng)力?!斑@是關(guān)鍵。”他說(shuō),“當(dāng)你有一個(gè)新人群時(shí),你必須有辦法解釋數(shù)據(jù)分布的變化[微妙的面部變化]。設(shè)想一個(gè)模型集來(lái)分析一種文化中需要適應(yīng)不同文化的面部表情。如果不考慮這種數(shù)據(jù)轉(zhuǎn)移,那些模型將會(huì)表現(xiàn)不佳。但是,如果你只是從新文化中抽取一點(diǎn)來(lái)調(diào)整我們的模型,這些模型可以做得更好,特別是在個(gè)人層面。這是最能體現(xiàn)模型個(gè)性化重要性的地方?!?/p>

目前可用于這種情感計(jì)算研究的數(shù)據(jù)在膚色方面并不是很多樣,因此研究人員的訓(xùn)練數(shù)據(jù)是有限的。但是,當(dāng)這些數(shù)據(jù)可用時(shí),可以訓(xùn)練模型以用于更多不同的人群。Feffer說(shuō),下一步是將模型訓(xùn)練為“一個(gè)更加多元化文化的更大數(shù)據(jù)集”。

更好的人機(jī)交互

研究人員說(shuō),訓(xùn)練模型的另一個(gè)目標(biāo)是,幫助計(jì)算機(jī)和機(jī)器人自動(dòng)從少量變化的數(shù)據(jù)中學(xué)習(xí),以更自然地檢測(cè)我們的感受并更好地滿(mǎn)足人類(lèi)的需求。

例如,它可以在計(jì)算機(jī)或移動(dòng)設(shè)備的背景中運(yùn)行,以跟蹤用戶(hù)基于視頻的對(duì)話(huà),并在不同的環(huán)境下學(xué)習(xí)細(xì)微的面部表情變化?!澳憧梢宰屩悄苁謾C(jī)應(yīng)用程序或網(wǎng)站之類(lèi)的東西能夠分辨出人們的感受,并提出應(yīng)對(duì)壓力或疼痛的方法,以及其它對(duì)他們生活產(chǎn)生負(fù)面影響的事情?!盕effer說(shuō)。

這也可能有助于監(jiān)測(cè)抑郁癥或癡呆癥,因?yàn)槿藗兊拿娌勘砬橥蜻@些條件而微妙地改變。“能夠被動(dòng)地監(jiān)控我們的面部表情?!盧udovic說(shuō),“隨著時(shí)間的推移,我們可以向用戶(hù)個(gè)性化這些模型,并監(jiān)控他們每天有多少偏差——偏離平均表情水平——并采用它關(guān)于健康和幸福的指標(biāo)?!?/p>

Rudovic說(shuō),一個(gè)很有前途的應(yīng)用是人類(lèi)—機(jī)器人互動(dòng),例如個(gè)人機(jī)器人或用于教育目的的機(jī)器人,機(jī)器人需要適應(yīng),并評(píng)估許多不同人的情緒狀態(tài)。例如,一個(gè)版本被用于幫助機(jī)器人更好地解釋自閉癥兒童的情緒。

中傳動(dòng)網(wǎng)版權(quán)與免責(zé)聲明:

凡本網(wǎng)注明[來(lái)源:中國(guó)傳動(dòng)網(wǎng)]的所有文字、圖片、音視和視頻文件,版權(quán)均為中國(guó)傳動(dòng)網(wǎng)(www.hysjfh.com)獨(dú)家所有。如需轉(zhuǎn)載請(qǐng)與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個(gè)人轉(zhuǎn)載使用時(shí)須注明來(lái)源“中國(guó)傳動(dòng)網(wǎng)”,違反者本網(wǎng)將追究其法律責(zé)任。

本網(wǎng)轉(zhuǎn)載并注明其他來(lái)源的稿件,均來(lái)自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請(qǐng)保留稿件來(lái)源及作者,禁止擅自篡改,違者自負(fù)版權(quán)法律責(zé)任。

如涉及作品內(nèi)容、版權(quán)等問(wèn)題,請(qǐng)?jiān)谧髌钒l(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。

關(guān)注伺服與運(yùn)動(dòng)控制公眾號(hào)獲取更多資訊

關(guān)注直驅(qū)與傳動(dòng)公眾號(hào)獲取更多資訊

關(guān)注中國(guó)傳動(dòng)網(wǎng)公眾號(hào)獲取更多資訊

最新新聞
查看更多資訊

娓娓工業(yè)

廣州金升陽(yáng)科技有限公司

熱搜詞
  • 運(yùn)動(dòng)控制
  • 伺服系統(tǒng)
  • 機(jī)器視覺(jué)
  • 機(jī)械傳動(dòng)
  • 編碼器
  • 直驅(qū)系統(tǒng)
  • 工業(yè)電源
  • 電力電子
  • 工業(yè)互聯(lián)
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機(jī)界面
  • PLC
  • 電氣聯(lián)接
  • 工業(yè)機(jī)器人
  • 低壓電器
  • 機(jī)柜
回頂部
點(diǎn)贊 0
取消 0