5月29日消息,今日上午,國(guó)家地方共建人形機(jī)器人創(chuàng)新中心聯(lián)合復(fù)旦大學(xué)未來信息創(chuàng)新學(xué)院,正式發(fā)布了全球首款生成式人形機(jī)器人運(yùn)動(dòng)大模型—— “龍躍”(MindLoongGPT)。
龍躍大模型以“自然語言驅(qū)動(dòng)”為核心,構(gòu)建了從多模態(tài)輸入到高保真動(dòng)作生成的完整閉環(huán),顛覆傳統(tǒng)運(yùn)動(dòng)控制范式。
也就是說,用戶無需學(xué)習(xí)專業(yè)術(shù)語或操作復(fù)雜軟件,僅需像與人類對(duì)話一樣發(fā)出指令,例如“以優(yōu)雅的姿勢(shì)遞上一杯咖啡”、“揮手致意”或上傳一段參考視頻,龍躍大模型即可自動(dòng)解析語義并生成對(duì)應(yīng)的連貫動(dòng)作,并支持通過追加指令實(shí)時(shí)調(diào)整細(xì)節(jié)。
這一能力,在教育、服務(wù)機(jī)器人領(lǐng)域具有顛覆性意義。據(jù)介紹,龍躍大模型具有四大核心技術(shù)優(yōu)勢(shì):
一是多模態(tài)交互、低門檻驅(qū)動(dòng)。用戶只需用自然語言驅(qū)動(dòng),模型即可“一切行動(dòng)聽指揮”。
二是擬真度與時(shí)序一致性雙突破。通過將人體動(dòng)作視為“時(shí)序語言”,生成的跑步、舞蹈等動(dòng)作不僅流暢自然,更保留真實(shí)人體的慣性節(jié)奏。
三是結(jié)構(gòu)生成與細(xì)節(jié)優(yōu)化并重。模型采用分階段生成策略,從全局姿態(tài)到局部關(guān)節(jié)角度均實(shí)現(xiàn)毫米級(jí)精度控制。
四是輕量化設(shè)計(jì),賦能廣泛場(chǎng)景。在保證性能的前提下,MindLoongGPT模型體積被壓縮至同類型產(chǎn)品的1/3,可在教育機(jī)器人、智能穿戴設(shè)備等嵌入式平臺(tái)實(shí)時(shí)運(yùn)行,為產(chǎn)業(yè)落地鋪平道路。