12月3日,谷歌發布了其云視覺API,來執行這些任務,如:識別人臉、標志和文字,探測物體并了解其環境的應用。一些客戶都對這些功能感到非常興奮,在市場上其它企業也正在尋找類似的一種服務,為使其適應其業務模式。
為什么一個機器人需要去看呢?Vision(視覺)在我們的生活中,是非常有意義的,而且也是主要媒介之一。為了使機器人能夠與人類進行相處,以及提供給我們所需要的服務等。當務之急就是它們可以觀察,并且能夠根據自己視覺所觀察到的東西,來引導自己的行為。這可能是一個小攝像頭的形式,可以幫助盲人去“看”和感受環繞他們周圍的世界。或者是一個家庭監控系統,該系統能夠正確識別一群流浪貓之間的差異,或者移動樹枝,和一個防盜的形式。
2015世界機器人大會在北京國家會議中心開幕。加拿大阿爾貝塔大學教授、加拿大工程院院士張宏,在分論壇演講時表示,現在形形色色的機器人還沒有產業化,尤其是服務機器人,而服務機器人發展空間很大。
要想發展服務機器人,就要讓機器人獲得人的能力,重點是解決機器人視覺系統。因為視覺對人很重要,人類獲得訊息90%以上是依靠眼睛的,那么對于機器人,獲得信息來說,也是非常重要。
在過去的一年中,圍繞著AI(人工智能)的嗡嗡聲,一直在非常強勁的增長。我們還從來沒有如此接近的觀察到這個技術的好處。2016年,將會看到新式的AI(人工智能)的供電設備,因為我們對于人工智能,所面臨的最困難的挑戰之一,已經取得了進展:讓我們的設備,能夠了解它們所看到的。
在我們的日常生活中,由于設備逐漸成為我們不可分割的一部分,我們已經看到如果沒有足夠的視覺能力,越來越多的應用程序將走向失敗,其中包括空中無人機碰撞和機器人吸塵器“吃”了它們本不應該吃的東西。
機器人視覺,作為AI(人工智能)一個快速增長的分支,目的是能夠給機器人與我們自己相當的視覺,在過去幾年中,由于研究人員運用專門的神經網絡,以幫助機器人識別和理解來自現實世界的圖像,機器人視覺已經取得了巨大的進步。2012年是一個開始的起點,雖然電腦現在能夠做一切,從在互聯網中識別貓,到能夠在一組照片中,識別特定的面孔,但仍然有很長的路要走。今天,我們看到機器視覺能夠離開數據中心,并適用于一切從自主無人機到機器人身上,可以整理我們的食物。
為了更好的了解機器人視覺,一個常見的類比,機器人視覺與人類自己的視覺,就好比天空中飛行的鳥類與飛機。兩者最終都將依賴于基礎物理學(如伯努利原理),來幫助它們飛入到高空中,但是,這并不意味著飛機將要扇動它的翅膀進行飛翔。只是因為人與機器可能會看到同樣的東西,并且對這些圖像進行解釋的方式,甚至可能有一定的共性,最后的結果仍然可能是具有很大的不同。
雖然基本的圖像分類已經變得更加容易,但是,當它涉及到從抽象的場景中提取意義和信息時,機器人就面臨著一系列新的問題。錯覺就是一個很好的例子,機器人視覺仍然還有很長的路要走。
每個人可能都熟悉兩個剪影彼此面對,所產生經典的錯覺。當一個人看著這個圖像時,他們不限于只看到抽象的形狀。他們的大腦中插入更多的背景,使他們能夠識別圖像的多個部分,看到兩副面孔或一個花瓶,其實所有的都來自相同的圖像。
當我們通過一個分類,就能夠管理這些相同的圖像(你可以在互聯網上找到一些免費的),我們很快就意識到,對于一臺機器來說,要理解這些復雜的東西,這是多么困難的。一個基本的分類,并沒有看到兩副面孔或一個花瓶,而是看到另外的一些東西,像一把斧頭、鉤子、防彈背心,甚至是一把木吉他。雖然該系統是公認的不確定性,在這些圖像中,實際上任何東西都有可能產生,它顯示了多么大的挑戰性,人類尚且看不太懂,更不要說是機器人了。
如果我們看到一些更復雜的東西,這個問題甚至會變得更加困難,比如BeverlyDoolittle(富康杜利特爾)的一幅畫,雖然看到這個圖的每個人,可能不能夠發現,其實每個人的臉都在這塊畫布上,他們幾乎立即看到,比映入他們眼簾更多的圖片。
為了理解為什么這是如此大的挑戰,你需要考慮,為什么視覺是如此的復雜。就像這些圖像一樣,世界其實是一個非?;靵y的地方。瀏覽世界,并沒有像構建一個算法,然后通過數據進行分析這么簡單,它要求我們需要根據實際的情況,我們能夠采取相應的行動經驗,并且需要進行深入的理解。
機器人和無人駕駛飛機面對這些無數的障礙,可能是超出常規的,并且找出如何克服這些挑戰的方法,是那些希望能夠實現人工智能革命的人,需要解決的一大問題。
隨著連續采用這些技術,如神經網絡和專用機器視覺硬件,我們正在迅速縮小人類和機器視覺之間的差距。在將來的某一天,我們甚至開始看到機器人的視覺能力,可能會超越我們自己,使它們能夠完成許多復雜的任務,并且我們的社會將會完全自主運作。
更多資訊請關注機器視覺頻道