詳細介紹
表演跳舞機器人
表演跳舞機器人參數:高度約40CM
可仿人類自主直立行走 動作準確靈活
可通過語音、鍵盤、遙控器操控,3D可視化動作編程,可表演唱歌、跳舞、功夫、踢足球等,也可編程編輯動作,對小孩子提高科學知識的性趣很有好處哦。
許多研討人工智慧(AI)的公司都在透過深度學習來教會機器人辨識圖像,卡內基美隆大學(CMU)的研討團隊則選了別的一種辦法,他們試著經驗機器人透過觸摸來認知世界,就像嬰兒一樣。
TechCrunch 報導,在每天 8 小時實驗時期,這個名為「Baxter」的機器人只需一個任務要進行──從桌上隨機抓取物品,它的動作緩慢而笨拙,即使如此,這一個月時期也現已進行了 5 萬次的抓取動作,Baxter 正在透過觸覺反應和檢驗過錯來學習。
研討團隊在宣布的論文中,說明了他們怎樣透過讓機器人反覆觸摸物品,來進步對物品的認知,「以嬰兒來說,他們透過用手推、戳物品、把東西放進嘴裡或扔出去來學會認知表徵,我們也希望到達這么的方針,所以在 Baxter 的程式平臺中建構了類似的方式,讓它們在桌面環境上戳、抓取并查詢物品。」
為了闡明學習觸摸的重要性,研討室助理 Dhiraj Gandhi 用 1970 時代中期英國的一項實驗做為比方,其時研討人員對兩隻貓進行認知實驗,其間一隻就像平常一樣日子、與世界觸摸,另一隻貓則只可以觀看,不被容許觸摸物品,畢竟只需被容許與環境互動的學會爬行,只能查詢的不能做出一樣做法。
而在實驗中,Baxter 逐漸地展現出對物品認知的進步,當機器人認出了解的物品時,平板閃現螢幕上會暴露「微笑」,并且抓取物品放入適宜的籃子;如果對物品不了解,螢幕上則會暴露「利誘」的表情──研討人員并不擔憂,他們信任沒有什麼是別的 5 萬次抓取練習學習不了的。
這項研討改變了傳統的機器視覺學習方式,不同于以往系統透過現已輸入的標籤去區分、尋覓物品,Baxter 是透過觸摸來自我學習認知,Gandhi 說明,以前圖像和標籤之間并沒有互動,在視覺系統中只需數據可以收集。