當前位置: 首頁 » 智能化資訊 » 智能機器人 » 正文

MIT新機器人“成精了” 能通過視覺和觸覺識別事物

放大字體  縮小字體 發布日期:2019-06-18  瀏覽次數:3427
核心提示:目前,機器人只能在受控環境中識別物體。下一步是建立更大的數據集,這樣機器人就可以在更不同的環境下工作。

據外媒報道,對于人類來說,很容易通過觀察某個物體來判斷其外觀,或者通過觸摸它來判斷它給人的感受,但是這對機器來說是可能是個巨大的挑戰。現在,美國麻省理工學院(MIT)計算機科學和人工智能實驗室(CSAIL)開發的一種新機器人,正試圖獲得人類的視覺和觸覺能力。

CSAIL團隊使用kuka機器人手臂,并添加了一種名為GelSight的觸覺傳感器,該傳感器是由CSAIL下屬泰德·阿德爾森(Ted Adelson)團隊開發。GelSight收集的信息會被傳輸給人工智能(AI),以便后者能夠理解視覺信息和觸覺信息之間的關系。 

為了教授AI如何通過觸摸來識別物體,CSAIL團隊錄制了12000個視頻,記錄了200個物體,如織物、工具以及被觸摸的家居物品。這些視頻被分解成靜態圖像,AI使用這個數據集來連接觸覺和視覺數據。

CSAIL博士生、關于該系統的新論文主要作者李云珠(音譯)表示:“通過觀察場景,我們的模型可以想象觸摸平面或鋒利邊緣的感覺。通過盲目的觸摸,我們的模型可以純粹通過觸覺來預測與環境的交互。將這兩種感覺結合起來,可以增強機器人的能力,減少我們在操作和抓取對象時可能需要的數據。”

目前,機器人只能在受控環境中識別物體。下一步是建立更大的數據集,這樣機器人就可以在更不同的環境下工作。

加州大學伯克利分校博士后安德魯·歐文斯(Andrew Owens)表示:“這種方法可能對機器人非常有用,因為它們需要回答這樣的問題:‘這個物體是硬的還是軟的?’或者‘如果我用手把這個杯子舉起來,我的抓力會有多好?’這些都是非常具有挑戰性的問題,因為信號是如此的不同,而MIT的模型已經顯示出很強的能力。”

 
關鍵詞: 機器人 智能制造 智能化 智能機器人 傳感器 智能傳感器 人工智能

中國智能化網(zgznh®)--引領工業智能化產業發展 共享智能化+優質平臺

中國智能化網微信公眾號:

掃描下方二維碼,關注中國智能化網微信公眾號(zgznh-weixin),隨時隨地知曉智能化行業天下事!

 
[ 智能化資訊搜索 ]  [ 加入收藏 ]  [ 告訴好友 ]  [ 打印本文 ]  [ 關閉窗口 ]

 
免責申明
0條 [查看全部]  相關評論

 
智能新聞
智能供應
智能采購
 
安全聯盟站長平臺 不良信息舉報中心網絡110報警服務
深公網安備案證字第 4403101901094 號 粵ICP備12078626號-1
增值電信業務經營許可證號 粵B2-20120463
三个半单双中特