機器人智能抓取系統:目前幾種主流的解決方案

文章來源:COBOT機器人大腦、新機器視覺

機器人學習中的經典問題之一便是分揀:在一堆無序擺放的物品堆中,取出目標物品。在快遞分揀員看來,這幾乎是一個不需要思考的過程,但對於機械臂而言,這意味着複雜的矩陣計算。

事實上,對於人類需要耗費大量時間的數理難題,用智能系統處理起來就顯得十分容易,但在幾乎不需要思考的情況下就能做出的分選動作,則是全世界機機器人研究專家關注的熱點。

機械臂抓取需要確定每段機械臂的位姿

首先,機械臂需要視覺伺服系統,來確定物體的位置,根據末端執行器(手)和視覺傳感器(眼)的相對位置,可分爲Eye-to-Hand和Eye-in-Hand兩種系統

Eye-to-Hand的分離式分佈,視野固定不變,如果相機的標定精度高的話,那麼視覺定位於抓取的精度也越高。

Eye-in-Hand則將機械臂與視覺傳感器固定在一起,視野隨機械臂的移動而改變,傳感器越近時精度越高,但過於靠近時則可能使目標超出視野範圍。

精密的視覺系統與靈活機械臂的配合,才能完成一次完美的抓取,而這正是當前機器人操作中的核心難題,歸納起來就是這麼一件事:找到合適的抓取點(或吸附點),抓住它。之後的轉運執行,則屬於運動規劃的分支。

目前幾種主流的解決方案

Model-based(基於模型的方法)

這種方法很好理解,即知道要抓什麼,事先採用實物掃描的方式,提前將模型的數據給到機器人系統,機器在實際抓取中就只需要進行較少的運算:

1. 離線計算:根據搭載的末端類型,對每一個物體模型計算局部抓取點;

2. 在線感知:通過RGB或點雲圖,計算出每個物體的三維位姿;

3. 計算抓取點:在真實世界的座標系下,根據防碰撞等要求,選取每個物體的最佳抓取點。

RGB顏色空間由紅綠藍三種基本色組成,疊加成任意色彩,同樣地,任意一種顏色也可以拆解爲三種基本色的組合,機器人通過顏色座標值來理解“顏色”。這種方式與人眼識別顏色的方向相似,在顯示屏上廣泛採用。

CGrasp 對精密軸承的無序抓取

Half-Model-based(半模型的方法)

在這種訓練方式中,不需要完全預知抓取的物體,但是需要大量類似的物體來訓練算法,讓算法得以在物品堆中有效對圖像進行“分割”,識別出物體的邊緣。這種訓練方式,需要這些流程:

1.離線訓練圖像分割算法,即把圖片裏的像素按物體區分出來,此類工作一般由專門的數據標註員來處理,按工程師的需求,標註出海量圖片中的不同細節;

2.在線處理圖像分割,在人工標註出的物體上,尋找合適的抓取點。

這是一種目前應用較爲廣泛的方式,也是機械臂抓取得以推進的主要推力。機械臂技術發展緩慢,但計算機視覺的圖像分割則進展迅速,也從側面撬動了機器人、無人駕駛等行業的發展。

Model-free(自由模型)

這種訓練方式不涉及到“物體”的概念,機器直接從RGB圖像或點雲圖上計算出合適的抓取點,基本思路就是在圖像上找到Antipodal(對映點),即有可能“抓的起來”的點,逐步訓練出抓取策略。這種訓練方式往往讓機器手大量嘗試不同種類的物品,進行self-supervisedlearning,Google的Arm Farm,即爲其中的代表之一。

Google Arm Farm

值得注意的是,對於機械手而言,不同形狀的物品,抓取難度有天壤之別。即便是同樣形狀的物體,由於表面反光度和環境光照的影響,在不同場景的抓取難度也大相徑庭。從實驗室到商業落地,其中有相當一段路要走。

高精密度的相機研發,是機器人“感知”物體的第一步。

實際商業場景中,最麻煩的物體總是“下一個物體”。工業機器人要真正融入實際生產體系,只有具備聰明的大腦,針對不同工況做出柔性的調整,才能拓寬工業機器人的使用場景。

未來智能實驗室的主要工作包括:建立AI智能系統智商評測體系,開展世界人工智能智商評測;開展互聯網(城市)雲腦研究計劃,構建互聯網(城市)雲腦技術和企業圖譜,爲提升企業,行業與城市的智能水平服務。

  如果您對實驗室的研究感興趣,歡迎加入未來智能實驗室線上平臺。掃描以下二維碼或點擊本文左下角“閱讀原文”

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章