NVIDIA Jeston TX1‎ > ‎TX1應用‎ > ‎

Jetson TK1打造智能分揀機器人:確定這不是夾娃娃神器嗎?

話說,大家接觸過分揀機器人嗎?
如果沒有,那大家接觸過製造生產線嗎?還沒有,那接觸過快遞嗎?

嗯,看到大家都接觸過快遞,小編就放心了,因為接下來還可以愉快的聊下去。
隨著消費者和行業客戶對於定制化產品的需求不斷增加,因此,自動分揀系統也就應運而生,逐漸代替人工揀選系統,提高了貨物揀選準確率和作業效率。目前越來越多行業的配送中心開始採用自動分揀系統,如:捲菸、醫藥、快遞等。

所以明白為什麼你的快遞送的那麼快了吧?除了飛毛腿的快遞小哥,自動分揀機器人也功不可沒呢。

來,讓大家看看自動分揀的機器人:

但是傳統的分揀機器人,依靠條形碼等標示進行物品和零件的識別工作,不過這樣的方式存在著操作繁瑣、效率低的缺點,而且一旦工件位置發生變化則會導致機器人抓取和裝配失敗,從而影響生產效率。那麼如何解決這樣的問題呢?分揀機器人能不能像人一樣用自己的“眼睛”來識別貨物,同時發揮出機器人不怕苦、速度快的特點呢?

別忘了:你們想到,NVIDIA就要做到。近些年,視覺技術與機器人相結合,使機器人擁有類似人眼的識別功能,從而使機器人分揀時更加柔性化、高精化、智能化。這不,浙江大學的師生就用Jetson TK1 高性能嵌入式視覺平台打造了一台具有“視覺識別能力”的智能分揀機器人。

箭頭所指就是智能分揀機器人哦,因為是測試,所以我們的機器人是“萌”版的……不許笑,機器人雖小,但能力可不俗呢。

Jetson TK1賦予分揀機器人“火眼金睛”

Jetson TK1平台具有GPU 加速處理功能,加快圖像處理速度,提高識別速度和精度,開發套件集成度高,體積小,大大減少外部設備和視覺系統成本。所有這些特質,讓Jetson TK1成為新型智能分揀機器人的最佳拍檔。

本次由浙大師生打造的智能分揀機器人,可採用Kinect或普通攝像頭獲取圖像,由Darknet YOLO 卷積神經網絡物體識別算法對圖像中的物體進行識別,獲取待抓取物體的位置,然後TK1與機械手控制器通訊,完成接近待抓取物體、抓取物體、移動到指定位置並釋放的一系列動作。

Darlnet YOLO (You Only Look Once)作為一種快速的捲積神經網絡目標識別算法,可以準確的識別出所給圖像中的目標。 YOLO 則把物體框的選擇與識別進行了結合,一步輸出,即變成”You Only Look Once”,所以識別速度非常快,達到每秒45 幀;而在快速版YOLO(Fast YOLO,卷積層更少)中,可以達到每秒155 幀,將其應用到工業領域具有廣闊的應用前景。 (簡直是夾娃娃神器嘛!)

CUDA 作為一種通用並行計算架構,該架構使GPU 能夠解決複雜的計算問題。 Jetson TK1 的處理器支持CUDA™,於是YOLO 目標識別程序就可以在Jetson TK1上以超高性能運行。

4步實現YOLO 卷積神經網絡訓練建模

為了讓機器人能夠識別目標對象,其實只需要簡單4步驟,對YOLO 卷積神經網絡進行訓練建模,就可以實現了:
圖像庫準備
截取所給視頻素材中所有的典型的車輛目標圖像,並歸類保存,建立訓練用樣本庫;
標記物體
用BBox-Label-Tool 插件去對​​訓練用樣本集合中的目標進行標記。設置classes,在汽車目標識別的時候選取1,車型的時候設置為3,分別對應大型車、中型車和小型車。
設置網絡初始參數
這裡採用預訓練的權值文件。
神經網絡訓練

在實際測試中,測試所用到的警察、飛船、超人、鳥和馬都被正確的識別出來了。

DIY製作分揀機器人秘籍

1
搭建平台,應用六自由度機械手,擁有更大的操作區域,能夠更有效的完成分揀。

用攝像頭進行目標識別,獲取位置信息。

搭建整套裝置,並進行聯調,順利完成視覺引導機械手進行分揀操作。 TK1 採集物體圖像,然後識別物體,給出物體標號,控制機械手接近物體、夾取物體、移動物體和釋放物體的操作。物體的位置實現存入TK1,TK1 識別出物體標號,獲取物體的坐標信息。



怎麼樣,學會怎麼夾娃娃,哦不,智能分揀機器人了吧?
Comments