在线观看国产区-在线观看国产欧美-在线观看国产免费高清不卡-在线观看国产久青草-久久国产精品久久久久久-久久国产精品久久久

美章網 資料文庫 工業機器人物品識別分揀系統設計探析范文

工業機器人物品識別分揀系統設計探析范文

本站小編為你精心準備了工業機器人物品識別分揀系統設計探析參考范文,愿這些范文能點燃您思維的火花,激發您的寫作靈感。歡迎深入閱讀并收藏。

工業機器人物品識別分揀系統設計探析

摘要:針對工業機器人在搬運過程中需要根據物體種類進行分類揀拾作業的實際,提出了一種基于深度學習的視覺檢測與工業機器人集成的物體識別設計方案。該方案采用機器學習的方法對物體識別系統進行建模,構建圖像與物體類別之間的映射關系,實現物體圖像信息的有效識別,進而在完成解析后工業機器人根據給定的信息對物體進行分揀操作。實驗表明,運用深度學習的圖像檢測模式可實現工業機器人對物體的分類揀拾操作,能夠滿足實際作業的需求。

關鍵詞:深度學習;工業機器人;視覺識別

引言

隨著工業自動化的深入和普及,越來越多的工業機器人被應用到最前沿的生產一線中,這些應用于實際生產制造的工業機器人在提高生產效率同時,極大地節省了用工所需的人力成本,也避免了因人工誤操作而帶來的產品損壞問題。對分揀系統而言,在工業機器人的搬運過程中,多數情況需要工業機器人能夠識別物品并將待搬運的物品移動到指定的位置上。但對于遇到某些特殊的物品,工業機器人還需要先對物品進行特殊處理然后再將其搬運到指定位置。在傳統的機器人搬運工作站設計上,工作站設備多采用若干檢測傳感器加電機氣動執行裝置的方法對物體進行檢測和分類,這種方法使用場景較為單一,受限于傳感器自身的特性很難對已經設計好的系統進行拓展,若系統中設置較多的傳感器還存在著搬運站現場安裝難度大,系統建設成本高的問題。為克服上述缺陷,設計了一種基于深度學習的物體識別分揀系統,通過將深度學習的視覺檢測方法應用到工業機器人搬運站上,最大程度上克服了采用單一傳感器檢測物體造成的檢測局限性,同時又解決了多個傳感器檢測造成的信息匹配不佳的問題。這種設計在增加工作站靈活性的同時極大地提升了機器人分揀系統分揀的準確率。

1總體結構設計

工業機器人物品識別分揀系統主要分為硬件實現和軟件設計兩個部分。硬件部分主要由ABB工業機器人本體、機器人控制柜、PC機、相機、氣動夾爪、吸盤以及真空發生器組成[1],如圖1所示。工業機器人控制柜是核心組成部件,控制柜通過控制電纜與工業機器人本體相連并通過網線與PC機進行通信,控制柜與PC機之間的通信采用基于TCP/IP的以太網通訊協議進行;用于檢測物體的相機被固定在工業機器人附近的專用支架上通過USB接口與PC機進行連接;物品搬運所用的執行工具由氣動夾爪和吸盤組成,兩者均與真空發生器相連,并在工業機器人控制柜的控制下對物品進行夾取和搬運。系統的軟件部分主要由物體到位檢測模塊,圖像抓取模塊,圖像識別模塊以及工業機器人分揀標記模塊等四部分組成,其工作流程如下頁圖2所示。具體為:當控制柜收到物體到位檢測信號后PC機啟動相機對其下方的物體進行拍攝,完成這一步后相機通過USB協議將抓取到的圖片傳輸到PC機上并通過訓練好的神經網絡模型對物體進行識別解析;在識別完成后PC機通過TCP/IP協議將物體的種類發送給控制柜;工業機器人在收到PC機給出的解析信號后對相關信息進行校驗并執行相應的分揀動作,進而完成對物品的搬運和物品分揀操作。

2物體圖像識別

物體的圖像識別部分主要由相機和光電傳感器配合實現的。當光電傳感器檢測到物體到達指定區域后,傳感器將物體已到達指定位置的信息通過I/O信號通知工業機器人控制柜,在收到到位檢測信號后,控制柜通過以太網向PC機發出開啟攝像頭的命令,隨后PC機對相機傳輸過來的圖像通過圖像特征識別模塊的深度學習網絡進行分析和處理。

2.1圖像特征識別

圖像特征識別是實現物體識別分揀工作站的關鍵所在,本文采用對已有的深度學習模型進行重新訓練的方法[2]對圖像識別模型的參數進行重新調整的方法來實現對給定的物體進行分類標識的目的。設計采用的基礎學習模型為GoogLeNet:GoogLeNet是2014年由Google團隊在ILSVRC挑戰賽中提出的一種基于深度學習的深度卷積神經網絡模型。該模型由22層網絡結構組成,模型不僅具有較高的網絡深度和寬度,同時還通過引入新的網絡結構,實現了在控制計算參數量的同時達到了最優識別效果的目的[3]。具體的網絡模型結構如圖3所示。圖3中Data層代表數據輸入層,該層能接收的圖像數據為RGB三通道,分辨率大小為224x224的圖片。分揀系統的設計繼承并采用和GoogLeNet相同的輸入層。為滿足網絡的輸入條件,系統會在輸入模型前對拍攝的圖像進行大小修正,將相機拍攝到的圖像像素分辨率調整到224×224的大小。設計保留原GoogLeNet中用于特征提取的卷積層(Convolu-tion)和池化層(Pool)。由于網絡具有較深的層級結構,為解決網絡深度增加而產生的巨大計算量,GoogLeNet采用了一種被稱為Inception的網絡結構將全連接的連接方式轉化為了稀疏連接的連接方式從而降低了巨量參數造成的過擬合和參數過多造成的計算量過大的問題。本次設計繼承了上述的網絡層級結構,同時將后續的Dropout層也納入到網絡模型中來用以減少過擬合帶來的影響。

2.2圖像識別模型訓練

為了讓視覺模塊具有更好的適用性同時也為了彌補現實中數據采集量不足的缺陷,神經網絡的訓練及測試部分采用由網絡收集圖片以及實驗場景中拍攝到的圖片組成的混合圖片集進行訓練和測試。訓練模型保留GoogleNet前面所有層數,僅對后面三層:全連接層,Softmax分類器,以及輸出層進行重新訓練。訓練采用的樣本數據為5000張食品圖片,包括:蛋糕,雞翅,毛豆,面條,春卷五種食物,其中3500張用于訓練,1500張用于測試。訓練采用具有動力的隨機梯度下降算法(SGDM)進行訓練,初始學習速率為0.001,最小批次為32,訓練最大次數為2280次。訓練過程如圖4所示,訓練結果的準確率為95.33%。為直觀顯示遷移學習后的學習模型對物體的識別能力,針對測試集的測試結果,繪制出用以表示物體分類效果的混淆矩陣[4],如圖5所示。從圖5所示的混淆矩陣可以看出,模型對整個測試集的整體識別正確率較高,模型整體的準確率為95.3%,識別性能良好。在具體場景中針對五種物體進行測試,如下頁圖6所示,模型可以對物體進行有效的識別并給出識別檢測結果。

3工業機器人分揀操作

在深度學習網絡完成圖像數據的分析后,PC機通過TCP/IP協議將物體的名稱、類別信息發送到工業機器人的程序數據接收端[5]。通過對PC端信息的監聽查詢,工業機器人可以在PC機發出信息后對接收到的物體信息進行校驗并在確認信息無誤后加載相應的搬運策略。若機器人處于空閑狀態,則執行相應的加蓋任務并在加蓋完成后對物品進行貼標操作。若機器人處于忙碌狀態,則工業機器人在完成當前任務后加載相應策略并對物體進行貼標搬運操。在機器人根據事先示教好的路徑完成對物體的搬運后,機器人通過相應的程序模塊向PC機發出搬運完成的指示信號[6]。機器人搬運部分的具體設計流程如圖7所示。

4結語

本文以工業機器人為載體,結合相機與PC機實現了物體識別與分揀系統的設計,完成了對不同種類物品進行分揀操作的目的。物體視覺識別算法通過對原有深度學習網絡的遷移學習,實現了對物體的準確識別與分揀。視覺識別系統可根據實際情況進行調整,通過改變深度學習模型的輸入數據并結合相應的工業機器人搬運夾具,工作站可實現對不同物體的搬運工作。從實際測試運行情況來看,該方法識別準確率高,分揀過程清晰可控。該系統具有動作可靠、穩定性好、識別精度高、可擴展性強等優點,可以滿足物體分揀的任務需求。

參考文獻

[1]嵇登臣.基于機器視覺的零散多目標分揀系統研究[J].工業控制計算機,2018(12):34-35.

[3]張澤中.基于深度學習的胃癌病理圖像分類方法.2018(11):263-268.

[4]惠文珊.基于CNN-LSTM的機器人觸覺識別與自適應抓取控制[J].儀器儀表學報,2019(1):211-218.

[5]吳旭清.并聯機器人智能分揀系統設計[J].機電工程.2019(2):224-228.

[6]周玉強.基于卷積神經網絡的零件識別與分揀系統[J]煤礦機械.2018(6):151-153.

作者:韓銳 單位:蘇州健雄職業技術學院

主站蜘蛛池模板: 国产免费一级在线观看 | 91久久亚洲最新一本 | 亚洲精品乱码久久久久久蜜桃 | 亚洲乱人伦在线 | 丁香婷婷电影 | 亚洲综合网在线 | 亚洲视频在线观看视频 | 伊人五月天综合 | 久热国产精品 | 亚洲一区二区三区成人 | 国产自产自拍 | 亚洲精品在线播放视频 | 欧美日韩在线播放 | 五月婷婷激情五月 | 午夜日韩视频 | 国产成人久久精品二区三区牛 | 久热国产精品视频 | 久久综合精品国产一区二区三区无 | 亚洲精品国产成人 | 欧美精品一区二区三区四区 | 久久公开视频 | 中文字幕第一页国产 | 美日韩毛片 | 国产高清一级毛片在线不卡 | 久久久高清国产999尤物 | 中文字幕亚洲 综合久久 | 日本欧美在线观看 | 2021国产麻豆剧传媒古装 | 亚洲国产精品婷婷久久久久 | 一区二区三区不卡视频 | www.男人天堂 | 五月天激情婷婷大综合 | 亚洲天堂男 | 亚洲日韩第一页 | 男女羞羞视频网站免费 | 伊人网成人 | 最近免费中文完整在线观看 | 一级久久久 | 久久精品小视频 | 欧美v视频 | 日韩高清性爽一级毛片免费 |