跨界 · 融合 · 服務 · 創新
作物長勢信息主要包括作物生長狀況(株高、葉面積指數、生物量、倒伏面積等)、養分脅迫和產量等信息,目前多采用高清數碼相機、多光譜相機以及熱像儀等傳感器進行測定。楊貴軍等[19]研發了一套農業多載荷無人機遙感輔助小麥育種信息獲取系統,可以實現冠層葉面積指數、作物倒伏面積和產量的高通量數據獲取。孫紅等[20]基于作物在紅光范圍660 nm附近的光譜深吸收和近紅外850 nm附近的光譜強反射特征,設計了一種采用主動光源的雙波長便攜式葉綠素含量檢測裝置,可以高效檢測作物葉綠素含量。楊燕瓊等[21]采用衛星、高光譜儀和3CCD攝像機多信息融合技術,進行了水稻生產過程中的葉綠素含量、葉面積指數測定以及生物量和產量估測,估產方程的復相關系數均大于0.92,精度均在89%以上。汪沛等[22]采用無人機遙感平臺獲取水稻冠層圖像,提出了基于矩形約束對低空多光譜圖像存在的桶形畸變進行校正的方法,該校正方法解決了沒有或缺少地面控制點的圖像校正的困難。臧英等[23]建立了基于標準種植比值法的水稻養分信息快速解析和施肥決策模型,通過與已有標準種植模型比對的方式生成施肥處方,該方法可以有效地減少施肥決策中對土壤肥力數據的依賴,提高了管理決策的效率。
在作物長勢信息的快速獲取和解析處理中,傳統的航天、航空遙感技術存在氣象影響因子多、周期長、分辨率低等問題,尤其在廣東等南方地區,適合遙感的無云氣象條件的時間窗口期更少。采用無人機進行作物長勢信息的近地遙感獲取,可彌補現有航天、航空遙感技術的不足。受載荷量及滯空時間的限制,無人機掛載的遙感傳感器要求質量輕、體積小。此外,受航空管制的影響,飛行高度通常比較低,這就決定了無人機低空遙感單張影像的覆蓋面積難以達到傳統航空航天的遙感覆蓋面積。按照傳統的做法,遙感監測66.67 hm2,拼接前的影像采集量可達5 000幅,普通圖形工作站完成校正、拼接及解析等處理工作需要5 h以上。而作物的田間管理對農時要求通常時間比較短,需要即時生成作業處方圖,遙感信息的獲取和解析處理需要有較高的實時性才能滿足實際生產的要求。Jiang等[24-25]研制的遙感傳感器可以提供與專業級高光譜儀器和多光譜相機相近的反射率和輻射照度測量精度,在水稻長勢信息解析中,該研究信息解析數據量可達534.6 hm2/min,相比傳統方法,長勢專題圖的生成速率和變量施肥處方圖的決策效率大幅度提升。
1.1.3作物病蟲草害信息
作物病蟲草害的早期準確監測是精準噴施作業的基礎,對精準用藥和早期防治具有重要意義。作物光譜反射特性與作物葉綠素含量具有高度相關性,當植株遭受病蟲草害時,可以通過光譜的方式進行檢測。目前,常用的作物病蟲草害監測方式主要有光譜檢測法、圖像識別法和電子鼻檢測法等。袁媛等[26]利用R分量和中值濾波進行圖像預處理,并采用支持向量機的方法對水稻紋枯病進行分類識別。劉又夫等[27]對褐飛虱Nilaparvata lugens(Stal)誘導的水稻冠層熱圖像溫度特征變異評估方法進行了研究,將水稻冠層的溫度特征作為輸入向量,對水稻受褐飛虱侵害狀況測試集判斷的精準率達到87.15%。He等[28]采用深度目標檢測網絡對水稻局部圖像中的褐飛虱進行檢測和計數,提出雙層R-FCN網絡的褐飛虱檢測和計數算法,可以有效提升算法的召回率,召回率可達60.44%。鄧向武等[29]基于多特征融合的DBN模型和深度置信網絡對稻田苗期雜草進行識別,識別率為91.13%。Liu等[30]采用深度卷積網絡對5 136幅圖片進行了蟲害識別(12種水稻蟲害),準確度約為95%。李澤軒[31]收集并整理了包含15種病害和22種蟲害的水稻病蟲害數據集,在深度殘差網絡的基礎上提出了改進算法FRNet,對水稻病蟲害的識別率超過了80%。李梓和[32]建立了一個包含8種稻田雜草的目標檢測數據集,針對稻田雜草數據存在復雜背景以及目標相互遮擋等問題提出了Det-ResNet,檢測精度達到了91.6%,并提出了一種輕量化的RetinaNet檢測模塊Efficient retinahead(ERetina-Head),可以使模型的檢測精度提高1.2%。
1.1.4農田障礙物目標識別與定位
農田中存在著各種障礙物,影響了智能農機的正常作業,并存在安全隱患,因此,智能農機必須具備障礙物識別與檢測的能力。在智能農機對障礙物檢測的研究中,按照所使用的傳感器種類可以將障礙物檢測分為基于超聲波、毫米波雷達、激光雷達、機器視覺以及多傳感器融合等多種方法[33]。賈闖等[34]研制了山地果園單軌運輸機超聲波避障系統,在一定條件下,該系統能夠識別軌道上的障礙物和軌道旁的非障礙物,提高了單軌運輸機無人駕駛運行時的安全性和可靠性。王水滿[35]基于單線激光雷達傳感器進行了無人機360°全方位障礙物檢測與識別,根據獲得的障礙物信息和無人機的狀態信息,實現無人機的自動避障。高振海等[36]采用自適應卡爾曼濾波算法對毫米波雷達數據進行分析,估計前方目標的運動狀態,估計結果精度較高且濾波收斂穩定。基于深度學習的目標檢測算法根據候選框的生成方式,分成一階段(One-stage)目標檢測算法和二階段(Two-stage)目標檢測算法:一階段目標檢測算法的代表有YOLO系列[37]和SSD系列[38]等,一階段目標檢測算法計算量小、檢測速度快,但準確率較低;二階段目標檢測算法的代表有R-CNN[39]、Fast R-CNN[40]和SPP-NET[41],二階段目標檢測算法的計算量大、檢測速度慢,但準確率高。蔡舒平等[42]對YOLOv4目標檢測模型進行了改進,改進后的模型參數減少,檢測速度提高了29.4%,魯棒性強、實時性好。馬佳良等[43]在傳統的Fast R-CNN基礎上,提出了Accurate R-CNN目標檢測框架,可以在不同數據集和不同的任務上取得良好的檢測效果。