近日,合肥工業(yè)大學集成電路設計中心解光軍教授、張章教授與上海交通大學等單位合作,在國際頂級期刊《Science》子刊《Science Advances》上發(fā)表題為《Perovskite retinomorphic image sensor for embodied intelligent vision》的研究成果(DOI:10.1126/sciadv.ads2834)。該團隊成功研發(fā)出全球首款基于鈣鈦礦材料的大規(guī)模視網膜形態(tài)計算系統(tǒng),為下一代外骨骼機器人及智能視覺應用提供了顛覆性技術解決方案。
突破傳統(tǒng)瓶頸,實現(xiàn)從材料革新到算法創(chuàng)新。傳統(tǒng)硅基光探測器雖具備寬光譜響應能力,但其固定光響應特性難以滿足實時環(huán)境感知與動態(tài)決策需求。團隊創(chuàng)新性地采用有機金屬鹵化物鈣鈦礦材料,結合窄帶隙()技術,開發(fā)出4096像素的超高靈敏度圖像傳感器陣列。該材料不僅具備紫外-可見-近紅外的全波段吸收能力,更通過離子遷移實現(xiàn)光響應可重構性,解決了暗光環(huán)境成像質量差、圖像對比度低等長期難題。傳感器陣列每個像素均獨立可控,其光靈敏度是傳統(tǒng)器件的數(shù)百倍,且支持硬件級突觸權重更新,相當于為機器人裝上了‘壁虎的夜視眼’和‘青蛙的動態(tài)捕捉神經’。
全硬件實現(xiàn):從“看見”到“決策”的瞬時閉環(huán)。研究團隊進一步提出“一維特征提?。∣DFE)算法”,首次將時空信息分解與神經網絡計算直接映射至傳感器硬件層面,徹底擺脫了傳統(tǒng)卷積神經網絡(CNN)對后端算力的依賴。實驗表明,搭載該系統(tǒng)的外骨骼機器人可在復雜光照條件下,于毫秒級時間內完成目標識別、路徑規(guī)劃與運動決策,較現(xiàn)有技術效率提升超90%。此項技術突破為智能假肢、康復外骨骼等助殘設備提供了全新可能。未來,殘障人士可通過搭載該系統(tǒng)的機器人,實時感知環(huán)境細節(jié),精準完成抓取、避障等高難度動作,真正實現(xiàn)“感知-決策-行動”的無縫銜接。下一步將優(yōu)化系統(tǒng)的小型化與低功耗設計,并探索其在無人駕駛、工業(yè)檢測等領域的應用。此項技術突破為智能假肢、康復外骨骼等助殘設備提供了全新可能。未來,殘障人士可通過搭載該系統(tǒng)的機器人,實時感知環(huán)境細節(jié),精準完成抓取、避障等高難度動作,真正實現(xiàn)“感知-決策-行動”的無縫銜接。下一步將優(yōu)化系統(tǒng)的小型化與低功耗設計,并探索其在無人駕駛、工業(yè)檢測等領域的應用。
本項目受到國家自然科學基金等資助,合肥工業(yè)大學為本文共同通訊單位,張章教授為本文共同通訊作者,本文作者還包括解光軍教授,微電子學院碩士生倪神周、蔣擇。