久久精品国产清自在天天线_亚洲精品综合久久_一区二区精品久久_国产一区二区三区精品久久呦

人民網(wǎng)
人民網(wǎng)>>教育

新方法顯著提升三維形貌重建精度

2025年07月03日08:26 | 來源:科技日報222
小字號

原標(biāo)題:新方法顯著提升三維形貌重建精度

記者6月26日從山西大學(xué)獲悉,該校大數(shù)據(jù)科學(xué)與產(chǎn)業(yè)研究院教授錢宇華帶領(lǐng)的演化數(shù)據(jù)智能團(tuán)隊在通用三維形貌重建領(lǐng)域取得重要科學(xué)發(fā)現(xiàn),相關(guān)論文日前發(fā)表於國際人工智能領(lǐng)域頂級期刊《IEEE模式分析與機(jī)器智能匯刊》。

論文第一作者、山西大學(xué)大數(shù)據(jù)科學(xué)與產(chǎn)業(yè)研究院副教授閆濤介紹,團(tuán)隊首次從理論上証明了三維形貌重建多視圖融合類方法的一種泛化誤差界。一般認(rèn)為,多視圖融合性能依賴於多視圖互補(bǔ)性,而團(tuán)隊此次研究發(fā)現(xiàn),跨尺度多視圖融合類任務(wù)性能依賴於多視圖一致性,多視圖之間的一致性越大,重建泛化誤差界越小。

隨著智能制造、虛擬現(xiàn)實等技術(shù)的發(fā)展,宏觀/微觀跨尺度三維形貌重建面臨三大挑戰(zhàn):一是成像特征差異大,宏觀場景與微觀場景難以統(tǒng)一建模﹔二是現(xiàn)有深度學(xué)習(xí)方法泛化能力不足,難以適應(yīng)復(fù)雜實際場景﹔三是傳統(tǒng)方法在序列圖像關(guān)聯(lián)特征提取方面存在缺陷,時空信息利用不充分制約了精度提升。

針對上述挑戰(zhàn),本研究創(chuàng)新性地提出了序列關(guān)聯(lián)引導(dǎo)的通用三維形貌重建框架SAS,揭示了多視圖一致性對提升重建精度的關(guān)鍵作用,理論上獲得了一種緊的泛化誤差界,為宏觀/微觀跨尺度重建提供了理論保障。在方法方面,該研究通過構(gòu)建序列關(guān)聯(lián)機(jī)制,實現(xiàn)了宏觀場景語義信息與微觀場景細(xì)節(jié)特征的有機(jī)融合,突破了傳統(tǒng)方法在跨尺度重建中的局限性。同時,該研究還顯著提升了宏觀場景的重建質(zhì)量,更將三維重建精度推進(jìn)至亞微米級光學(xué)成像極限,為精密制造、生物醫(yī)學(xué)等領(lǐng)域的微觀測量提供了新技術(shù)手段。

研究在多個宏觀與微觀數(shù)據(jù)場景中進(jìn)行了實驗驗証,結(jié)果表明SAS框架不僅優(yōu)於先進(jìn)的模型設(shè)計類聚焦形貌恢復(fù)(SFF)方法,而且在泛化性方面優(yōu)於主流的深度學(xué)習(xí)類SFF方法,特別是在開放世界的宏觀/微觀場景中表現(xiàn)出卓越適應(yīng)性。(記者韓榮)

(責(zé)編:郝孟佳、李昉)

分享讓更多人看到

推薦閱讀
返回頂部