講座編號:jz-yjsb-2021-y036
講座題目:中國計算機學會計算機視覺專委會走進高校系列報告會
主 講 人:查紅彬 教授 北京大學
趙 耀 教授 北京交通大學
紀榮嶸 教授 廈門大學
張 磊 教授 重慶大學
講座時間:2021年9月27日(星期一)下午14:00
講座地點:北京工商大學阜成路校區西區綜合樓一層報告廳
參加對象:視覺領域專業人士、研究生、媒體、其他有興趣者
主辦單位:計算機學院、研究生院
主講人簡介:
查紅彬,北京大學信息科學技術學院智能科學系教授,機器感知與智能教育部重點實驗室主任。主要從事計算機視覺與智能人機交互的研究,在三維視覺幾何計算、三維重建與環境幾何建模、三維物體識別等方面取得了一系列成果。出版學術期刊及國際會議論文300多篇,其中包括IEEE T- PAMI,IJCV,IEEE T-VCG,IEEE T-RA,IEEE T-SMC,ACM T-IST,JMLR,PR 等國際期刊以及ICCV,ECCV,CVPR,CHI,ICML,AAAI,ICRA等國際學術會議論文100多篇。
趙耀,長江學者特聘教授、國家杰出青年科學基金獲得者、萬人計劃科技創新領軍人才、科技部重點領域創新團隊帶頭人。現任北京交通大學信息科學研究所所長,“現代信息科學與網絡技術”北京市重點實驗室主任。研究領域為數字媒體信息處理與智能分析,包括圖像\視頻壓縮,數媒體內容安全,媒體內容分析與理解,人工智能等。主持了973計劃、863計劃等課題30余項。在包括IEEE Trans.等國內外期刊、會議上發表論文200余篇。作為第一完成人獲北京市科學技術獎一等獎等省部級獎勵4項。指導的博士生7人獲北京市和中國計算機學會優秀博士論文獎。受邀擔任了 IEEE Transactions on Cybernetics等多個國際雜志編委。他是國務院學科評議組成員,享受國務院政府特殊津貼。
紀榮嶸,廈門大學南強特聘教授,國家杰出青年科學基金獲得者。主要研究方向為計算機視覺。近年來發表TPAMI、IJCV、ACM匯刊、IEEE匯刊、CVPR、NeurIPS等會議長?過百篇。論文谷歌學術引用萬余次。曾獲2016年教育部技術發明一等獎、2018年省科技進步一等獎、2019年福建省青年科技獎。曾/現主持國防973項目,國家自然科學基金聯合重點基金等項目。任中國計算機學會A類國際會議CVPR和ACM Multimedia領域主席、中國圖象圖形學學會學術工委副主任、教育部電子信息類教指委人工智能專業建設咨詢委員會委員。
張磊,重慶大學教授,博士生導師,重慶市生物感知與智能信息處理重點實驗室副主任,LiVE視覺智能與學習團隊負責人,重慶市高層次人才計劃入選者、重慶市杰出青年基金獲得者、IEEE高級會員。主要聚焦于遷移學習、深度學習、開放環境視覺感知、跨媒體分析等領域。共發表論文100余篇,其中IEEE Trans.匯刊以及CCF-A類會議論文50余篇。多篇論文入選ESI高被引論文,出版英文專著1部,發明專利14項。擔任多個SCI期刊包括IEEE Trans. Instrumentation and Measurement以及Neural Networks等期刊Associate Editor,The Visual Computer以及Frontiers in Neurorobotics期刊客座編委,以及ACM MM、AAAI、CVPR、ICCV、ICLR等會議的AC、SPC和PC等。以第1完成人先后獲得吳文俊人工智能自然科學獎、重慶市科學技術獎、重慶市十佳科技青年獎3項。
主講內容:
視覺SLAM:在線學習的途徑:3D視覺的一個主要任務是利用傳感器視點的變化與成像幾何的約束來實現三維場景的幾何與結構重建。因此,伴隨傳感器移動的動態視覺與3D視覺的關系愈加密切,SLAM(Simultaneous Localization and Mapping:即時定位與地圖構建)技術再度成為3D視覺領域的研究熱點。為了提高動態視覺系統在真實復雜場景中的應用能力,我們應充分強化視覺系統的環境自適應性,而在線學習方法是實現這一目標的有效途徑。該報告將圍繞基于在線學習的SLAM問題,介紹我們近來的一些想法和嘗試,主要內容包括:面向自監督視覺里程計的序列對抗學習方法;具有在線自適應能力的自監督SLAM學習。
弱監督與交互式圖像分割:圖像語義分割,是涉及計算機視覺、模式識別及人工智能的交叉研究方向,是實現自動駕駛、智能監控、虛擬現實、醫學圖像診斷、機器人等國家重點應用的關鍵科學問題。目前,深度學習已經在圖像語義分割領域取得了巨大突破。然而,大量的像素級標注通常需要消耗大量的時間、金錢和人力。因此,訓練數據的不足或缺失已經成為制約圖像語義分割進一步發展的關鍵因素之一。為減少像素級標注的巨大負擔,近年來提出了許多弱監督圖像語義分割技術,即利用大量容易獲取的弱監督信息(如:圖像標簽)來完成更加復雜的圖像語義分割任務。交互式語義分割是通過人機的簡單交互,引導計算機實現快速準確的物體分割,是減輕像素級標注成本的重要技術手段。本報告將重點介紹課題組在基于深度學習的圖像弱監督語義分割以及交互式分割方面的部分研究成果。
復雜跨媒體數據協同分析與應用:社交媒體包含了海量非合作、異構化、跨模態的數據,既蘊藏了大量的人類知識與高價值信息,也包含了各種自然與人為的噪聲,對其分析與處理需要融合類腦計算、計算機視覺、自然語言處理等多個維度的智能技術。本報告主要關注基于深度學習的多模態內容協同分析與表示、跨模態信息融合及智能對抗攻防,介紹課題組在圖像描述與視覺問答、語言指導的目標檢測與分割、用戶隱私保護、社交網絡分析引導等方面的一些研究進展。
開放環境視覺感知:在實際應用中,由于數據不確定性、環境不可控性以及算法特異性,機器學習算法的適應性和安全性依然較差,傳統的人工智能模型與深度學習算法難以滿足開放、動態、復雜環境下的感知與應用。本報告圍繞遷移自適應學習方法論以及視覺感知算法偏見問題,介紹我們近期在開放環境下的視覺感知研究進展,包括圖像分類和目標檢測等去偏方法。
