現(xiàn)在,AI 可以把人類腦中的信息,用高清視頻展示出來了!
例如你坐在副駕所欣賞到的沿途美景信息,AI 分分鐘給重建了出來:
看到過的水中的魚兒、草原上的馬兒,也不在話下:
這就是由新加坡國立大學(xué)和香港中文大學(xué)共同完成的最新研究,團(tuán)隊(duì)將項(xiàng)目取名為 MinD-Video。
這波操作,宛如科幻電影《超體》中 Lucy 讀取反派大佬記憶一般:
引得網(wǎng)友直呼:
推動(dòng)人工智能和神經(jīng)科學(xué)的前沿。
值得一提的是,大火的 Stable Diffusion 也在這次研究中立了不小的功勞。
怎么做到的?
從大腦活動(dòng)中重建人類視覺任務(wù),尤其是功能磁共振成像技術(shù)這種非侵入式方法,一直是受到學(xué)界較多的關(guān)注。
因?yàn)轭愃七@樣的研究,有利于理解我們的認(rèn)知過程。
但以往的研究都主要聚焦在重建靜態(tài)圖像,而以高清視頻形式來展現(xiàn)的工作還是較為有限。
而 fMRI 這項(xiàng)技術(shù)的本質(zhì)是測(cè)量血氧水平依賴信號(hào),并且在每隔幾秒鐘的時(shí)間里捕捉大腦活動(dòng)的快照。
相比之下,一個(gè)典型的視頻每秒大約包含 30 幀畫面,如果要用 fMRI 去重建一個(gè) 2 秒的視頻,就需要呈現(xiàn)起碼 60 幀。
因此,這項(xiàng)任務(wù)的難點(diǎn)就在于解碼 fMRI 并以遠(yuǎn)高于 fMRI 時(shí)間分辨率的 FPS 恢復(fù)視頻。
為了彌合圖像和視頻大腦解碼之間差距,研究團(tuán)隊(duì)便提出了 MinD-Video 的方法。
整體來看,這個(gè)方法主要包含兩大模塊,它們分別做訓(xùn)練,然后再在一起做微調(diào)。
這個(gè)模型從大腦信號(hào)中逐步學(xué)習(xí),在第一個(gè)模塊多個(gè)階段的過程,可以獲得對(duì)語義空間的更深入理解。
具體而言,便是先利用大規(guī)模無監(jiān)督學(xué)習(xí)與 mask brain modeling來學(xué)習(xí)一般的視覺 fMRI 特征。
然后,團(tuán)隊(duì)使用標(biāo)注數(shù)據(jù)集的多模態(tài)提取語義相關(guān)特征,在對(duì)比語言-圖像預(yù)訓(xùn)練空間中使用對(duì)比學(xué)習(xí)訓(xùn)練 fMRI 編碼器。
在第二個(gè)模塊中,團(tuán)隊(duì)通過與增強(qiáng)版 Stable Diffusion 模型的共同訓(xùn)練來微調(diào)學(xué)習(xí)到的特征,這個(gè)模型是專門為 fMRI 技術(shù)下的視頻生成量身定制的。
而且在場(chǎng)景連續(xù)變化的過程中,也能夠呈現(xiàn)高清、有意義的連續(xù)幀。
研究團(tuán)隊(duì)
這項(xiàng)研究的共同一作,其中一位是來自新加坡國立大學(xué)的博士生 Zijiao Chen,目前在該校的神經(jīng)精神疾病多模式神經(jīng)成像實(shí)驗(yàn)室。
另一位一作則是來自香港中文大學(xué)的 Jiaxin Qing,就讀專業(yè)是信息工程系。
除此之外,通訊作者是新加坡國立大學(xué)副教授 Juan Helen ZHOU。
據(jù)了解,這次的新研究是他們團(tuán)隊(duì)在此前一項(xiàng)名為 MinD-Vis 的功能磁共振成像圖像重建工作的延伸。
MinD-Vis 已經(jīng)被 CVPR 2023 所接收。
參考鏈接:
鄭重聲明:此文內(nèi)容為本網(wǎng)站轉(zhuǎn)載企業(yè)宣傳資訊,目的在于傳播更多信息,與本站立場(chǎng)無關(guān)。僅供讀者參考,并請(qǐng)自行核實(shí)相關(guān)內(nèi)容。
2023年2月15日,湯臣倍健與美團(tuán)買藥在北京舉辦了2023
2021年收入增長目標(biāo)應(yīng)能確保實(shí)現(xiàn),2022年收入增長預(yù)計(jì)將
具體來看,一是簡化業(yè)務(wù)流程和材料,便利北京冬奧會(huì)相關(guān)區(qū)域內(nèi)境
炒股就看金麒麟分析師研報(bào),權(quán)威,專業(yè),及時(shí),全面,助您挖掘潛
,據(jù)索尼官方消息,新星粉,銀河紫,星光藍(lán),三款全新配色Dua
,新氧數(shù)據(jù)顏究院發(fā)布《2021醫(yī)美行業(yè)白皮書》,白皮書顯示,