av大片免费观看-av大片免费看-国产精品国产三级国产普通话蜜臀-国产精品国产三级国产在线观看-久久福利小视频-久久福利一区-欧美日韩二区三区-欧美日韩福利-色婷婷成人网-色婷婷导航-亚洲男人天堂影院-亚洲男人网-2018年亚洲欧美在线v-亚洲香蕉aⅴ视频在线播放-少妇爆乳无码专区网站-亚洲aⅴ天堂av在线电影

天天亮點!神經網絡復刻海馬體運作,模擬大腦有戲了?

理解大腦如何組織和訪問空間信息,例如“我們在哪里”、“拐角處有什么”、“如何到達那里”,仍是一項巨大的挑戰。該過程涉及從上百億個神經元中調取一系列的記憶及存儲其中的空間數據,而每個神經元又連接著上千個其他神經元。神經科學家已經確認了空間認知的關鍵元素,例如映射位置的網格細胞[1]。然而,要想對此進行更深入的研究,事情就變得棘手了:研究人員想要觀察基于位置的有關圖像、聲音、和味道的記憶是如何流動和互相連接的,卻不可能通過取出并研究人的大腦灰質切片來達此目的。


(相關資料圖)

人工智能為此提供了另一條出路。多年來,神經科學家們利用了多種類型的神經網絡(神經網絡為大多數深度學習的應用提供了動力)來模擬大腦中神經元的放電。于近期的研究中,研究人員發現海馬體作為一個對記憶至關重要的腦部結構其實是一種變相的特殊神經網絡,這種神經網絡被稱為Transformer[2]他們的新模型以一種類似大腦內部運作的方式來追蹤空間信息,并且已經取得了顯著成效。

-Kristina Armitage-

同時就職于斯坦福大學和牛津大學蒂姆·貝倫斯(Tim Behrens)實驗室的認知神經科學家詹姆斯·惠廷頓(James Whittington)說:“現在我們知道了,這些大腦模型與Transformer模型相當,這就意味著我們的模型表現得更好并且更容易訓練。”

惠廷頓及同事所做的研究提示我們,Transformer可以極大地促進神經網絡模型模擬網格細胞及大腦其他部分進行運算的能力。惠廷頓表示,這些模型可以推動我們對人工神經網絡的工作原理、甚至對大腦運算機制的理解。

在谷歌大腦(Google Brain)研究Transformer模型的計算機科學家大衛·哈(David Ha)表示:“我們并不是在嘗試重新建造一個大腦,但我們能否創造出足以復制大腦所作所為的機制呢?”

Transformers在2017年作為一種處理語言的新型AI模型首次出現。這一模型是BERT[3]和GPT-3等引人注目的能夠補全句子的程序中的秘密武器,而這些程序可以生成以假亂真的歌詞、創作莎士比亞十四行詩并模仿客服代表。

Transformer的工作原理是一種被稱為“自注意力”(self-attention)的機制,其中每個輸入,不管是一個單詞、一個像素、還是序列中的一個數字,總是與其余每個輸入相連。而別的神經網絡僅將輸入與某些特定的輸入相連。雖然Transformers最初是為語言任務而設計的,但后來它們在別的任務(比如圖像分類和如今的大腦建模)中都表現得相當出色。

-Avalon Nuovo-

在2020年,由奧地利林茨大學(Johannes Kepler University Linz)的計算機科學家塞普?霍克瑞特(Sepp Hochreiter)帶領的團隊用Transformer改造了一個強大的、存在已久的記憶檢索模型。這個被改造的模型名叫Hopfield網絡(Hopfield network),在40年前由普林斯頓的物理學家約翰·霍普菲爾德(John Hopfield)首次提出。這些網絡遵循一條通則:同時活躍的神經元在彼此之間建立更牢固的連接。

霍克瑞特和他的合作者留意到研究人員一直在尋找更好的記憶檢索模型,在此之后,他們發現了一類新型Hopfield網絡[4]檢索記憶的方式和Transformers執行注意力的方式之間的聯系。這些新型Hopfield網絡由MIT-IBM沃森人工智能實驗室(MIT-IBM Watson AI Lab)的霍普菲爾德和德米特里·克羅托夫(Dmitry Krotov)開發。與標準的Hopfield網絡相比,新型Hopfield網絡由于有更高效的連接而可以存儲和檢索更多的記憶。霍克瑞特的團隊通過添加一個類似Transformers里注意力機制的規則來升級這些網絡。

之后,在今年早些時候[5],惠廷頓和貝倫斯進一步改進了這種方法。他們修改了這些Transformer,使得模型不再將記憶視為線性序列(就像句子里的一串單詞那樣),而是將它們編碼為高維空間中的坐標。研究人員口中的這一“扭轉”進一步提升了模型在神經科學任務中的表現。他們還表明,該模型的數學基礎和神經科學家在功能性磁共振成像(fMRI)掃描中觀測到的網格細胞放電模式的模型一致。

貝倫斯(左)和惠廷頓(右)幫助證明了我們大腦中的結構在數學上與“Transformer”相似。

倫敦大學學院的神經科學家卡斯維爾? 巴里(Caswell Barry)說道:“網格細胞有這種令人激動的、美麗的、規則的結構,并具有那些不太可能隨機產生的、醒目的放電模式。”上述的新研究則向我們展示了Transformer如何精確地復刻這些在海馬體觀測到的模式。巴里說:“他們認識到,Transformer可以根據以前的狀態及其移動情況確定位置,而這正是傳統的網格細胞模型描述的定位方式。”

近期的其他研究表明,Transformer也可以促進我們對大腦中其他功能的理解。2021年,麻省理工學院的計算神經科學家馬丁·施林普夫(Martin Schrimpf)分析了43例不同種類的神經網絡模型[6],來觀察它們在預測由fMRI和腦皮層電圖報告的人類神經活動測量結果上表現如何。他發現Transformer作為目前領先的、最先進的神經網絡,幾乎可以預測神經成像報告的所有變化。

此外,哈和計算機科學家同事Yujin Tang最近設計了一個模型[7],該模型可以通過Transformer有意地以一種隨機、無序的方式發送大量數據,來模擬人體向大腦傳遞感覺信號。他們的Transformer可以像我們的大腦一樣成功處理無序的信息流。

Yujin Tang表示:“神經網絡只能硬性地接收特定的輸入。”但在現實生活中,數據集通常變幻莫測,而大多數的AI模型無法據此調整。“我們想要試驗一種具有快速適應性的架構。”

論文題目:The Sensory Neuron as a Transformer: Permutation-Invariant Neural Networks for Reinforcement Learning

DOI:https://doi.org/10.48550/arXiv.2109.02869

盡管存在這些進步的跡象,貝倫斯認為Transformer只是我們向最精確的大腦模型邁出的一步而已,而非探索的終點。他說:“我在這里必須要做一個持懷疑態度的神經科學家。例如,我不認為Transformers最終會是我們在大腦中處理語言的方式,即使它們是當前最好的語句模型。”

巴里說:“在預測‘我在哪兒’以及‘我將會看到什么’這方面,Transformer會是那個最高效的機制嗎?老實說,現在就下定論還為時尚早。”

施林普夫也指出,即便是表現最好的Transformers也是有局限的。例如,它們在單詞和短語方面表現良好,但在像講故事這種更大規模的語言任務中卻并不出色。

施林普夫說:“我感到這種Transformer的架構已經讓我們處于理解大腦結構的正確框架中了,并且它還可以隨著訓練得到改善。這是一個很好的方向,只是這個領域太過復雜。”

參考文獻

[1]https://www.quantamagazine.org/the-brain-maps-out-ideas-and-memories-like-spaces-20190114/

[2]https://www.quantamagazine.org/will-transformers-take-over-artificial-intelligence-20220310/

[3]https://www.quantamagazine.org/machines-beat-humans-on-a-reading-test-but-do-they-understand-20191017/

[4]https://papers.nips.cc/paper/2016/hash/eaae339c4d89fc102edd9dbdb6a28915-Abstract.html

[5]https://openreview.net/forum?id=B8DVo9B1YE0

[6]https://www.pnas.org/doi/10.1073/pnas.2105646118

[7]https://arxiv.org/abs/2109.02869

原文

https://www.quantamagazine.org/how-ai-transformers-mimic-parts-of-the-brain-20220912/

本文來自微信公眾號“神經現實”(ID:neureality),作者:Stephen Ornes,,譯者:Lemon,校對:P,編輯:M.W. l,36氪經授權發布。

標簽: 神經網絡 研究人員 空間信息

av大片免费观看-av大片免费看-国产精品国产三级国产普通话蜜臀-国产精品国产三级国产在线观看-久久福利小视频-久久福利一区-欧美日韩二区三区-欧美日韩福利-色婷婷成人网-色婷婷导航-亚洲男人天堂影院-亚洲男人网-2018年亚洲欧美在线v-亚洲香蕉aⅴ视频在线播放-少妇爆乳无码专区网站-亚洲aⅴ天堂av在线电影
  • <tfoot id="u2uyu"><delect id="u2uyu"></delect></tfoot><cite id="u2uyu"><center id="u2uyu"></center></cite>
  • <table id="u2uyu"></table><li id="u2uyu"><source id="u2uyu"></source></li>
    <abbr id="u2uyu"></abbr>
    <strike id="u2uyu"></strike>
    <strike id="u2uyu"><acronym id="u2uyu"></acronym></strike>
    <rt id="u2uyu"><tr id="u2uyu"></tr></rt>
    <button id="u2uyu"></button>
    <abbr id="u2uyu"></abbr>
  • <button id="u2uyu"></button>
    主站蜘蛛池模板: 2025国产精品视频| 国产欧美在线观看| 久久久久九九九九| 国内精品久久久久久中文字幕| 欧美自拍大量在线观看| 欧美在线激情视频| 国产成人avxxxxx在线看| 国产在线a不卡| 日韩大陆欧美高清视频区| 日韩极品精品视频免费观看| 国产亚洲精品久久久久动| 亚洲人成亚洲人成在线观看| 播播国产欧美激情| 黑人精品xxx一区一二区| 久久99热这里只有精品国产| 欧美激情视频给我| 最近2019中文字幕在线高清 | 色偷偷91综合久久噜噜| 久久亚洲精品一区二区| 国自在线精品视频| 亚洲一区二区三区毛片 | 亚洲精品小视频在线观看| 亚洲丝袜在线视频| 欧美亚洲另类制服自拍| 日本中文字幕不卡免费| 日本不卡高字幕在线2019| 国产69精品久久久| 国产精品网红福利| 欧美性生交xxxxxdddd| 有码中文亚洲精品| 国产一区二区三区网站| 亚洲国产天堂久久国产91| 538国产精品一区二区免费视频 | 91亚洲国产成人精品性色| 欧美中在线观看| 久久久久这里只有精品| 欧美日韩亚洲国产一区| 欧美日本在线视频中文字字幕| 自拍视频国产精品| 在线播放亚洲激情| 亚洲午夜激情免费视频|