欧美一区二区三区老妇人-欧美做爰猛烈大尺度电-99久久夜色精品国产亚洲a-亚洲福利视频一区二区

AI識別細(xì)胞3D結(jié)構(gòu)?人工智能做到了人類不可能做到的事情

利用人工智能(AI)標(biāo)記和識別細(xì)胞的 3D 結(jié)構(gòu)

成都創(chuàng)新互聯(lián)-專業(yè)網(wǎng)站定制、快速模板網(wǎng)站建設(shè)、高性價比海倫網(wǎng)站開發(fā)、企業(yè)建站全套包干低至880元,成熟完善的模板庫,直接使用。一站式海倫網(wǎng)站制作公司更省心,省錢,快速模板網(wǎng)站建設(shè)找我們,業(yè)務(wù)覆蓋海倫地區(qū)。費(fèi)用合理售后完善,10多年實(shí)體公司更值得信賴。

編者按:本文來自微信公眾號“新智元”(ID:AI_era),編輯:pY,36氪經(jīng)授權(quán)發(fā)布。

【新智元導(dǎo)讀】利用人工智能(AI)標(biāo)記和識別細(xì)胞的 3D 結(jié)構(gòu)是一個非常有趣的研究課題。AI可以從光顯微鏡圖像中預(yù)測細(xì)胞結(jié)構(gòu)的位置,而無需有害的熒光標(biāo)記。

深度學(xué)習(xí)會成為科學(xué)家的重要幫手嗎?

蘇珊娜 · 拉菲爾斯基和她的同事們有一個看似簡單的目標(biāo):借助深度學(xué)習(xí)算法,成功地識別出細(xì)胞中難以識別的各種不同結(jié)構(gòu)。

位于華盛頓州西雅圖的艾倫細(xì)胞科學(xué)研究所的定量細(xì)胞生物學(xué)家和副主任Susanne Rafelski 說「我們希望能夠在活體成像中標(biāo)記細(xì)胞的多種不同結(jié)構(gòu)」。

「我們想用3D 技術(shù)來拍攝?!?/p>

在以往的研究中,要實(shí)現(xiàn)這種目標(biāo)通常依賴于熒光顯微鏡ーー但這種方法有很多的局限性,一是只有少數(shù)幾種顏色可以使用,不足以標(biāo)記所有的結(jié)構(gòu)。

另一個問題是,這些試劑價格昂貴,費(fèi)時費(fèi)力。

此外,這些染色劑對活細(xì)胞是有害的,用來刺激它們的光線也是有害的,這意味著成像細(xì)胞的行為本身就會損害它們。

同樣位于西雅圖的艾倫腦科學(xué)研究所(Allen Institute for brain Science)的顯微鏡專家福雷斯特?科爾曼(Forrest Collman)表示:「熒光很昂貴,這個「昂貴」體現(xiàn)在方方面面」。

當(dāng)科爾曼和他的同事試圖用三種不同的顏色制作3D 延時影像是時,結(jié)果很驚悚,「所有的細(xì)胞都會在你面前狗帶」。

據(jù)介紹,Rafelski 團(tuán)隊將熒光顯微技術(shù)和投射白光技術(shù)結(jié)合了起來,從而利用人工智能(AI)在明視野圖像上預(yù)測熒光標(biāo)記的形狀。

2017 年,該團(tuán)隊提出利用深度學(xué)習(xí)來識別未標(biāo)記細(xì)胞明視野圖像中難以發(fā)現(xiàn)的結(jié)構(gòu)。

通過對無標(biāo)記細(xì)胞的深度學(xué)習(xí)算法,團(tuán)隊制作了3D 影像,顯示了細(xì)胞核中的 DNA 和子結(jié)構(gòu),以及細(xì)胞膜和線粒體。

快速增長的領(lǐng)域

舊金山加利福尼亞大學(xué)和舊金山格拉德斯通心血管病研究所的神經(jīng)學(xué)家 Steven Finkbeiner 使用機(jī)器人顯微鏡追蹤細(xì)胞已經(jīng)長達(dá)一年。

到21世紀(jì)初,他的團(tuán)隊每天累積的數(shù)據(jù)達(dá)到了兆兆字節(jié)。Finkbeiner 建議谷歌研究人員使用深度學(xué)習(xí)來發(fā)現(xiàn)他看不到的細(xì)胞特征。

深度學(xué)習(xí)利用計算機(jī)節(jié)點(diǎn)以類似于人腦神經(jīng)元的方式進(jìn)行分層。

首先,這個神經(jīng)網(wǎng)絡(luò)中的節(jié)點(diǎn)之間的連接是隨機(jī)加權(quán)的,所以計算機(jī)最開始只是猜測。但是通過訓(xùn)練,計算機(jī)會調(diào)整權(quán)重或參數(shù),直到它開始正確運(yùn)行。

芬克貝納的研究小組訓(xùn)練它的系統(tǒng)在二維圖像中識別神經(jīng)元,然后挑選出細(xì)胞核并確定給定的細(xì)胞是否是活的。

芬克貝納說「主要的目的是向科學(xué)家們展示,圖像數(shù)據(jù)中可能有比他們意識到的更多的信息」。研究小組稱這項技術(shù)為硅膠標(biāo)記技術(shù)。

然而,這種方法無法識別運(yùn)動神經(jīng)元,可能是因為在未標(biāo)記的細(xì)胞中沒有任何東西表明它們的特征。

科爾曼說,這些預(yù)測只有在人工智能能夠使用某些可見線索的情況下才會起作用。例如,細(xì)胞膜與周圍環(huán)境有著不同的折射率,從而產(chǎn)生對比。

展望未來

熒光預(yù)測也在制藥行業(yè)中占據(jù)著主導(dǎo)地位。

在戈森堡的阿斯利康公司,藥理學(xué)家 Alan Sabirsh 主要研究脂肪細(xì)胞在疾病和藥物代謝中的作用。他和 AstraZeneca 與瑞典國家應(yīng)用人工智能中心合作開展脂肪細(xì)胞成像挑戰(zhàn),要求在未標(biāo)記的顯微照片中識別細(xì)胞核、細(xì)胞質(zhì)和脂滴。

該獎項5000美元的獎金授予了由 Ankit Gupta 和 h ? kan Wieslander 領(lǐng)導(dǎo)的團(tuán)隊,他們是瑞典烏普薩拉大學(xué)的兩名從事圖像處理的博士生。

像 Chang 和她的同事一樣,研究小組使用氮化鎵來識別脂滴。但是為了得到原子核,他們使用了一種不同的技術(shù),叫做 LUpI ーー利用特權(quán)信息學(xué)習(xí),這種技術(shù)給了機(jī)器學(xué)習(xí)的額外幫助。

在這種情況下,研究小組使用了更新的圖像處理技術(shù)來識別標(biāo)準(zhǔn)訓(xùn)練圖像對中的細(xì)胞核。

由此得到的圖像并不完美: 真正的熒光染色提供了比模型更真實(shí)的細(xì)胞核和細(xì)胞質(zhì)紋理。

但是,對于 Sabirsh 來說,這已經(jīng)足夠了。他已經(jīng)開始在機(jī)器人顯微鏡實(shí)驗中使用該代碼進(jìn)行分析,目的是開發(fā)治療方法。

雖然大規(guī)模的培訓(xùn)可能需要在有多個圖形處理單元的超級計算機(jī)上花費(fèi)數(shù)周時間。相應(yīng)的,一旦這樣做成功了,預(yù)測模型就可以用筆記本電腦甚至手機(jī)運(yùn)行了。

對于許多研究人員來說,這種一次性的投資是值得的?!溉绻憧梢允占礃?biāo)記細(xì)胞的圖片,而且你已經(jīng)有了訓(xùn)練有素的算法,」芬克貝納說。「你基本上可以輕松又免費(fèi)地獲得所有這些信息。」

參考資料:

https://www.nature.com/articles/d41586-021-00812-7

分享文章:AI識別細(xì)胞3D結(jié)構(gòu)?人工智能做到了人類不可能做到的事情
本文URL:http://chinadenli.net/article2/scdeic.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供品牌網(wǎng)站建設(shè)、網(wǎng)站營銷、網(wǎng)站設(shè)計公司、網(wǎng)站策劃、動態(tài)網(wǎng)站、品牌網(wǎng)站制作

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

網(wǎng)站托管運(yùn)營