电竞比分网-中国电竞赛事及体育赛事平台

分享

干貨滿滿,谷歌科研成果 2018 年年終總結(jié)

 馮仙森 2019-01-17

來自雷鋒網(wǎng)(leiphone-sz)的報(bào)道

雷鋒網(wǎng) AI 科技評論按:年終總結(jié)可能會(huì)遲到,但不會(huì)缺席!

圣誕節(jié) 元旦假期過后,谷歌資深 Fellow、谷歌 AI 負(fù)責(zé)人 Jeff Dean 代表所有谷歌的研究部門發(fā)出了他們的 2018 年度科研研究年終總結(jié)。這一年,谷歌的科研人員們在人工智能、量子計(jì)算、計(jì)算圖形學(xué)、算法理論、軟件系統(tǒng)、TPU、開源軟件與數(shù)據(jù)集、機(jī)器人技術(shù)、AI 應(yīng)用、醫(yī)療保健等許多方面做出了許多新的成果,不僅有許多論文,更有許多實(shí)際的技術(shù)產(chǎn)品。雷鋒網(wǎng) AI 科技評論在 2018 年中也曾單獨(dú)報(bào)道過其中的許多項(xiàng)目。

同樣由 Jeff Dean 撰寫的 2017 年谷歌大腦年終總結(jié)見這里 上篇 下篇。如今谷歌把人工智能的相關(guān)研究開發(fā)拓展到了新品牌「谷歌 AI」下面,曾經(jīng)的谷歌大腦負(fù)責(zé)人 Jeff Dean 也就成為了谷歌 AI 的負(fù)責(zé)人。 

現(xiàn)在我們把這篇 Jeff Dean 代表全體谷歌科研人員撰寫的谷歌科研成果 2018 年年終總結(jié)全文翻譯如下。

谷歌資深 Fellow、高級副總裁、谷歌 AI 負(fù)責(zé)人 Jeff Dean

對于谷歌的研究團(tuán)隊(duì)來說,2018 年又是充滿激情和干勁的一年。我們的技術(shù)研究成果在許多個(gè)不同的方向上繼續(xù)開花結(jié)果,包括計(jì)算機(jī)科學(xué)方面的基礎(chǔ)科研成果和論文、科研結(jié)果在谷歌的更多新興方向中的應(yīng)用(比如醫(yī)療保健和機(jī)器人)、對開源軟件的貢獻(xiàn)以及和谷歌的產(chǎn)品開發(fā)團(tuán)隊(duì)之間的緊密協(xié)作,所有這些的目標(biāo)都是為了創(chuàng)建更多有用的工具和服務(wù)。下面我們來一起看看 2018 的一些成果,以及對未來的一年做一些展望。更詳細(xì)盡的匯總可以參見我們的 2018 年論文發(fā)表清單(https://ai.google/research/pubs/?year=2018)。



道德準(zhǔn)則和 AI

在過去的幾年中,我們共同見證了 AI 領(lǐng)域的重大進(jìn)步,欣喜地看到了 AI 對谷歌的產(chǎn)品產(chǎn)生了積極的影響,這些產(chǎn)品也在日常生活中為谷歌的數(shù)十億用戶提供了更多幫助。對于我們這些在 AI 領(lǐng)域工作的人來說,我們非常在意 AI 是否成為了這個(gè)世界變得更好的推動(dòng)力 —— 也就是說,它的使用是符合人類道德的,它用來解決的問題也是對這個(gè)社會(huì)有益的。

2018 年我們發(fā)布了谷歌 AI 準(zhǔn)則,它也帶有一系列負(fù)責(zé)任的 AI 應(yīng)用的示范樣本,描繪出了 AI 應(yīng)用實(shí)踐的技術(shù)指導(dǎo)。這些準(zhǔn)則和示范也一同構(gòu)成了評價(jià)我們谷歌自己的 AI 產(chǎn)品開發(fā)的體系框架,我們希望別的組織機(jī)構(gòu)也能夠運(yùn)用這些準(zhǔn)則規(guī)范他們自己的思路。需要說明的是,由于這個(gè)領(lǐng)域的發(fā)展速度飛快,我們在某些準(zhǔn)則下提供的示范樣本(比如「為了避免產(chǎn)生和加強(qiáng)不公平的偏見」、「為了對人類可解釋」),也會(huì)隨著我們在機(jī)器學(xué)習(xí)公平性和模型可解釋性等新領(lǐng)域開展研究而不斷變化、不斷更新。

這些研究研究成果反過來也會(huì)讓谷歌的產(chǎn)品不斷進(jìn)步,讓它們更具包容性、更少帶有偏倚,比如我們就已經(jīng)減少了谷歌翻譯中的性別偏倚,也探索并發(fā)布了內(nèi)容更為廣泛多樣的圖像數(shù)據(jù)集和模型(https://ai.google/tools/datasets/open-images-extended-crowdsourced/),以便讓計(jì)算機(jī)視覺模型在整個(gè)地球中更加多樣化的環(huán)境中都可以工作。更進(jìn)一步地,這些努力也讓我們得以把最佳實(shí)踐分享給更廣泛的研究群體,比如我們的機(jī)器學(xué)習(xí)快速課程中的 Fairness Module。



造福整個(gè)社會(huì)的 AI

如今大家都已經(jīng)知道,在社會(huì)的許多方面、在許多重要的社會(huì)問題上,AI 都有潛力帶來劇烈的影響。我們在 AI 洪水預(yù)測方面的研究就是一個(gè)絕佳的例子,它展示了 AI 可以如何在真實(shí)世界的問題上幫助人類。在多個(gè)谷歌內(nèi)部團(tuán)隊(duì)的合作下,這項(xiàng)研究的目標(biāo)被定義為「為洪水發(fā)生的可能性和可能覆蓋地區(qū)提供準(zhǔn)確、細(xì)時(shí)間粒度的信息」,而那些在洪水高危地區(qū)生活的人們就可以根據(jù)這些信息作出更好、更及時(shí)的判斷,能更好地保護(hù)自己、保護(hù)自己的財(cái)產(chǎn)。

洪水預(yù)警系統(tǒng)已經(jīng)在印度的部分地區(qū)投入使用

另一個(gè)例子是我們研究如何預(yù)測地震的余震,我們展示了機(jī)器學(xué)習(xí)模型預(yù)測余震地址可以比傳統(tǒng)的基于物理模型的方法準(zhǔn)確得多。這項(xiàng)研究還有一個(gè)也許影響更為深遠(yuǎn)的方面,那就是因?yàn)槲覀冊O(shè)計(jì)的機(jī)器學(xué)習(xí)模型是具備可解釋性的,科學(xué)家們得以在這個(gè)模型的幫助下對余震的活動(dòng)作出更好的觀察,這不僅讓余震的預(yù)測變得更加準(zhǔn)確,也讓我們對余震本身有了更好的了解。

AI投研邦 「AI投研邦」 小程序

谷歌之外也有許多我們的伙伴。許多研究者和谷歌的研究員、工程師一起借助 TensorFlow 之類的開源軟件鉆研各種各樣的科學(xué)和社會(huì)學(xué)問題,比如用 CNN 識別座頭鯨的聲音,發(fā)現(xiàn)新的系外行星,識別生病的木薯等等。

為了鼓勵(lì)這個(gè)領(lǐng)域產(chǎn)生更多的新點(diǎn)子,我們與 Google.org 一同發(fā)起了「谷歌 AI 社會(huì)影響競賽」,參加比賽的個(gè)人和組織研究需要一些從想法轉(zhuǎn)化為現(xiàn)實(shí)之后可能會(huì)帶來重大社會(huì)影響的項(xiàng)目,然后他們可以獲得總數(shù)為 2500 萬美元的資助資金,而且可以獲得谷歌研究科學(xué)家、工程師、其它專家的指導(dǎo)。



輔助性技術(shù)

在我們圍繞機(jī)器學(xué)習(xí)和計(jì)算機(jī)科學(xué)展開的研究中,有很大一部分都是希望幫助我們的用戶們更快、更高效地達(dá)到他們的目標(biāo)。通常這都需要科研團(tuán)隊(duì)和各種產(chǎn)品團(tuán)隊(duì)之間展開合作,研究成果也發(fā)布成為各種各樣的產(chǎn)品功能和設(shè)置。其中一個(gè)例子是谷歌 Duplex,這個(gè)系統(tǒng)的建設(shè)需要我們把自然語言處理、對話理解、語音識別、文本轉(zhuǎn)語音、用戶理解以及高效的用戶界面 UI 設(shè)計(jì)多個(gè)方面的研究成果集中整合,而它的最終效果是,只需要用戶對著自己的手機(jī)詢問「能不能幫我預(yù)定明天下午 4 點(diǎn)做頭發(fā)」,一個(gè)虛擬助手就會(huì)替你打電話到理發(fā)店敲定相關(guān)的細(xì)節(jié)。

我還可以舉一些例子,比如智能寫作 Smart Compose,這個(gè)工具會(huì)通過預(yù)測模型給出寫作提示,幫助用戶寫作郵件,寫作過程可以更快、更輕松;聲音搜索 Sound Search,它構(gòu)建在 Now Playing 功能的基礎(chǔ)上,可以快速、準(zhǔn)確地幫助用戶找到環(huán)境中正在播放的音樂;還有安卓系統(tǒng)中的 Smart Linkify,它展示了我們可以使用運(yùn)行在移動(dòng)設(shè)備上的機(jī)器學(xué)習(xí)模型分析屏幕上正在顯示的文本,理解文本內(nèi)容之后把它劃分為不同種類的小節(jié),接著就可以直接點(diǎn)擊文本訪問對應(yīng)的應(yīng)用程序。

Smart Linkify 智能地把連續(xù)的文本分成了一段地址 一個(gè)時(shí)間

我們目前的研究中一個(gè)重要的關(guān)注點(diǎn)就是讓谷歌助手這樣的工具支持更多的語言,以及讓系統(tǒng)更好地理解語義相似性,就是說即便使用了完全不同的方式來表達(dá),我們也希望它能理解人們希望表達(dá)的概念和想法是相同的。我們在提升語音合成質(zhì)量以及缺乏訓(xùn)練數(shù)據(jù)的文本轉(zhuǎn)語音任務(wù)中的研究成果,未來也可能為谷歌的產(chǎn)品增加新的功能。



量子計(jì)算

量子計(jì)算是一種正在逐漸發(fā)展壯大的計(jì)算范式,它有能力解決經(jīng)典計(jì)算機(jī)無法解決的非常困難的問題。在過去的幾年中我們一直積極地在這個(gè)方向上進(jìn)行科學(xué)研究,我們也相信,量子計(jì)算機(jī)展現(xiàn)出解決多種問題能力(所謂的量子霸權(quán))的那個(gè)時(shí)刻即將到來,而這也將成為這個(gè)領(lǐng)域的分水嶺。2018 年里,我們的量子計(jì)算實(shí)驗(yàn)產(chǎn)生了一系列令人興奮的新成果,其中包括一個(gè)新的 72 位的量子計(jì)算設(shè)備 Bristlecone,它極大地拓展了量子計(jì)算機(jī)可以解決的問題的大小。我們距離量子霸權(quán)的距離越來越近了。

位于 Santa Barbara 的谷歌量子 AI 實(shí)驗(yàn)室中,研究科學(xué)家 Marissa Giustina 正在安裝一塊 Bristlecone 芯片

我們也發(fā)布了 Cirq,這是一個(gè)為量子計(jì)算機(jī)開發(fā)的開源編程框架,我們也借助它探索了如何在量子計(jì)算機(jī)上運(yùn)行神經(jīng)網(wǎng)絡(luò)。最后,我們分享了研究量子處理器性能漲落的問題的及經(jīng)驗(yàn)和技巧,也分享了關(guān)于「量子計(jì)算機(jī)有可能可以成為神經(jīng)網(wǎng)絡(luò)的計(jì)算性基礎(chǔ)設(shè)施」的想法。2019 年里,我們期待在量子計(jì)算空間里做出更多驚喜的成果。



自然語言處理

對于自然語言處理領(lǐng)域,2018 年里谷歌收獲頗豐,我們有許多科研成果,也有許多關(guān)注于產(chǎn)品的內(nèi)部團(tuán)隊(duì)合作成果(https://ai./search/label/Natural%20Language%20Understanding)。我們在 2017 年發(fā)布的 Transformer 基礎(chǔ)上做了改進(jìn),得到了一個(gè)新的時(shí)間并行的模型版本,我們把它稱作 Universal Transformer,它在包括翻譯、語意推理等許多自然語言任務(wù)中都展現(xiàn)出了極大的性能提升。我們也開發(fā)了 BERT,這是首個(gè)深度雙向、無監(jiān)督的語言表示,它只需要在普通的文本語料上預(yù)訓(xùn)練,然后就可以通過遷移學(xué)習(xí)精細(xì)調(diào)節(jié)到許多種不同的自然語言任務(wù)上。相比之前的最佳表現(xiàn)的模型,BERT 在 11 種自然語言任務(wù)中都取得了顯著的表現(xiàn)提升。

在極具挑戰(zhàn)的 GLUE benchmark 中,相比之前的最佳水平模型,BERT 把分?jǐn)?shù)的絕對值提升了 7.6%

除了和許多谷歌內(nèi)部的產(chǎn)品團(tuán)隊(duì)合作開發(fā)了上文提到的 Smart Compose 和 Duplex 之外,我們也探索改進(jìn)了谷歌助手,讓它能夠更好地處理多語言混用的場景。我們的最終目的是希望所有的用戶都可以與它自然地用語言交流。



感知

我們在感知方面的研究攻克了讓計(jì)算機(jī)理解圖像、聲音、音樂和視頻等有難度的問題,同時(shí)也為圖像捕捉、壓縮、處理、創(chuàng)意表達(dá)以及增強(qiáng)現(xiàn)實(shí)提供了更多更有力的工具。2018 年,我們把新技術(shù)融合進(jìn)了谷歌照片 app,它可以更好地整理用戶在意的照片內(nèi)容,比如人和寵物。谷歌 Lens 和谷歌助手則可以幫助用戶了解自然世界、實(shí)時(shí)回答問題,谷歌圖像中的 Lens 還有更多新功能。

我們曾經(jīng)表示過,谷歌 AI 的使命中有一個(gè)重要的方面就是要給人類賦能、讓他們從技術(shù)中受益,這一年中我們也對谷歌 API 做了許多升級,改進(jìn)了它的功能、更新了它的基礎(chǔ)組件。一些例子包括谷歌云機(jī)器學(xué)習(xí) API 中的視覺和視頻的升級的新功能,以及通過 ML Kit 實(shí)現(xiàn)的許多運(yùn)行在移動(dòng)設(shè)備上基礎(chǔ)組件,提供了面部識別相關(guān)一些功能。

谷歌 Lens 可以幫助你更好地了解身邊的世界。比如,Lens 就分辨出了這條小狗的種類

2018 年中,我們對學(xué)術(shù)研究的貢獻(xiàn)包括了深度學(xué)習(xí)三維場景理解方面的進(jìn)展,比如立體變換(stereo magnification,https:///abs/1805.09817),它可以為一個(gè)場景生成全新角度、而且具有逼真畫質(zhì)的圖像。我們也有一些持續(xù)進(jìn)行中的研究,可以更好地理解圖像和視頻,也就可以幫助用戶更好地發(fā)現(xiàn)、組織、增強(qiáng)以及改進(jìn)谷歌產(chǎn)品(谷歌圖像、YouTube、谷歌搜索等)中出現(xiàn)的圖像和視頻。

這一年中值得一提的改進(jìn)包括:用于快速聯(lián)合姿態(tài)估計(jì)以及人體實(shí)例分割的自底向上模型(https:///abs/1803.08225),一個(gè)用于復(fù)雜動(dòng)作可視化的系統(tǒng)(http://mosculp.csail./),一個(gè)可以對人和物體之間的的時(shí)間-空間關(guān)系建模的系統(tǒng)(https://ai.google/research/pubs/pub47219),以及借助蒸餾(https:///abs/1812.08249)和 3D 卷積技術(shù)(https://ai.google/research/pubs/pub47220)改進(jìn)視頻動(dòng)作識別。

在語音領(lǐng)域,我們提出了一種方法用于語義音頻表示的無監(jiān)督學(xué)習(xí)(https://ieeexplore./abstract/document/8461684),也提出了「高表現(xiàn)力、仿人類語音生成」的重大技術(shù)改進(jìn)(Tacotron,https:///abs/1803.09047)。同時(shí),多模態(tài)感知也是一個(gè)越來越重要的研究話題。「通過看來聽」(https:///abs/1804.03619)綜合了輸入視頻中的視覺和音頻線索,然后可以抽取、增強(qiáng)視頻中指定說話者的聲音。這種技術(shù)有廣泛的應(yīng)用場景,從視頻增強(qiáng)和識別、到視頻通話、再到更好的聽力輔助設(shè)備都可以運(yùn)用,尤其適合同時(shí)有多個(gè)人說話的場景。

在資源有限的平臺上實(shí)現(xiàn)感知也越來越重要。我們的第一代移動(dòng)平臺計(jì)算機(jī)視覺模型 MobileNets 已經(jīng)在學(xué)術(shù)界和工業(yè)界得到了廣泛應(yīng)用,而我們也在 2018 年發(fā)布了第二代模型 MobileNetV2(https:///abs/1801.04381)。在 MorphNet (https:///abs/1711.06798)中,我們提出了一種高效的方法學(xué)習(xí)深度神經(jīng)網(wǎng)絡(luò)的架構(gòu),它在符合計(jì)算資源限制的情況下為圖像和音頻模型提供了全面的性能改進(jìn),而更新的自動(dòng)網(wǎng)絡(luò)生成方面的研究則表明了可以針對硬件設(shè)計(jì)表現(xiàn)更加優(yōu)異的模型。



計(jì)算圖像學(xué)

在過去的幾年中,手機(jī)攝像頭畫質(zhì)以及易用性的提升可以說是嘆為觀止。其中一部分改進(jìn)自然來自于手機(jī)攝像頭使用的感光器越來越先進(jìn),但同時(shí)更大的功勞在于計(jì)算圖像學(xué)領(lǐng)域的科學(xué)技術(shù)改進(jìn)。我們谷歌的研究團(tuán)隊(duì)發(fā)表了自己的最新研究成果,也和谷歌的安卓系統(tǒng)團(tuán)隊(duì)、消費(fèi)級硬件團(tuán)隊(duì)緊密協(xié)作,把這項(xiàng)成果搭載在最新的 Pixel 手機(jī)以及其它的設(shè)備上,并最終送達(dá)用戶手中。

早在 2014 年,我們就發(fā)布了 HDR 技術(shù),它讓手機(jī)快速連拍多張曝光不同的照片,然后在軟件中對齊這幾張照片,并通過計(jì)算軟件把它們合并為一張照片。最初 HDR 的設(shè)計(jì)目的是讓照片具有比只拍一張照片更大的動(dòng)態(tài)范圍,后來,快速連拍多張照片并基于它們做計(jì)算性分析已經(jīng)成了一種通用的模式,2018 年的手機(jī)攝像頭基于這種模式開發(fā)了更多的功能,比如 Pixel 2 手機(jī)中的運(yùn)動(dòng)照片,以及動(dòng)作靜止照片中的增強(qiáng)現(xiàn)實(shí)模式。

動(dòng)作靜止照片中的增強(qiáng)現(xiàn)實(shí)模式中的一只小雞

今年,我們在計(jì)算圖像學(xué)研究上的主要努力是為手機(jī)攝像頭開發(fā)了一種新的能力,夜視,可以讓 Pixel 手機(jī)在夜里看得更清晰,這項(xiàng)功能也獲得了媒體和用戶的一致好評。當(dāng)然了,夜視僅僅是谷歌團(tuán)隊(duì)開發(fā)的幫助用戶拍出完美照片的眾多功能之一,這些功能都基于軟件、服務(wù)于攝像頭,它們包括:用機(jī)器學(xué)習(xí)帶來更好的人像模式照片,通過超級清晰變焦看得更清楚、更遠(yuǎn),以及用 Top Shot 和谷歌 Clips 捕捉特殊瞬間。

左:iPhone XS;右:帶有夜視功能的 Pixel 3 手機(jī)



算法與理論

算法是谷歌各個(gè)系統(tǒng)背后的支撐骨架,各種算法決定著從谷歌旅行的路程規(guī)劃系統(tǒng),到谷歌云的持續(xù)哈希系統(tǒng)等等的所有谷歌產(chǎn)品的表現(xiàn)。在過去的一年中,我們繼續(xù)在算法和理論方面進(jìn)行著深入的科學(xué)研究(https://ai.google/research/pubs/?area=AlgorithmsandTheory&year=2018),從理論基礎(chǔ)到實(shí)用算法,以及從圖挖掘(https://ai.google/research/teams/algorithms-optimization/graph-mining/)到保持隱私的計(jì)算方法。我們在優(yōu)化算法方面的探索覆蓋了許多領(lǐng)域,從用于機(jī)器學(xué)習(xí)的連續(xù)優(yōu)化,到分布式的組合優(yōu)化。在前一個(gè)領(lǐng)域,我們研究訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí)的隨機(jī)優(yōu)化算法的收斂性的論文獲得了 ICLR 2018 的最佳論文獎(jiǎng),這篇論文展示了熱門的基于梯度的優(yōu)化方法存在的問題(比如 ADAM 的一些變種),同時(shí)也為一些新的基于梯度的優(yōu)化方法提供了扎實(shí)的理論基礎(chǔ)。(https://ai.google/research/pubs/pub47409)

對于分布式優(yōu)化問題,我們研究了如何改進(jìn)組合優(yōu)化問題中的輪數(shù)和溝通復(fù)雜度,比如通過輪數(shù)壓縮(https://ai.google/research/pubs/pub46793)和核心組的圖中的匹配(https://ai.google/research/pubs/pub46793),以及子模最大化(https://ai.google/research/pubs/pub46927)和 k 核分解(https://ai.google/research/pubs/pub47742)。對于更偏向應(yīng)用的方面,我們開發(fā)了新算法解決通過草圖大規(guī)模設(shè)定封面(https://ai.google/research/pubs/pub46927),以及解決具有萬億條邊的圖的平衡分區(qū)以及層次化分簇問題。我們研究在線投遞服務(wù)的論文(https:///10.1145/3178876.3186104)得到了 WWW 2018 的最佳論文提名。還有,我們的開源優(yōu)化平臺 OR-tools (https://developers.google.com/optimization/)也在 2018 Minizinc 限定編程比賽中贏得了 4 面金牌。

對于算法選擇理論,我們提出了一些新的模型(https:///10.1145/3159652.3159702),也對重建問題(https:///10.1137/1.9781611975031.38)和多項(xiàng)式分對數(shù)的學(xué)習(xí)問題(http://proceedings./v80/chierichetti18a.html)做了一些調(diào)研。我們也研究了神經(jīng)網(wǎng)絡(luò)可以學(xué)習(xí)到的函數(shù)的類型(https:///10.4230/LIPIcs.ITCS.2018.22),以及如何使用機(jī)器學(xué)習(xí)的思想改進(jìn)經(jīng)典在線算法(http://papers./paper/8174-improving-online-algorithms-via-ml-predictions)。

對于谷歌來說,了解一些有強(qiáng)有力的隱私保證的算法是有著重要意義的。在這樣的背景下,我們開發(fā)了兩種新的方法,通過迭代(https://ai.google/research/pubs/pub47118)和隨機(jī)排序(https://ai.google/research/pubs/pub47557)進(jìn)一步分析并增強(qiáng)差分隱私。我們也使用差分隱私技術(shù)設(shè)計(jì)可以感知?jiǎng)訖C(jī)的學(xué)習(xí)方法(https://ai.google/research/pubs/pub46913),它們在博弈中很魯棒。類似這樣的學(xué)習(xí)技巧都在高效的在線市場設(shè)計(jì)中得到了應(yīng)用。我們在市場相關(guān)的算法領(lǐng)域也有一些新的研究,比如幫助廣告商測試廣告投放的動(dòng)機(jī)兼容性的技術(shù)(https://ai.google/research/pubs/pub46968),以及優(yōu)化 app 內(nèi)廣告的刷新方式的技術(shù)(https://ai.google/research/pubs/pub46847)。我們也在重復(fù)拍賣問題中把當(dāng)前最優(yōu)的動(dòng)態(tài)機(jī)制又向前推進(jìn)了一步,我們的動(dòng)態(tài)拍賣對于缺少未來預(yù)期(https://ai.google/research/pubs/pub47744)、預(yù)測有噪聲(https://ai.google/research/pubs/pub47745)、異質(zhì)買家行為(https://ai.google/research/pubs/pub46969)等狀況都可以保持魯棒,我們的結(jié)果還可以拓展到動(dòng)態(tài)雙拍賣的場景中(https://ai.google/research/pubs/pub47734)。最后,在在線優(yōu)化和在線學(xué)習(xí)魯棒性問題中,我們開發(fā)了新的在線分配算法處理帶有流量峰值的隨機(jī)輸入(https://dl./citation.cfm?id=3105446),以及對損壞的數(shù)據(jù)魯棒的修補(bǔ)算法(https://ai.google/research/pubs/pub47732)。



軟件系統(tǒng)

我們對于軟件系統(tǒng)的研究很大部分都繼續(xù)與構(gòu)建機(jī)器學(xué)習(xí)模型有著種種聯(lián)系,尤其是與 TensorFlow 有許多聯(lián)系。比如,我們針對 TensorFlow 1.0 發(fā)布了動(dòng)態(tài)控制流的設(shè)計(jì)和實(shí)現(xiàn)(https://dl./citation.cfm?id=3190551)。我們在后來的研究中介紹了一個(gè)稱作 Mesh TensorFlow 的系統(tǒng),通過它可以很方便地定義具有并行模型的大規(guī)模分布式計(jì)算,這樣的系統(tǒng)可以包含多達(dá)幾十億個(gè)參數(shù)。另一個(gè)例子是,我們還發(fā)布了一個(gè)用于可拓展的深度神經(jīng)排序的 TensorFlow 庫。

TF 排序庫支持多項(xiàng)目評分架構(gòu),是傳統(tǒng)的多項(xiàng)目評分的拓展

我們也發(fā)布了 JAX(https://github.com/google/jax),這是一個(gè)帶有加速器的 NumPy 的變種,它可以支持 Python 函數(shù)的任意階自動(dòng)微分。雖然 JAX 并不包含在 TensorFlow 中,它所使用的部分底層基礎(chǔ)軟件其實(shí)是和 TF 相同的(比如 XLA,https://www./xla/),而且 JAX 的一些想法和算法也對 TF 起到了不小幫助。我們在機(jī)器學(xué)習(xí)的安全和隱私方面也做了更多研究,我們開發(fā)的安全、保證隱私的開源框架也用在了更多的 AI 系統(tǒng)中,比如 CleverHans (https://github.com/tensorflow/cleverhans)和 TensorFlow Privacy(https://github.com/tensorflow/privacy)。

我們看重的另一個(gè)研究方向是機(jī)器學(xué)習(xí)在軟件系統(tǒng)中的應(yīng)用,這可以發(fā)生在許多不同的層次上。比如,我們持續(xù)地研究用層次化模型向不同的設(shè)備分配計(jì)算任務(wù)(https:///pdf?id=Hkc-TeZ0W),以及我們參與了學(xué)習(xí)內(nèi)存訪問模式的研究(http://proceedings./v80/hashemi18a/hashemi18a.pdf)。我們也繼續(xù)探索如何用模型學(xué)習(xí)到的索引在數(shù)據(jù)庫和存儲系統(tǒng)中替代傳統(tǒng)的索引結(jié)構(gòu)。正如我在去年的總結(jié)中寫的,對于如何在計(jì)算機(jī)系統(tǒng)中使用機(jī)器學(xué)習(xí),我們目前的認(rèn)識其實(shí)還處在非常早期。

層次化分配器(https:///pdf?id=Hkc-TeZ0W)對一個(gè)四層的神經(jīng)機(jī)器翻譯模型的計(jì)算量的分配。其中白色表示 CPU,四種不同的彩色表示 GPU。值得注意的是,每一層的每一步計(jì)算都是分配給了多個(gè) GPU 在執(zhí)行的。這種分配方式比人類專家設(shè)計(jì)的分配方式快 53.7%。

2018 年里我們也結(jié)識了 Spectre 和 Meltdown 這兩個(gè)現(xiàn)代計(jì)算機(jī)處理器帶有的嚴(yán)重安全漏洞,它們也正是在谷歌的零計(jì)劃(Project Zero)團(tuán)隊(duì)與其他團(tuán)隊(duì)的合作中發(fā)現(xiàn)的。這些漏洞以及其它相關(guān)的漏洞著實(shí)讓計(jì)算機(jī)架構(gòu)研究人員們忙活了一陣子。在我們持續(xù)地對 CPU 的行為建模的過程中,我們的編譯器研究團(tuán)隊(duì)把他們的測量機(jī)器指令延遲和端口壓力的工具集成進(jìn)了 LLVM 中,這讓編譯器得以做出更好的決定。

谷歌具有為計(jì)算、存儲和網(wǎng)絡(luò)構(gòu)建大規(guī)模、可信賴、高效的技術(shù)架構(gòu)的能力,谷歌的消費(fèi)者產(chǎn)品、谷歌的云端服務(wù)以及機(jī)器學(xué)習(xí)模型的推理就都高度依賴于這種能力。在過去的一年中,這些方面的研究亮點(diǎn)包括谷歌最新進(jìn)化的軟件防御網(wǎng)絡(luò) WAN(https://ai.google/research/pubs/pub47191);一個(gè)獨(dú)立工作、聯(lián)邦式的查詢處理平臺,它可以在以不同的文件形式存儲的數(shù)據(jù)上、在許多不同的存儲系統(tǒng)上執(zhí)行 SQL 查詢語句(https://ai.google/research/pubs/pub47224);以及一個(gè)關(guān)于我們谷歌的代碼審查做法的詳細(xì)報(bào)告,包含了谷歌的代碼審查背后的動(dòng)機(jī)、目前的慣例、開發(fā)者的滿意狀況以及挑戰(zhàn)(https://ai.google/research/pubs/pub47025)。

運(yùn)行一個(gè)內(nèi)容存儲之類的大規(guī)模網(wǎng)絡(luò)服務(wù)需要在不斷變化的環(huán)境中做穩(wěn)定的負(fù)載均衡。我們開發(fā)了一個(gè)持續(xù)的哈希方案(https://dl./citation.cfm?id=3175309),它對于每一個(gè)服務(wù)器的最大負(fù)載有一個(gè)嚴(yán)密、可證明的保證,我們把它部署在了谷歌云的 Pub/Sub (https://cloud.google.com/pubsub/)上,為谷歌云的客戶提供服務(wù)。在發(fā)布了最初版本的論文(https:///abs/1608.01350)之后,Vimeo 的工程師注意到了這篇論文,實(shí)現(xiàn)了它并把它開源到 haproxy,然后在 Vimeo 的負(fù)載均衡項(xiàng)目中使用它。它帶來了顯著的改進(jìn),這些算法思想的運(yùn)用大幅降低了服務(wù)器緩存的帶寬需求,幾乎只有原先的 1/8,消除了一個(gè)重大性能瓶頸。


AutoML

AutoML 也被稱作「元學(xué)習(xí)」,主要通過機(jī)器學(xué)習(xí)方式讓機(jī)器學(xué)習(xí)的某些方面實(shí)現(xiàn)「自動(dòng)化」。多年來我們一直在該領(lǐng)域進(jìn)行研究,目標(biāo)是開發(fā)出一個(gè)懂得借鑒過往積累的見解與能力,進(jìn)而自動(dòng)發(fā)現(xiàn)并解決新問題的系統(tǒng)。早期我們使用得最多的是強(qiáng)化學(xué)習(xí),如今我們也將目光鎖定在了進(jìn)化算法上。去年,我們向大家展示了如何通過進(jìn)化算法為視覺任務(wù)自動(dòng)發(fā)掘最先進(jìn)的神經(jīng)網(wǎng)絡(luò)架構(gòu)。此外,我們也探索了強(qiáng)化學(xué)習(xí)在神經(jīng)網(wǎng)絡(luò)架構(gòu)檢索以外的更多作用,最后成功證明可用于下列問題的解決上:

1)自動(dòng)生成圖像變換序列,提高各種圖像模型的準(zhǔn)確性;

2)找到一種全新的符號優(yōu)化表達(dá)形式,比起常用的優(yōu)化規(guī)則效果更好。

我們在 AdaNet 的工作展示了如何創(chuàng)建一個(gè)學(xué)習(xí)效果有保障、使用上快速靈活的 AutoML 算法。

AdaNet 自適應(yīng)地增強(qiáng)了神經(jīng)網(wǎng)絡(luò)的集成。它在每次迭代的過程中計(jì)算每個(gè)候選者的集合損失,再從中挑選最優(yōu)秀的候選者進(jìn)入下一輪迭代。

我們另外一項(xiàng)工作重點(diǎn)是自動(dòng)發(fā)掘計(jì)算效率最高的神經(jīng)網(wǎng)絡(luò)架構(gòu),以便它們能在一些計(jì)算資源和推理時(shí)間有限的環(huán)境中(如移動(dòng)電話、自動(dòng)駕駛車輛等)運(yùn)行。為此,我們證明只要在強(qiáng)化學(xué)習(xí)架構(gòu)搜索的獎(jiǎng)勵(lì)函數(shù)中把模型的準(zhǔn)確率與推理時(shí)間進(jìn)行結(jié)合,就能找到既滿足高度準(zhǔn)確性又符合特定性能約束的模型。此外,我們還探索了如何通過 ML 來學(xué)習(xí)自動(dòng)壓縮 ML 模型,以更少的調(diào)試參數(shù)和計(jì)算資源消耗的方式。


TPUs

Tensor Processing Units (TPUs) 是谷歌內(nèi)部自主研發(fā)的 ML 硬件加速器,最開始的設(shè)計(jì)初衷就是為了用于大規(guī)模的訓(xùn)練與推理上。TPUs 讓谷歌的許多研究得以實(shí)現(xiàn)突破,比如廣為人知的 BERT(前文提過),此外,通過開源的方式,它能讓世界各地的研究人員對谷歌的研究進(jìn)行拓展并實(shí)現(xiàn)突破。最典型的例子,任何人都可以通過 Colab 免費(fèi)在 TPUs 上對 BERT 進(jìn)行微調(diào),這里要提一下 TensorFlow Research Cloud,它使數(shù)以千計(jì)的研究人員得以從大體量的免費(fèi)云 TPU 供給的計(jì)算能力中受惠。

此外,我們還將多代 TPU 硬件作為商用云 TPUs 對外出售,其中包括被稱作 Cloud TPU Pod 的 ML 超級計(jì)算機(jī),這使大規(guī)模的 ML 訓(xùn)練服務(wù)變得觸手可及。僅就谷歌內(nèi)部而言,除了讓 ML 研究取得快速進(jìn)步,TPUs 還推動(dòng)了谷歌核心產(chǎn)品的重大改進(jìn),其中包括谷歌檢索、YouTube、Gmail、Google 智能助理和谷歌翻譯等。我們期待看到來自谷歌內(nèi)部和其他地方的 ML 團(tuán)隊(duì)可以通過 TPUs,以其前所未有的計(jì)算規(guī)模在 ML 領(lǐng)域取得更多突破。

單個(gè) TPU v3 設(shè)備(左)與 TPU v3 Pod 的部分部件展示(右)。TPU v3 是谷歌最新一代的 Tensor Processing Unit(TPU)硬件。它以云 TPU v3 的形式對外出售,采用液體冷卻技術(shù)以獲得最佳性能(計(jì)算機(jī)芯片 液體 = 太有意思了?。?,而完整的 TPU v3 Pod 將可以為全球最大的 ML 任務(wù)提供高達(dá) 100 petaflops 的計(jì)算能力。


開源軟件與數(shù)據(jù)集

發(fā)布開源軟件與創(chuàng)建全新的公共數(shù)據(jù)集,是我們?yōu)檐浖こ萄芯可鐓^(qū)做貢獻(xiàn)的最主要兩種方式。這方面我們最大的貢獻(xiàn)之一要屬 TensorFlow,這是一款發(fā)布于 2015 年 11 月的 ML 計(jì)算系統(tǒng),這些年來倍受歡迎。2018 年我們剛為 TensorFlow 慶祝完第 3 個(gè)生日,這期間 TensorFlow 已經(jīng)被被下載超過 3000 萬次,且有超過 1700 名的貢獻(xiàn)者添加了 45 000 次的 commits。我們在 2018 年為 TensorFlow 更新了 8 個(gè)主要版本,增加了動(dòng)態(tài)圖機(jī)制和分發(fā)策略等主要功能。在研發(fā)過程中,我們啟動(dòng)了吸引社區(qū)注意力的公眾設(shè)計(jì)評審活動(dòng),通過組建特殊興趣小組留住貢獻(xiàn)者。隨著 TensorFlow Lite、TensorFlow.js 和 TensorFlow Probability 等產(chǎn)品的相繼推出,TensorFlow 生態(tài)系統(tǒng)也在 2018 年迎來了大幅增長。

我們很高興得知 TensorFlow 作為頂級機(jī)器學(xué)習(xí)和深度學(xué)習(xí)框架在 Github 上擁有強(qiáng)大的號召力。TensorFlow 團(tuán)隊(duì)也一直致力于實(shí)現(xiàn)快速解決 Github 上存在的問題,為外部貢獻(xiàn)者提供更順暢的操作通道。根據(jù)谷歌學(xué)術(shù)檢索,我們已公開發(fā)表的論文持續(xù)為全世界的大部分機(jī)器學(xué)習(xí)和深度學(xué)習(xí)研究提供了有效支持。TensorFlow Lite 僅推出 1 年,便在全球超過 15 億的設(shè)備上獲得使用;成為 JavaScript 使用排名第一的 ML 框架;同時(shí)在對外放出的短短 9 個(gè)月內(nèi),已在 Github 獲得超過 2 百萬次的內(nèi)容分發(fā)網(wǎng)絡(luò)(CDN)點(diǎn)擊量、20.5 萬次下載量以及超過 1 萬次的星星點(diǎn)亮。

除了繼續(xù)耕耘現(xiàn)有的開源生態(tài)系統(tǒng),2018 年我們還做了以下事情:

  • 引入一個(gè)用于靈活、可再現(xiàn)強(qiáng)化學(xué)習(xí)的全新框架

https://ai./2018/08/introducing-new-framework-for-flexible.html

  • 引入一個(gè)可以快速習(xí)得數(shù)據(jù)集特征的可視化工具(無需編寫任何代碼)

https://ai./2018/09/the-what-if-tool-code-free-probing-of.html

  • 增加一個(gè)涉及 learning-to-rank 算法(以最大化整個(gè)列表效用的方式對項(xiàng)目列表進(jìn)行排序的過程,適用于包括搜索引擎、推薦系統(tǒng)、機(jī)器翻譯、對話系統(tǒng)甚至是計(jì)算生物學(xué)等領(lǐng)域)的高級機(jī)器學(xué)習(xí)問題庫

http://ai./2018/12/tf-ranking-scalable-tensorflow-library.html

  • 發(fā)布一個(gè)快速、靈活的 AutoML 解決方案框架

  • 發(fā)布一個(gè)通過 TensorFlow.js 執(zhí)行瀏覽器實(shí)時(shí) t-SNE 可視化工作的庫

  • 增加用于處理電子醫(yī)療數(shù)據(jù)(會(huì)在本文醫(yī)療保障環(huán)節(jié)提到)的 FHIR 工具 & 軟件

針對完整 MNIST 數(shù)據(jù)集的 tSNE 嵌入實(shí)時(shí)演變過程。該數(shù)據(jù)集包含 60,000 個(gè)手寫數(shù)字圖像?,F(xiàn)場演示請點(diǎn)擊:https://nicola17./tfjs-tsne-demo/

公共數(shù)據(jù)集是觸發(fā)靈感的絕佳來源,可帶領(lǐng)許多領(lǐng)域取得重大進(jìn)步,因?yàn)楣矓?shù)據(jù)集能夠?yàn)樯鐓^(qū)帶來有趣的數(shù)據(jù)和問題,并在許多任務(wù)的解決上形成有益的競爭氛圍。今年我們很高興能夠發(fā)布谷歌數(shù)據(jù)集檢索工具(Google Dataset Search),這是一款可以讓我們從各個(gè)網(wǎng)絡(luò)渠道查找想要的公共數(shù)據(jù)集的全新工具。從數(shù)百萬的通用注釋圖像或視頻數(shù)據(jù)集、到用于語音識別的孟加拉人群源數(shù)據(jù)集、再到機(jī)器人手臂抓取數(shù)據(jù)集,這些年我們策劃并發(fā)布了多個(gè)嶄新數(shù)據(jù)集,即使在 2018 年,數(shù)據(jù)集的清單也還在不斷增加中。

通過 Crowdsource 軟件添加到 Open Images Extended 的圖片(源自印度 & 新加坡)

我們還發(fā)布了 Open Images V4,這是一個(gè)包含 15.4 M 基于 600 種類別多達(dá) 1.9 M 圖像的邊框數(shù)據(jù)以及 30.1 M 源自 19,794 種類別的人工驗(yàn)證圖像級標(biāo)簽的數(shù)據(jù)集。我們通過 crowdsource.google.com 為數(shù)據(jù)集添加了 5.5M 由世界各地?cái)?shù)百萬用戶提供的生成注釋數(shù)據(jù),有效豐富了數(shù)據(jù)集在人和場景方面的多樣性。我們還發(fā)布了具備視頻視聽注解功能的 Atomic Visual Actions (AVA) 數(shù)據(jù)集,可以有效提升機(jī)器理解視頻中人類的行為與語言的能力。此外,我們還官宣了最新的 YouTube-8M 挑戰(zhàn)賽和第二屆 YouTube-8M Large-Scale Video 理解挑戰(zhàn)賽與 Workshop。其他發(fā)布的數(shù)據(jù)集,如 HDR Burst Photography 旨在為計(jì)算攝影領(lǐng)域的各種研究提供幫助;Google-Landmarks 是一個(gè)作用于地標(biāo)識別的全新數(shù)據(jù)集。除了發(fā)布數(shù)據(jù)集,我們還探索了相關(guān)的一些新技術(shù),比如 Fluid Annotation 可以讓我們快速創(chuàng)建可視化數(shù)據(jù)集,通過一種探索性的 ML 驅(qū)動(dòng)接口實(shí)現(xiàn)更快的圖像注釋行為。

Fluid Annotation 基于 COCO dataset 圖像的可視化效果。圖片來源:gamene,原始圖片。

我們時(shí)不時(shí)還會(huì)給研究界樹立新挑戰(zhàn),以便聚合大家一同來解決棘手的研究問題。一般來說,我們會(huì)通過發(fā)布新的數(shù)據(jù)集來達(dá)到這個(gè)目的,但也有例外的時(shí)候。比如今年,我們就圍繞包容性圖像挑戰(zhàn)賽制定了全新的挑戰(zhàn),致力于創(chuàng)造免除偏見、更具魯棒性的模型;iNaturalist 2018 挑戰(zhàn)賽旨在讓計(jì)算機(jī)得以細(xì)致區(qū)分物體的類別(如圖像中的植物種類);在 Kaggle 上發(fā)起的 'Quick, Draw!' Doodle Recognition 挑戰(zhàn)賽試圖為 QuickDraw 游戲創(chuàng)建更好的分類器;還有 Conceptual Captions 作為大規(guī)模的圖像字幕數(shù)據(jù)集挑戰(zhàn)賽,旨在推動(dòng)更好的圖像字幕模型研究。


機(jī)器人學(xué)

2018 年,我們在理解機(jī)器學(xué)習(xí)如何教機(jī)器人行動(dòng)這個(gè)目標(biāo)方面取得了重大進(jìn)展,在教機(jī)器人掌握新事物的能力方面達(dá)到了新的里程碑(2018 年 CORL 的最佳系統(tǒng)論文)。我們還通過結(jié)合機(jī)器學(xué)習(xí)和基于采樣的方法(2018 年 ICRA 的最佳服務(wù)機(jī)器人論文)以及研究機(jī)器人的幾何構(gòu)造,在機(jī)器人運(yùn)動(dòng)學(xué)習(xí)方面取得了進(jìn)展。我們在機(jī)器人通過自主觀察更好地感知世界結(jié)構(gòu)這一能力上取得了很大的進(jìn)步。我們第一次成功地在真正的機(jī)器人上在線訓(xùn)練了深層強(qiáng)化學(xué)習(xí)模型,并且正在尋找新的理論方法,學(xué)習(xí)控制機(jī)器人的穩(wěn)定方法。


人工智能在其他領(lǐng)域的應(yīng)用

2018 年,我們將深度學(xué)習(xí)應(yīng)用于物理和生物科學(xué)的一系列問題中。使用深度學(xué)習(xí),我們可以為科學(xué)家提供相當(dāng)于數(shù)以百計(jì)的挖掘數(shù)據(jù)研究助理,從而提高他們的創(chuàng)造力和生產(chǎn)力。

我們關(guān)于神經(jīng)元高精度自動(dòng)重建的論文提出了一個(gè)新的模型,與以前的深度學(xué)習(xí)技術(shù)相比,它將連接體數(shù)據(jù)(connectomics data)自動(dòng)解釋的準(zhǔn)確性提高了一個(gè)數(shù)量級。

圖為我們的算法正在跟蹤鳴禽大腦中的一個(gè)神經(jīng)突觸

將機(jī)器學(xué)習(xí)應(yīng)用于科學(xué)的其他一些示例有:

  • 通過對恒星的光曲線數(shù)據(jù)進(jìn)行挖掘,發(fā)現(xiàn)太陽系外的新行星

  • 識別短 DNA 序列的起源或功能

  • 自動(dòng)檢測離焦顯微鏡圖像

  • 用數(shù)字技術(shù)構(gòu)建同一個(gè)細(xì)胞帶有污點(diǎn)的圖像

  • 自動(dòng)繪制肽鏈的質(zhì)譜分析圖

在 Fiji(圖像 J)里面,一個(gè) TensorFlow 模型對顯微鏡細(xì)胞拼接圖像的聚焦質(zhì)量進(jìn)行了評估。邊界的色調(diào)表示預(yù)測的焦點(diǎn)質(zhì)量,邊界亮度表示預(yù)測的不確定性。


健康

在過去的幾年中,我們一直在將機(jī)器學(xué)習(xí)應(yīng)用于健康領(lǐng)域,這一領(lǐng)域影響著我們每一個(gè)人,我們相信通過機(jī)器學(xué)習(xí)可以增強(qiáng)專業(yè)醫(yī)療人員的直覺和經(jīng)驗(yàn),從而為醫(yī)療領(lǐng)域帶來巨大的改變。我們一般會(huì)與醫(yī)療保健組織合作,解決基礎(chǔ)研究問題(利用臨床專家的反饋使我們的結(jié)果更加可信),然后將結(jié)果發(fā)表在權(quán)威的同行評審的科學(xué)和臨床期刊上。一旦研究得到臨床和科學(xué)驗(yàn)證,我們就進(jìn)行用戶和 HCI 研究,以了解在現(xiàn)實(shí)的臨床環(huán)境中如何部署它。2018 年,我們將臨床任務(wù)預(yù)測也納入了計(jì)算機(jī)輔助診斷的領(lǐng)域。

在 2016 年底,我們發(fā)表的研究表明,在一項(xiàng)回顧性研究中,接受過糖尿病視網(wǎng)膜病變體征視網(wǎng)膜底圖像評估訓(xùn)練的模型在這項(xiàng)任務(wù)中的表現(xiàn)比美國醫(yī)學(xué)委員會(huì)認(rèn)證的眼科醫(yī)師略好。2018 年,我們能夠證明,通過讓視網(wǎng)膜專家對培訓(xùn)圖像進(jìn)行標(biāo)記,并使用一個(gè)判定方案(在該方案中,多個(gè)視網(wǎng)膜專家聚集在一起,對每個(gè)眼底圖像進(jìn)行一次單獨(dú)的集體評估),我們可以得出一個(gè)與視網(wǎng)膜專家相當(dāng)?shù)哪P?。后來,我們發(fā)表了一份評估報(bào)告,展示了眼科醫(yī)生如何利用這種機(jī)器學(xué)習(xí)模型,使他們做出比單獨(dú)做出比不使用機(jī)器學(xué)習(xí)時(shí)更準(zhǔn)確的決定。我們已經(jīng)在印度的 Aravind 眼科醫(yī)院和泰國衛(wèi)生部附屬的 Rajavithi 醫(yī)院等 10 多個(gè)地點(diǎn)與我們 Alphabet 的同事合作,共同部署了這種糖尿病視網(wǎng)膜病變檢測系統(tǒng)。

左側(cè)是一張視網(wǎng)膜眼底圖像,被眼科專家評審小組評定為中度 DR(「MO」)。右上角是模型預(yù)測得分的圖示(「N」=無 DR,「MI」=輕度 DR,「MO」=中度 DR)。右下角是醫(yī)生在沒有幫助的情況下給出的一組分?jǐn)?shù)。

我們還發(fā)表了一個(gè)機(jī)器學(xué)習(xí)模型的研究,這個(gè)模型可以通過視網(wǎng)膜圖像評估心血管病患病風(fēng)險(xiǎn)。這是一種新型的無創(chuàng)生物標(biāo)記方法,它可以幫助臨床醫(yī)生更好地了解患者的健康狀況。

我們今年還繼續(xù)關(guān)注病理學(xué),展示了如何使用機(jī)器學(xué)習(xí)改善前列腺癌的分級,通過深度學(xué)習(xí)來檢測轉(zhuǎn)移性乳腺癌,并開發(fā)了一個(gè)增強(qiáng)現(xiàn)實(shí)顯微鏡的原型,它可以通過將從計(jì)算機(jī)視覺模型中獲得的視覺信息實(shí)時(shí)疊加到顯微鏡學(xué)家的視野中,輔助病理學(xué)家和其他科學(xué)家的工作。

在過去的四年中,我們在利用電子健康記錄數(shù)據(jù)進(jìn)行深度學(xué)習(xí),從而做出臨床相關(guān)預(yù)測方面做了大量的研究工作。2018 年,我們與芝加哥大學(xué)醫(yī)學(xué)院、加州大學(xué)舊金山分校和斯坦福大學(xué)醫(yī)學(xué)院合作,并將研究成果發(fā)表在《自然數(shù)字醫(yī)學(xué)》雜志上。我們的研究是關(guān)于如何將機(jī)器學(xué)習(xí)模型應(yīng)用于未識別的電子病歷中,與當(dāng)前的最佳臨床實(shí)踐相比,它可以對各種臨床相關(guān)任務(wù)做出更準(zhǔn)確的預(yù)測。作為這項(xiàng)工作的一部分,我們開發(fā)了一些工具,使得在人物差異很大,底層 EHR 數(shù)據(jù)集也非常不同的情況下,創(chuàng)建這些模型變得更加容易。我們開發(fā)了快速醫(yī)療保健協(xié)作資源(Fast Healthcare Interoperability Resources (FHIR))標(biāo)準(zhǔn)相關(guān)的開源軟件,以幫助更容易和更標(biāo)準(zhǔn)化地處理醫(yī)療數(shù)據(jù)(請參閱此 Github 代碼庫)。最近,團(tuán)隊(duì)與合作伙伴共同努力,在《Nature Biotechnology》上發(fā)表了同行評議論文。

在將機(jī)器學(xué)習(xí)應(yīng)用于歷史收集的數(shù)據(jù)時(shí),重要的是要了解過去經(jīng)歷過人類結(jié)構(gòu)偏差的人群,以及這些偏差是如何在數(shù)據(jù)中編碼的。機(jī)器學(xué)習(xí)提供了一個(gè)機(jī)會(huì)來檢測和解決偏見,并積極推進(jìn)健康公平,這也正是我們正在努力推進(jìn)的一個(gè)方面。


研究推廣

我們采用了許多不同的方式與外部研究團(tuán)體互動(dòng),包括教師參與和學(xué)生支持。我們很榮幸接收數(shù)百名本科生、碩士和博士生作為實(shí)習(xí)生,并為北美、歐洲和中東地區(qū)的學(xué)生提供多年的博士獎(jiǎng)學(xué)金。除了財(cái)政支持,每個(gè)獎(jiǎng)學(xué)金獲得者都被指派一個(gè)或多個(gè)谷歌研究人員作為導(dǎo)師,我們召集所有的研究員參加一年一度的谷歌博士獎(jiǎng)學(xué)金峰會(huì),在那里他們可以接觸到谷歌正在進(jìn)行的最先進(jìn)的研究,并有機(jī)會(huì)與谷歌的研究人員以及其他來自世界各地的博士生建立聯(lián)系??梢圆榭匆曨l:https:///7RcUokN_eCg。

Google AI 實(shí)習(xí)生服務(wù)是這項(xiàng)獎(jiǎng)學(xué)金計(jì)劃的補(bǔ)充,它的形式是,讓想要學(xué)習(xí)進(jìn)行深度學(xué)習(xí)研究的人花一年時(shí)間與 Google 的研究人員一起工作并接受指導(dǎo)。2018 年是這項(xiàng)服務(wù)的第三年,全球的谷歌員工都加入了不同的團(tuán)隊(duì),從事機(jī)器學(xué)習(xí)、感知、算法和優(yōu)化、語言理解、醫(yī)療保健等領(lǐng)域的研究。目前該項(xiàng)目第四年的申請已經(jīng)結(jié)束,我們很期待看到研究人員在 2019 年將進(jìn)行的研究。

每年,我們還通過我們的 Google Faculty Research Awards 計(jì)劃為一些研究項(xiàng)目的教員和學(xué)生提供支持。2018 年,我們還繼續(xù)在谷歌(Google)為特定領(lǐng)域的教職員工和學(xué)生舉辦研討會(huì),包括在印度班加羅爾辦事處舉辦的人工智能/機(jī)器學(xué)習(xí)研究與實(shí)踐研討會(huì)、在蘇黎世辦事處舉辦的算法與優(yōu)化研討會(huì)、在桑尼維爾舉辦的機(jī)器學(xué)習(xí)醫(yī)療保健應(yīng)用研討會(huì)、在劍橋舉辦了關(guān)于公平與偏見的研討會(huì)。

我們認(rèn)為,公開向?qū)V泛的研究群體作出貢獻(xiàn)是支持健康、高效的研究環(huán)境的關(guān)鍵部分。除了開放源代碼和發(fā)布數(shù)據(jù)集之外,我們的大部分研究成果都在頂級會(huì)議和期刊上公開發(fā)布,我們還積極參與各種不同學(xué)科范圍的會(huì)議組織和贊助。我們參與了 ICLR 2018、NAACL 2018、ICML 2018、CVPR 2018、NEURIPS 2018、ECCV 2018 和 EMNLP 2018。同時(shí),2018 年谷歌還廣泛參與了 ASPLOS、HPCA、ICSE、IEEE Security & Privacy、OSDI、SIGCOMM 等會(huì)議。


新地方,新面孔

2018 年,我們很高興地迎來了許多具有不同背景的新人加入我們的研究機(jī)構(gòu)。我們宣布成立在非洲的第一個(gè)人工智能研究實(shí)驗(yàn)室,它位于加納共和國的首都阿克拉。我們擴(kuò)大了在巴黎、東京和阿姆斯特丹的人工智能實(shí)驗(yàn)室規(guī)模,并在普林斯頓開設(shè)了一個(gè)研究實(shí)驗(yàn)室。我們將繼續(xù)在全球各地的辦公室招聘人才,您可以了解更多有關(guān)加入我們的信息。


展望 2019 年

這篇博文只總結(jié)了 2018 年我們進(jìn)行的研究的一小部分?;仡?2018 年,我們?yōu)槲覀兯〉贸删偷膹V度和深度感到興奮和自豪。2019 年,我們期待對谷歌的方向和產(chǎn)品產(chǎn)生更大的影響,也期待著對更廣泛的研究和工程界產(chǎn)生更大的影響!

    本站是提供個(gè)人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多