精品日韩亚洲AV无码,99久久99久久免费精品小说,国产精品久久无码一区二区三区网,亚洲精品国产精品国自产观看

熱點(diǎn)資訊

熱點(diǎn)資訊

了解國興智能的最新動(dòng)態(tài)

人工智能的漫漫長(cháng)路,這些人功不可沒(méi)
2017-02-06
熱點(diǎn)資訊
圖片來(lái)自123rf

時(shí)至春季,人工智能的春天也來(lái)了。

從去年 AlphaGo 與李世石的人機大戰之后,人工智能瞬間成為科技行業(yè)最為耀眼的明星。除了國內外的巨頭動(dòng)作頻繁,該領(lǐng)域的創(chuàng )業(yè)公司也如雨后春筍般生長(cháng)起來(lái)。而這背后,自然離不開(kāi)讓機器學(xué)會(huì )思考的造物主們。本文,我們就來(lái)認識一些將人工智能夢(mèng)想變成現實(shí)的功臣們。

阿蘭⋅圖靈

圖片來(lái)源BBC

二戰時(shí)阿蘭⋅圖靈在布萊切利公園擔任解碼專(zhuān)家,于 1940 年創(chuàng )造出可以破譯德軍密報的機器 Bombe,為盟軍的勝利立下了汗馬功勞。戰后,他任職于泰丁頓國家物理研究所,開(kāi)始從事“自動(dòng)計算機”的邏輯設計和具體研制工作。1946 年,圖靈發(fā)表論文闡述存儲程序計算機的設計,因此被稱(chēng)為計算機之父。

基于計算機,他還思考怎么去創(chuàng )造一個(gè)思考的機器(Thinking Machine)。他說(shuō):“要建造一個(gè)智能的機器的話(huà),可能最好的方法就是用錢(qián)買(mǎi)得到的最好的感知器來(lái)組建它,并教會(huì )它使用英文。”

圖靈并沒(méi)有建立起人工智能這個(gè)領(lǐng)域,但是他帶來(lái)了最初的一些重要的思想元素:我們要做一個(gè)會(huì )思考的機器,里面就需要包括:視覺(jué)、語(yǔ)言。另外,圖靈還提出著(zhù)名的“圖靈測試”,指出如果第三者無(wú)法辨別人類(lèi)與人工智能機器反應的差別,則可以論斷該機器具備人工智能。“圖靈的成就不得地讓我們聯(lián)想,是否等到人類(lèi)滅亡之后會(huì )留下機器人來(lái)統治這個(gè)世界。”互聯(lián)網(wǎng)之父文特·瑟夫如此評論。正是圖靈開(kāi)啟了人工智能研究的先河。如今,由美國計算機協(xié)會(huì )(The Association for Computing Machinery)設立圖靈獎為其最高獎項,以表彰圖靈在計算機以及人工智能領(lǐng)域的特殊貢獻。

Terry Winograd

Terry Winograd

Terry 是人工智能界,第一代把圖靈的思想付諸實(shí)踐的人,他也是現在在世的計算機界最偉大的科學(xué)家之一。Terry 不光在人工智能領(lǐng)域做了最重要的工作,而且他后來(lái)轉行去做人機交互,也把這個(gè)領(lǐng)域重新帶動(dòng)了起來(lái)。

在 Terry 看來(lái),要實(shí)現人工智能,需要有這 3 個(gè)要素:語(yǔ)法,語(yǔ)義和推理。他說(shuō)一個(gè)人,或者一個(gè)機器,要去理解世界,需要去感知。感知以后,需要做的第一件事是對這個(gè)世界的結構進(jìn)行理解,這叫語(yǔ)法的理解(Syntax Understanding)。Terry 說(shuō),機器能夠理解語(yǔ)法以后,接下去需要做的就是理解語(yǔ)義(Semantics)。語(yǔ)義就是指含義,語(yǔ)言有語(yǔ)言的含義,視覺(jué)有物體、有動(dòng)作,有視覺(jué)的含義。最后,當我們把語(yǔ)法和語(yǔ)義解決以后,智能的機器或者是人主要解決的問(wèn)題就是統計推理(Inference)這個(gè)過(guò)程。1970 年,Terry Winograd 教授在麻省理工學(xué)院人工智能實(shí)驗室創(chuàng )建了 SHRDLU(積木世界),其被譽(yù)為微世界程序的最高成就,它能用普通的英語(yǔ)句子與人交流,還能作出決策并執行操作??梢哉f(shuō)它既是自然人展示自己如何借助計算機實(shí)現自然語(yǔ)言理解的一個(gè)經(jīng)典示例,也是怎樣應用計算機有效進(jìn)行自然語(yǔ)言處理的一個(gè)里程碑。
Geffory Hinton

Geoffrey Hinton

人類(lèi)大腦有數十億個(gè)神經(jīng)細胞,它們之間通過(guò)神經(jīng)突觸相互影響,形成極其復雜的相互聯(lián)系。然而科學(xué)家們并不能解釋這些具體的影響和聯(lián)系。神經(jīng)到底是如何進(jìn)行學(xué)習以及計算的,對于 Hinton,這些正是他所關(guān)心的問(wèn)題。他不知道所有的答案,但在他的努力之下已經(jīng)取得了進(jìn)展。

Geoffrey Hinton 被尊稱(chēng)為“神經(jīng)網(wǎng)絡(luò )之父”,將 Back Propagation(反向傳播)算法應用到神經(jīng)網(wǎng)絡(luò )與深度學(xué)習,還提出了“Dark Knowledge”概念。他將神經(jīng)網(wǎng)絡(luò )帶入到研究與應用的熱潮,這些人工神經(jīng)網(wǎng)絡(luò )可以收集信息,也可以對其做出反應。它們能對事物的外形和聲音做出解釋。它們對語(yǔ)言的理解也在進(jìn)步。它們可以自行學(xué)習與工作,而不需要人為提示或者參與控制。這些正是它們與傳統的學(xué)習機器的區別。隨著(zhù)時(shí)間的推移,計算機能力的發(fā)展,神經(jīng)網(wǎng)絡(luò )也更加快速,靈活,高效,得到了很好的擴展。

據了解,早在 80 年代初期,當 Hinton 和他的同事們剛開(kāi)始這項研究時(shí),那時(shí)的電腦還不夠快,不足以處理有關(guān)神經(jīng)網(wǎng)絡(luò )的這些龐大的數據,他們取得的成就是有限的。而當時(shí) AI 普遍的研究方向也與他們相反,都在試圖尋找捷徑,直接模擬出行為,而不是試圖通過(guò)模仿大腦的運作來(lái)實(shí)現。在這樣艱難的環(huán)境下,只有 Hinton 和他的同事堅持了下來(lái),而事實(shí)則證明他們是對的。

Geoffrey Hinton 于 2006 年在《Science》上發(fā)表的論文首次提出深度學(xué)習的主要觀(guān)點(diǎn)。從 2012 年取得 ImageNet 競賽的標志性事件之后,深度學(xué)習不斷取得一系列的重大進(jìn)展,解決了人工智能界的盡最大努力很多年仍沒(méi)有進(jìn)展的問(wèn)題,除了在圖像識別、語(yǔ)音識別等領(lǐng)域打破了紀錄,還在其他的領(lǐng)域擊敗了其他機器學(xué)習技術(shù),包括預測潛在的藥物分子的活性、分析粒子加速器數據、重建大腦回路、預測非編碼 DNA 突變對基因表達和疾病的影響。更令人驚訝的是,深度學(xué)習在自然語(yǔ)言理解的各項任務(wù)中也有非??上驳某晒?,特別是主題分類(lèi)、情感分析、自動(dòng)問(wèn)答和語(yǔ)言翻譯。

可以說(shuō),正是 Geoffrey Hinton 將“深度學(xué)習”從邊緣課題變成了谷歌等互聯(lián)網(wǎng)巨頭仰賴(lài)的核心技術(shù)。

Yann LeCun

yann-lecun-660x440

Yann LeCun,Geoffrey Hinton 的博士后學(xué)生,也是將 CNNs 應用最成功的人(CNNs,是一種深度的監督學(xué)習下的機器學(xué)習模型)。目前感興趣的研究領(lǐng)域包括人工智能、機器學(xué)習、計算機感知、機器人和計算神經(jīng)科學(xué)。他最出名的是對深度學(xué)習和神經(jīng)網(wǎng)絡(luò )的貢獻,特別是廣泛用于計算機視覺(jué)和語(yǔ)音識別應用的 CNN(卷積神經(jīng)網(wǎng)絡(luò )),他第一個(gè)把 BP 算法用在 CNN 上并且完善 CNN 使得它可以在真實(shí)場(chǎng)景中得以應用,并在這些主題以及手寫(xiě)字體識別、圖像壓縮和人工智能硬件等主題上發(fā)表過(guò) 190 多份論文。

LeCun 使 CNN 成為目前人工智能領(lǐng)域最有用的模型。在谷歌,卷積神經(jīng)網(wǎng)絡(luò )幫助他們在安卓手機上開(kāi)發(fā)語(yǔ)音識別系統;而百度則可以利用它開(kāi)發(fā)全新的視覺(jué)搜索引擎。

Yann LeCun 是紐約大學(xué)終身教授,現任 Facebook 人工智能實(shí)驗室負責人。LeCun 位列新澤西州的發(fā)明家名人堂,并獲得 2014 年 IEEE 神經(jīng)網(wǎng)絡(luò )先鋒獎、2015 年 IEEE PAMI 杰出研究獎、2016 年 Lovie 終身成就獎和來(lái)自墨西哥 IPN 的名譽(yù)博士學(xué)位。

Yoshua Bengio

Yoshua Bengio

Yoshua Bengio 教授是機器學(xué)習大神之一,尤其是在深度學(xué)習這個(gè)領(lǐng)域。他連同 Geoff Hinton 以及 Yann LeCun 教授,締造了 2006 年開(kāi)始的深度學(xué)習復興。

其他方面,Bengio 的《a neural probabilistic language model》這篇論文開(kāi)創(chuàng )了神經(jīng)網(wǎng)絡(luò )做 language model 的先河,里面的思路影響、啟發(fā)了之后的很多基于神經(jīng)網(wǎng)絡(luò )做 nlp(自然語(yǔ)音處理) 的文章。

Bengio 博士后的導師 Jordan 曾提到:“到目前為止,在更高級的自然語(yǔ)言處理任務(wù)中,深度學(xué)習并未像在語(yǔ)音識別、物體識別等任務(wù)上做到的那樣,顯著(zhù)降低錯誤率。”所以在 Hinton 提出深度學(xué)習概念激活了整個(gè)領(lǐng)域、lecun 發(fā)表了卷積神經(jīng)網(wǎng)絡(luò ) (CNN) 這樣的階段性突破成果的前提下,Bengio 對自然語(yǔ)音處理難題的貢獻是非常有意義的。

Jürgen Schmidhuber

Jürgen Schmidhuber

1997 年,Schmidhuber 博士和他的同事發(fā)表了一篇技術(shù)論文,后來(lái)證明這篇論文對最近的視覺(jué)和語(yǔ)音上的快速進(jìn)展起到了關(guān)鍵作用。這個(gè)方法被稱(chēng)長(cháng)短期記憶,簡(jiǎn)稱(chēng)為 LSTM。這個(gè)方法在剛引進(jìn)時(shí)沒(méi)有得到廣泛的理解。它主要提供了一種記憶形式,或者說(shuō)是一種神經(jīng)網(wǎng)絡(luò )的環(huán)境。

就像人類(lèi)不會(huì )每次都從頭學(xué)起一樣,神經(jīng)網(wǎng)絡(luò )的機制中存在循環(huán)和記憶的機制,每個(gè)輸入的單詞和觀(guān)察到的像素都會(huì )被其理解。長(cháng)短時(shí)記憶(LSTM)的出現讓這種系統的表現得到了很大的提升,輸出結果瞬間變得準確。

去年,谷歌的研究人員在這一方面的研究得到發(fā)表,他們使用 LSTM 減少了 49% 的語(yǔ)音識別錯誤,這是一個(gè)飛躍性進(jìn)步。

 

相關(guān)標簽