• <rt id="8rlwz"><optgroup id="8rlwz"><legend id="8rlwz"></legend></optgroup></rt>
  • <label id="8rlwz"></label>
    手機(jī)版| 您好,歡迎訪問機(jī)交網(wǎng)! 網(wǎng)站地圖| 聯(lián)系我們
    當(dāng)前位置: 首頁 ? 行業(yè)資訊 ? 最新資訊 ? 正文

    人工智能最熱門的技術(shù)趨勢是什么?

    放大字體??縮小字體 發(fā)布日期:2015-12-24??來源:KUDIAN
    核心提示:隨著Google、Microsoft和Facebook等巨頭的大力投入,深度學(xué)習(xí)正在超越機(jī)器學(xué)習(xí),人工智能來勢兇猛。那么,如今人工智能最熱門的技術(shù)趨勢是什么? 黑匣認(rèn)為,復(fù)雜神經(jīng)網(wǎng)絡(luò)、LSTMs(長短期記憶網(wǎng)絡(luò))、注意力模型(AttentionModels)等十大趨勢將塑造人工智能未來的技術(shù)格局。
      隨著Google、Microsoft和Facebook等巨頭的大力投入,深度學(xué)習(xí)正在超越機(jī)器學(xué)習(xí),人工智能來勢兇猛。那么,如今人工智能最熱門的技術(shù)趨勢是什么?
     
      黑匣認(rèn)為,復(fù)雜神經(jīng)網(wǎng)絡(luò)、LSTMs(長短期記憶網(wǎng)絡(luò))、注意力模型(AttentionModels)等十大趨勢將塑造人工智能未來的技術(shù)格局。
     
      上述判斷來自NIPS(神經(jīng)信息處理系統(tǒng))2015大會。NIPS始于1987年,是人工智能領(lǐng)域兩大重要學(xué)習(xí)會議之一,由于AI的爆炸式發(fā)展,近年來逐漸成為許多硅谷公司必須參加的年度會議。
     
      在蒙特利爾召開的NIPS2015吸引了眾多AI學(xué)界與業(yè)界的頂級專家,與會人數(shù)接近4000。大會總共收錄了403篇論文,其中深度學(xué)習(xí)課題約占11%。來自Dropbox的高級軟件工程師BradNeuberg分享了他所注意到的十大技術(shù)趨勢,黑匣將對每種趨勢做了詳細(xì)分析。
     
      1、神經(jīng)網(wǎng)絡(luò)的架構(gòu)正變得越來越復(fù)雜
     
      感知和翻譯等大多數(shù)神經(jīng)網(wǎng)絡(luò)的架構(gòu)正變得越來越復(fù)雜,遠(yuǎn)非此前簡單的前饋神經(jīng)網(wǎng)絡(luò)或卷積神經(jīng)網(wǎng)絡(luò)所能比。特別需要注意的是,神經(jīng)網(wǎng)絡(luò)正與不同的技術(shù)(如LSTMs、卷積、自定義目標(biāo)函數(shù)等)相混合。
     
      神經(jīng)網(wǎng)絡(luò)是多數(shù)深度學(xué)習(xí)項(xiàng)目的根基。深度學(xué)習(xí)基于人腦結(jié)構(gòu),一層層互相連接的人工模擬神經(jīng)元模仿大腦的行為,處理視覺和語言等復(fù)雜問題。這些人工神經(jīng)網(wǎng)絡(luò)可以收集信息,也可以對其做出反應(yīng)。它們能對事物的外形和聲音做出解釋,還可以自行學(xué)習(xí)與工作。
     
     
      (人工模擬神經(jīng)元試圖模仿大腦行為)
     
      但這一切都需要極高的計算能力。早在80年代初期,GeoffreyHinton和他的同事們就開始研究深度學(xué)習(xí)。然而彼時電腦還不夠快,不足以處理有關(guān)神經(jīng)網(wǎng)絡(luò)的這些龐大的數(shù)據(jù)。當(dāng)時AI研究的普遍方向也與他們相反,人們都在尋找捷徑,直接模擬出行為而不是模仿大腦的運(yùn)作。
     
      隨著計算能力的提升和算法的改進(jìn),今天,神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)已經(jīng)成為人工智能領(lǐng)域最具吸引力的流派。這些神經(jīng)網(wǎng)絡(luò)還在變得更復(fù)雜,當(dāng)年“谷歌大腦”團(tuán)隊(duì)最開始嘗試“無監(jiān)督學(xué)習(xí)”時,就動用了1.6萬多臺微處理器,創(chuàng)建了一個有數(shù)十億連接的神經(jīng)網(wǎng)絡(luò),在一項(xiàng)實(shí)驗(yàn)中觀看了千萬數(shù)量級的YouTube圖像。
     
      2、酷的人都在用LSTMs
     
      當(dāng)你閱讀本文時,你是在理解前面詞語的基礎(chǔ)上來理解每個詞語的。你的思想具有連續(xù)性,你不會丟棄已知信息而從頭開始思考。傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的一大缺陷便是無法做到這一點(diǎn),而遞歸神經(jīng)網(wǎng)絡(luò)(RNN)能夠解決這一問題。
     
      RNN擁有循環(huán)結(jié)構(gòu),可以持續(xù)保存信息。過去幾年里,RNN在語音識別和翻譯等許多問題上取得了難以置信的成功,而成功的關(guān)鍵在于一種特殊的RNN——長短期記憶網(wǎng)絡(luò)(LSTMs)。
     
      普通的RNN可以學(xué)會預(yù)測“thecloudsareinthesky”中最后一個單詞,但難以學(xué)會預(yù)測“IgrewupinFrance…IspeakfluentFrench.”中最后一個詞。相關(guān)信息(clouds、France)和預(yù)測位置(sky、French)的間隔越大,神經(jīng)網(wǎng)絡(luò)就越加難以學(xué)習(xí)連接信息。這被稱為是“長期依賴關(guān)系”問題。
     
     
      (長期依賴問題)
     
      LSTMs被明確設(shè)計成能克服之一問題。LSTMs有四層神經(jīng)網(wǎng)絡(luò)層,它們以特殊的方式相互作用。這使得“能記住信息很長一段時間”可以被視作LSTMs的“固有行為”,它們不需要額外學(xué)習(xí)這一點(diǎn)。對于大多數(shù)任務(wù),LSTMs已經(jīng)取得了非常好的效果。
     
      3、是時候注意“注意力模型(attentionmodels)了
     
      LSTMs是人們使用RNNs的一個飛躍。還有其他飛躍嗎?研究者共同的想法是:“還有注意力(attention)!”
     
      “注意力”是指神經(jīng)網(wǎng)絡(luò)在執(zhí)行任務(wù)時知道把焦點(diǎn)放在何處。我們可以讓神經(jīng)網(wǎng)絡(luò)在每一步都從更大的信息集中挑選信息作為輸入。
     
      例如,當(dāng)神經(jīng)網(wǎng)絡(luò)為一張圖片生成標(biāo)題時,它可以挑選圖像的關(guān)鍵部分作為輸入。
     
     
      (擁有“注意力”的RNN在圖像識別中的成功運(yùn)用)
     
      4、神經(jīng)圖靈機(jī)依然有趣,但還無法勝任實(shí)際工作
     
      當(dāng)你翻譯一句話時,并不會逐個詞匯進(jìn)行,而是會從句子的整體結(jié)構(gòu)出發(fā)。機(jī)器難以做到這一點(diǎn),這一挑戰(zhàn)被稱為“強(qiáng)耦合輸出的整體估計”。NIPS上很多研究者展示了對跨時間、空間進(jìn)行耦合輸出的研究。
     
      神經(jīng)圖靈機(jī)(NeuralTuringMachine)就是研究者們在硅片中重現(xiàn)人類大腦短期記憶的嘗試。它的背后是一種特殊類型的神經(jīng)網(wǎng)絡(luò),它們可以適應(yīng)與外部存儲器共同工作,這使得神經(jīng)網(wǎng)絡(luò)可以存儲記憶,還能在此后檢索記憶并執(zhí)行一些有邏輯性的任務(wù)。
     
     
      (模仿人類短期工作記憶的神經(jīng)圖靈機(jī))
     
      2014年10月,GoogleDeepMind公布了一臺原型電腦,它可以模仿一些人類大腦短期工作記憶的特性。但直到NIPS2015,所有的神經(jīng)圖靈機(jī)都過于復(fù)雜,并且只能解決一些“小玩具”問題。在未來它們或?qū)⒌玫綐O大改進(jìn)。
     
      5、深度學(xué)習(xí)讓計算機(jī)視覺和自然語言處理不再是孤島
     
      卷積神經(jīng)網(wǎng)絡(luò)(CNN)最早出現(xiàn)在計算機(jī)視覺中,但現(xiàn)在許多自然語言處理(NLP)系統(tǒng)也會使用。LSTMs與遞歸神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)最早出現(xiàn)在NLP中,但現(xiàn)在也被納入計算機(jī)視覺神經(jīng)網(wǎng)絡(luò)。
     
      此外,計算機(jī)視覺與NLP的交匯仍然擁有無限前景。想象一下程序?yàn)槊绖∽詣忧度胫形淖帜坏膱鼍鞍伞?/div>
     
      6、符號微分式越來越重要
     
      隨著神經(jīng)網(wǎng)絡(luò)架構(gòu)及其目標(biāo)函數(shù)變得日益復(fù)雜和自定義,手動推導(dǎo)出“反向傳播”(backpropagation)的梯度(gradients)也變得更加苦難而且容易出錯。谷歌的TensorFlow等最新的工具包已經(jīng)可以超負(fù)荷試驗(yàn)符號微分式,能夠自動計算出正確的微分,以確保訓(xùn)練時誤差梯度可被反向傳播。
     
      7、神經(jīng)網(wǎng)絡(luò)模型壓縮的驚人成果
     
      多個團(tuán)隊(duì)以不同方法大幅壓縮了訓(xùn)練一個良好模型所需的素材體量,這些方法包括二值化、固定浮點(diǎn)數(shù)、迭代修剪和精細(xì)調(diào)優(yōu)步驟等。
     
      這些技術(shù)潛在的應(yīng)用前景廣闊,可能將會適應(yīng)在移動設(shè)備上進(jìn)行復(fù)雜模型的訓(xùn)練。例如,不需要延遲就可以得到語音識別結(jié)果。此外,如果運(yùn)算所需要的空間和時間極大降低,我們就可以極高幀率(如30FPS)查詢一個模型,這樣,在移動設(shè)備上也可以運(yùn)用復(fù)雜神經(jīng)網(wǎng)絡(luò)模型,從而近乎實(shí)時地完成計算機(jī)視覺任務(wù)。
     
      8、深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí)繼續(xù)交匯
     
      雖然NIPS2015上沒有什么強(qiáng)化學(xué)習(xí)(reinforcementlearning)的重要成果,但“深度強(qiáng)化學(xué)習(xí)”研討會還是展現(xiàn)了深度神經(jīng)網(wǎng)絡(luò)和強(qiáng)化學(xué)習(xí)相結(jié)合的前景。
     
      在“端對端”(end-to-end)機(jī)器人等領(lǐng)域出現(xiàn)了令人激動的進(jìn)展,現(xiàn)在機(jī)器人已經(jīng)可以一起運(yùn)用深度和強(qiáng)化學(xué)習(xí),從而將原始感官數(shù)據(jù)直接轉(zhuǎn)化為實(shí)際動作驅(qū)動。我們正在超越“分類”等簡單工作,嘗試將“計劃”與“行動”納入方程。還有大量工作需要完成,但早期的工作已經(jīng)使人感到興奮。
     
      9、難道你還沒有使用批標(biāo)準(zhǔn)化?
     
      批標(biāo)準(zhǔn)化(batchnormalization)現(xiàn)在被視作評價一個神經(jīng)網(wǎng)絡(luò)工具包的部分標(biāo)準(zhǔn),在NIPS2015上被不斷提及。
     
      10、神經(jīng)網(wǎng)絡(luò)研究與優(yōu)化齊頭并進(jìn)
     
      創(chuàng)造新的神經(jīng)網(wǎng)絡(luò)方法需要研究者,還需要能將它們迅速付諸實(shí)踐的方法。谷歌的TensorFlow是少數(shù)能夠做到這些的庫:使用Python或C++等主流編程語言,研究者可以迅速創(chuàng)作新的網(wǎng)絡(luò)拓?fù)鋱D,接著在單一或多個設(shè)備(包括移動設(shè)備)上進(jìn)行測試。
    ?
    ?
    分享到:0
    ?
    ?
    [ 行業(yè)資訊搜索 ]? [ ]? [ 告訴好友 ]? [ 打印本文 ]? [ 關(guān)閉窗口 ]
    ?
    ?

    ?
    0條 [查看全部]  相關(guān)評論

    ?
    推薦行業(yè)資訊
    圖文資訊
    點(diǎn)擊排行

    客服熱線:0551-62672521 業(yè)務(wù)咨詢:0551-62672521 郵箱:2268263116@qq.com

    媒體合作: 點(diǎn)擊這里給我發(fā)消息 ??在線客服: 點(diǎn)擊這里給我發(fā)消息

    Copyright (c) 2012 機(jī)電產(chǎn)品交易網(wǎng) . 版權(quán)所有 皖I(lǐng)CP備12004440號-2

    主站蜘蛛池模板: 久久久久噜噜噜亚洲熟女综合| 久久93精品国产91久久综合| 久久综合精品国产二区无码| 亚洲欧洲国产成人综合在线观看| 99久久综合狠狠综合久久止| 图片区精品综合自拍| 亚洲国产成人久久综合一| 久久久久久久综合日本亚洲| 久久亚洲伊人中字综合精品| 色婷婷五月综合欧美图片| 色婷婷综合久久久久中文一区二区| 亚洲av综合av一区二区三区| 国产精品无码久久综合网| 激情综合色五月六月婷婷| 国产色婷婷精品综合在线| 99久久国产综合精品女同图片| 激情97综合亚洲色婷婷五| 天天综合亚洲色在线精品| 国产成人精品综合网站| 狠狠色丁香婷婷久久综合蜜芽| 精品综合久久久久久99| 国产精品 综合 第五页| 婷婷久久香蕉五月综合| 中文字幕亚洲综合久久综合| 亚洲综合无码精品一区二区三区| 国产成人综合一区精品| 色婷婷久久综合中文久久蜜桃av| 日韩综合在线观看| 18和谐综合色区| 亚洲av日韩av综合| 丁香六月婷婷综合| 国产成人综合日韩精品无码不卡| 综合久久久久久久综合网| 久久综合亚洲色HEZYO国产| 亚洲综合精品一二三区在线| 91精品国产色综合久久不| 久久久亚洲裙底偷窥综合| 一本色道久久综合无码人妻| 91探花国产综合在线精品| 亚洲欧美日韩综合久久久久| 久久久综合亚洲色一区二区三区|