日本免费全黄少妇一区二区三区-高清无码一区二区三区四区-欧美中文字幕日韩在线观看-国产福利诱惑在线网站-国产中文字幕一区在线-亚洲欧美精品日韩一区-久久国产精品国产精品国产-国产精久久久久久一区二区三区-欧美亚洲国产精品久久久久

AlexNet,alexnet


人工智能有什么用?

AlexNet,alexnet


從AI的應(yīng)用場(chǎng)景來回答下這個(gè)問題吧:北極32度高溫、意大利葡萄牙罕見高溫、環(huán)渤海的海參大量被熱死....我們生活的環(huán)境正在慢慢失控 。例如在過去的一個(gè)世紀(jì)里,非洲大陸上90%的大象消失 。1993年以來,獅子的數(shù)量下降已經(jīng)超過40%,阿里巴巴的工程師們借助物聯(lián)網(wǎng)、云計(jì)算技術(shù),構(gòu)建了一個(gè)“動(dòng)物可追蹤、種群可分析、偷盜可預(yù)警、保護(hù)區(qū)可管理”智能野保平臺(tái) 。
這一計(jì)劃將為大象佩戴感應(yīng)頸圈,借助野外紅外線攝像設(shè)備,對(duì)大象的狀態(tài)以及重點(diǎn)區(qū)域進(jìn)行實(shí)時(shí)了解,預(yù)測(cè)他們的行動(dòng)路線,從而優(yōu)化守護(hù)員的行動(dòng)路線 。同時(shí)通過AI也能對(duì)盜獵活動(dòng)進(jìn)行預(yù)警,這些技術(shù)被用于識(shí)別非法盜獵份子與車輛,實(shí)現(xiàn)自動(dòng)識(shí)別和事前阻止盜獵行為,這也能讓盜獵導(dǎo)致的死亡率下降30% 。其實(shí)在讓世界變得更好這件事上,AI能做的還有很多,阿里巴巴的工程師在自己業(yè)余時(shí)間做了很多嘗試 。
疫苗事件發(fā)生后,阿里健康的工程師,連夜開發(fā)了一個(gè)“疫苗查詢”功能 。這一舉動(dòng),讓千千萬萬的人安了心 。阿里巴巴的工程師還開發(fā)了移動(dòng)打拐平臺(tái)——“團(tuán)圓”,找回兒童3000余名,找回率為97.6%,其中解救被拐賣兒童48名 。一位名叫代立晨的阿里工程師還在兩周時(shí)間里,通過大量的傳感設(shè)備、網(wǎng)絡(luò)設(shè)置、傳輸指令,幫助一位視障人士讓改造了其69平米的房子,它“能聽會(huì)看”,可以認(rèn)識(shí)主人、陪伴主人、照顧主人 。
深度學(xué)習(xí)“深”在哪里?
AlexNet,alexnet


這個(gè)問題看似非常簡(jiǎn)單,很多專業(yè)的研究者可能都不重視,但是我真的發(fā)現(xiàn)社會(huì)中有很多誤解 。把深度理解成為更透徹,更徹底等概念 。覺得這樣的學(xué)習(xí)方法似乎能深刻的學(xué)習(xí)到很多精髓一樣 。但是在機(jī)器學(xué)習(xí)領(lǐng)域中,深度學(xué)習(xí)指的就是非常狹義的深度學(xué)習(xí)模型中的神經(jīng)網(wǎng)絡(luò)層數(shù)更多,并沒有明確的定義,一般超過6層,就可稱之為深度;而神經(jīng)網(wǎng)絡(luò)中的廣度指的是隱含層神經(jīng)元的數(shù)目 。
當(dāng)然,循環(huán)神經(jīng)網(wǎng)絡(luò)也被稱為深度網(wǎng)絡(luò) 。但實(shí)際上是略有偏頗的 。起初的神經(jīng)網(wǎng)絡(luò),層數(shù)都少 。主要受限于層數(shù)越多的網(wǎng)絡(luò),就意味著模型的參數(shù)越多,復(fù)雜度越高,那么其能完成的學(xué)習(xí)任務(wù)也更為復(fù)雜 。但是在初期由于沒有足夠的數(shù)據(jù)導(dǎo)致訓(xùn)練容易過擬合、同時(shí)硬件條件比較差,訓(xùn)練一個(gè)較深的網(wǎng)絡(luò),往往很耗時(shí) 。但是隨著近幾年云計(jì)算、大數(shù)據(jù)時(shí)代的到來,計(jì)算能力大幅度提高可緩解訓(xùn)練低效性,訓(xùn)練數(shù)據(jù)的大幅增加則可降低過擬合風(fēng)險(xiǎn),因此以深度學(xué)習(xí)為代表的復(fù)雜模型才開始受到人們的關(guān)注 。
那么為什么我們要讓模型變深而不是變廣呢?那是因?yàn)椴扇《叩哪康氖且屇P偷膹?fù)雜度提高,那么讓模型變深比增加隱含層神經(jīng)元的數(shù)據(jù)更有效 。舉個(gè)例子來說,給定100個(gè)神經(jīng)元 。5層神經(jīng),每層20個(gè)神經(jīng)元,那么模型的參數(shù)為20^ 5=3.2*10^6;而10層神經(jīng),每層10個(gè)神經(jīng)元,則模型的復(fù)雜度為10^10 。另外從層的角度,可以更好的理解深度學(xué)習(xí)的工作原理 。
以CNN進(jìn)行圖片分類舉例,其每一層都可以看作是一道工序,比如初始幾層就是提取一些簡(jiǎn)單的特征如邊緣,而后幾層,則會(huì)將這些特征進(jìn)行組合處理,生成更加高級(jí)的圖案如直角、輪廓等,隨著層數(shù)的加深,圖案會(huì)越來越復(fù)雜,也就能提取到高層特征如人眼、鼻子等,最后再根據(jù)這些特征進(jìn)行圖像的分類 。因此我們說深度學(xué)習(xí)就同人的思考一樣,你深入探究這件事,經(jīng)過深度思考,也就能更好的解決問題 。

推薦閱讀