日本免费全黄少妇一区二区三区-高清无码一区二区三区四区-欧美中文字幕日韩在线观看-国产福利诱惑在线网站-国产中文字幕一区在线-亚洲欧美精品日韩一区-久久国产精品国产精品国产-国产精久久久久久一区二区三区-欧美亚洲国产精品久久久久

外媒稱對抗性機(jī)器學(xué)習(xí)存漏洞 黑客攻擊輕而易舉


外媒稱對抗性機(jī)器學(xué)習(xí)存漏洞 黑客攻擊輕而易舉



據(jù)國外媒體報道 , 數(shù)據(jù)為人工智能革命提供了動力 。 然而安全專家們發(fā)現(xiàn) , 完全可以通過篡改數(shù)據(jù)集或現(xiàn)實(shí)環(huán)境來攻擊人工智能 , 對抗性的機(jī)器學(xué)習(xí)研究表明人工智能可能會被黑客攻擊 , 從而做出完全錯誤的決策 。
神經(jīng)網(wǎng)絡(luò)把一張關(guān)于烏龜?shù)恼掌闯闪藖韽?fù)槍 。 一輛自動駕駛汽車從一個停車標(biāo)志旁飛馳而過 , 只是因?yàn)橐粋€精心制作的貼紙迷惑了電腦視覺 。 一副眼鏡就把面部識別技術(shù)搞糊涂了 , 誤以為某人是好萊塢女影星米拉?喬沃維奇(Milla Jovovich) 。 對人工智能進(jìn)行黑客攻擊成為了一種新的安全危機(jī) 。
為了防止一些犯罪分子想要通過篡改數(shù)據(jù)集或現(xiàn)實(shí)環(huán)境來攻擊人工智能 , 研究人員轉(zhuǎn)向?qū)剐缘臋C(jī)器學(xué)習(xí)研究 。 在這種情況下 , 研究人員對數(shù)據(jù)進(jìn)行修改 , 從而欺騙神經(jīng)網(wǎng)絡(luò)和人工智能系統(tǒng) , 讓它們看到不存在的東西 , 忽略存在的東西 , 或者使得其關(guān)于分類對象的決策完全錯誤 。
就像谷歌和紐約大學(xué)研究人員所做的那樣 , 在一輛校車的照片上加上一層對人類來說無形的數(shù)據(jù)噪聲 , 神經(jīng)網(wǎng)絡(luò)就會報告說 , 它幾乎可以肯定那是一只鴕鳥 。 不僅僅是圖像可以這樣:研究人員已經(jīng)將隱藏的語音指令嵌入到廣播中 , 從而控制智能手機(jī) , 同時不會讓人們察覺 。
雖然這類工作現(xiàn)在被描述為一種攻擊 , 但從哲學(xué)角度來說 , 對抗性的例子最初被視為神經(jīng)網(wǎng)絡(luò)設(shè)計中的一個近乎盲點(diǎn):我們假設(shè)機(jī)器以我們同樣的方式看東西 , 它們用與我們相似的標(biāo)準(zhǔn)來識別物體 。 2014年 , 谷歌研究人員在一篇關(guān)于“神經(jīng)網(wǎng)絡(luò)的有趣特性”的論文中首次描述了這一想法 , 該論文描述了如何在圖像中添加“擾動”元素會導(dǎo)致神經(jīng)網(wǎng)絡(luò)出現(xiàn)錯誤——他們稱之為“對抗性示例” 。 他們發(fā)現(xiàn) , 微小的扭曲就可能會騙過神經(jīng)網(wǎng)絡(luò) , 使其誤讀一個數(shù)字或誤將校車當(dāng)成別的什么東西 。 這項(xiàng)研究對神經(jīng)網(wǎng)絡(luò) “固有盲點(diǎn)”以及它們在學(xué)習(xí)過程中的“非直覺特征”提出了質(zhì)疑 。 換句話說 , 我們并不真正了解神經(jīng)網(wǎng)絡(luò)是如何運(yùn)作的 。
加州大學(xué)伯克利分校(University of California, Berkeley)計算機(jī)科學(xué)教授唐恩?宋(Dawn Song)表示:“對抗性示例說明 , 我們對深度學(xué)習(xí)的原理及其局限性的理解仍然非常有限 。 ”宋是四所大學(xué)聯(lián)合進(jìn)行對抗性研究的幾位研究人員之一 , 他們共同開發(fā)了停車標(biāo)志貼紙來干擾自動駕駛汽車 。
華盛頓大學(xué)(University of Washington)計算機(jī)安全研究員厄爾倫斯?費(fèi)爾南德斯(Earlence Fernandes)也從事停車標(biāo)志研究 , 他表示:“攻擊的范圍很廣 , 取決于攻擊者處在機(jī)器學(xué)習(xí)模型生成過程的哪個階段 。 ” 費(fèi)爾南德斯舉例說 , 在開發(fā)機(jī)器學(xué)習(xí)模型時可進(jìn)行訓(xùn)練時間攻擊 , 也就是使用惡意數(shù)據(jù)來訓(xùn)練系統(tǒng) 。 他表示:“在人臉檢測算法中 , 攻擊者可能會用惡意數(shù)據(jù)對模型施以毒害 , 從而使檢測算法將攻擊者的臉識別為授權(quán)人 。 ”
另一方面 , 推理時間攻擊則是通過一系列算法——比如快速梯度符號法(Fast Gradient Sign Method , FGSM)和當(dāng)前最優(yōu)攻擊方法(Carlini and Wagner)是兩種最流行的算法——向模型顯示精心制作的輸入 , 從而迷惑神經(jīng)網(wǎng)絡(luò) 。
隨著人工智能滲透到我們生活的方方面面——駕駛汽車、分析視頻監(jiān)控系統(tǒng)、通過面部識別某人身份——對這些系統(tǒng)的攻擊變得更加可能 , 也更加危險 。 黑客修改路邊交通標(biāo)志可能會導(dǎo)致車禍和人員傷害 。 對數(shù)據(jù)機(jī)器學(xué)習(xí)系統(tǒng)的細(xì)微改變也會導(dǎo)致人工智能系統(tǒng)做出的決策出現(xiàn)偏差 。
【外媒稱對抗性機(jī)器學(xué)習(xí)存漏洞 黑客攻擊輕而易舉】

推薦閱讀