你以為在點「紅綠燈」驗證身份,其實是在給AI免費打工

你以為在點「紅綠燈」驗證身份,其實是在給AI免費打工

文章圖片

你以為在點「紅綠燈」驗證身份,其實是在給AI免費打工

文章圖片

你以為在點「紅綠燈」驗證身份,其實是在給AI免費打工

文章圖片

你以為在點「紅綠燈」驗證身份,其實是在給AI免費打工

文章圖片

你以為在點「紅綠燈」驗證身份,其實是在給AI免費打工

文章圖片

你以為在點「紅綠燈」驗證身份,其實是在給AI免費打工

文章圖片

你以為在點「紅綠燈」驗證身份,其實是在給AI免費打工

機器之心報道
【你以為在點「紅綠燈」驗證身份,其實是在給AI免費打工】編輯:+0
如果這是下一代圖形驗證碼 , 你怎么看?

視頻鏈接:https://mp.weixin.qq.com/s/kfIHMEkAO8QU4wu8ecFuHg
感覺會經歷無數遍「您對 CAPTCHA 的響應似乎無效 。 請在下方重新驗證您不是機器人」 , 不知道貓主子們怎么想 。
這是最近很火的一篇調侃「我不是機器人」驗證流程的帖子 。 視頻里顯示 , 用戶得用鼠標一個個點選那些灰色的「貓屎團」 , 拖到旁邊的垃圾桶里 , 最后過關后 , 得勾選「我不是貓」 。

這個帖子的互動量爆炸 , 瀏覽量達到了一百多萬 。
評論區里非常熱鬧 , 有人覺得這比識別界限模糊的紅綠燈像素好多了 。

也有人聯想到美劇《人生切割術》里的數據精煉工作 。

還有人開玩笑:「所以只有貓主子才是真正的人類 。 」

其中一個討論熱度很高:「圖像驗證是在幫 AI 訓練數據 , 還免費 。 」

幫 AI 訓練數據?這就要展開說說了 。
眾所周知 , 不管是注冊賬號還是發帖 , 驗證碼都是個必不可少的東西 。 它的「大名」叫 CAPTCHA , 全稱是「全自動區分計算機和人類的圖靈測試」 。 它的作用 , 顧名思義就是區分人和機器人 , 避免機器人刷屏、刷票或搞破壞 。
最早 , 其主要形式是扭曲的文字或圖片 。 扭曲的程度 , 決定了它難不難被認出來 。

但很快 , 一個叫 Luis von Ahn 的天才(他也是后來「多鄰國」的創始人)站了出來 。 他發現全球每天有數億人(現在是數十億)在戳這些驗證碼 , 加起來浪費的時間高達數百萬小時 。 這不純純浪費「人力腦循環」嗎?

于是 , 一個「一箭雙雕」的天才想法誕生了 , 它叫 reCAPTCHA 。
這套系統從 v1 開始 , 就不是一個單純的「保安」 , 它是一個「大型人力眾包項目」 。
系統每次會彈給你兩個扭曲的單詞 , 這兩個詞里 , 只有一個是系統知道答案的「控制詞」 , 用來確定你是不是人 。 另一個「未知詞」 , 才是谷歌的「私貨」——它來自某個古老的、AI OCR(光學字符識別)啃不動的掃描版圖書或報紙 。

你根本不知道哪個是哪個 , 所以你會老老實實把兩個都填對 。
結果呢?全球網民在毫不知情的情況下 , 用這種「無意識勞動」 , 硬是把《紐約時報》從 1851 年以來的全部歷史檔案 , 和海量的「谷歌圖書」項目 , 給一個詞一個詞地免費「轉錄」成了數字版 。
但是 , 我們親手「喂」出來的 AI(谷歌的 OCR) , 把老師傅(v1 文本驗證)給「卷」死了 。
到了 2014 年 , 谷歌自己都公開承認 , 自家 AI 破解最難的扭曲文本 , 準確率高達 99.8% 。 這背后是「卷積神經網絡」(CNN)的功勞 。 學術研究(如 CapNet)早已證實 , 這類 AI 模型破解文本驗證碼的準確率普遍達到了 98% 甚至 100% , v1 防線在技術上已徹底失效 。
谷歌博客:https://security.googleblog.com/2014/04/street-view-and-recaptcha-technology.html防線必須升級 。 于是 , v2 圖像驗證來了 。

這套「我不是機器人」你熟不熟悉?「選出所有汽車」、「選出所有交通信號燈」、「選出所有人行橫道」 。 那么問題來了 , 幾乎在同一時間(2014 年左右) , 谷歌在瘋狂「燒錢」哪個項目?
沒錯 , 自動駕駛(Waymo) 。
一個自動駕駛 AI , 最需要訓練什么?當然是識別「汽車」、「交通信號燈」、「人行橫道」和「自行車」 。 也就說 , 全球幾十億網民 , 在登錄、注冊、發帖時 , 都在免費為谷歌的自動駕駛 AI 打工 。
這個「人類計算」項目有多龐大?有學者估算 , 在過去十幾年里 , 人類貢獻的這波無償勞動 , 總價值超過 61 億美元 。
到了 2024 年 , AI 終于「學成下山」 , 把第二個老師傅(v2 拼圖)也給「干」翻了 。
瑞士蘇黎世聯邦理工學院(ETH Zurich)的研究人員提交了一篇論文 , 題為「Breaking reCAPTCHA v2」(攻破 reCAPTCHA v2) 。 他們使用先進的 YOLOv8 物體檢測模型 , 破解 v2 圖像挑戰的準確率達到了 100% 。

論文地址:https://arxiv.org/abs/2409.08831這類模型之所以如此強大 , 正是因為它們在海量的、已被精確標注的數據集(reCAPTCHA v2 幫忙創建的那種)上訓練出來的 。
研究甚至表明 , AI 解決這些難題的表現和人類「沒有顯著差異」 。 那你可能要問了:「既然 AI 都 100% 破解了 , 為啥我還在天天點那些該死的紅綠燈?」
因為 , 那張拼圖早就不是真正的防線了 。
2024 年的這項研究同時證實了一個「公開的秘密」:reCAPTCHA v2 的真正命脈 , 在于對你隱私數據的分析 。
還記得那個「我不是機器人」的復選框嗎?谷歌的「先進風險分析引擎」根本不在乎你是否點擊 , 而在乎你如何點擊 。 它在后臺瘋狂「視奸」你的:
鼠標軌跡:你的移動是平滑中帶點「人氣」的抖動 , 還是機器人的完美直線或瞬移 。 點擊位置:你是點在方框中間 , 還是不偏不倚的正中心(機器人行為) 。 瀏覽器指紋:你的屏幕分辨率、插件、字體…… 谷歌 Cookie:這才是「大殺器」 。 一個長期登錄谷歌賬戶、瀏覽記錄「清白」的用戶 , 遠比一個剛清除 Cookie 或開著 VPN 的用戶「更像人」 。這場攻防戰在學術界早已白熱化 。
進攻方(AI 攻擊):攻擊者面臨一個「先有雞還是先有蛋」的問題:你需要一個 AI 求解器來自動收集海量樣本 , 但你又需要海量樣本來訓練這個求解器 。
答案是「生成對抗網絡」(GAN) 。 研究指出 , 攻擊者只需少量(例如 500 個)真實樣本 , 就能訓練一個 GAN 。 這個 GAN 的「生成器」會偽造新的驗證碼 , 而「判別器」則學習破解它們 。 這個過程可以無限地生成合成的訓練數據 , AI 攻擊者的「軍火庫」就此建成了 。
防守方(v3 轉向):既然拼圖守不住 , 防線就全面轉向了 reCAPTCHA v3 。 它的學術術語叫「行為生物識別」(Behavioral Biometrics) 。 這才是 v3 的核心 。
reCAPTCHA v3 徹底隱形 , 會在你訪問的所有頁面上運行 , 像個監工一樣默默觀察你的所有行為(鼠標、滾動、鍵盤節奏) , 然后給你打一個 0.0(機器人)到 1.0(人類)的「可信度分數」 。
這個轉向的代價是巨大的:
隱私噩夢:這種大規模監控被指控為「間諜軟件」 , 并與 GDPR 等隱私法規嚴重沖突 。 隱私悖論:你越是努力保護隱私(用 VPN、清 Cookie、用隱私瀏覽器) , 你就越拿不到「可信」數據 , v3 給你的分數就越低 , 你就越「像個機器人」 。 「酷刑」級難度:唯一能制裁 AI 的方法 , 就是把拼圖搞得巨難無比 。 結果 , AI 沒防住 , 反而把視障、聽障或有閱讀障礙的用戶(Dyslexia)徹底鎖在了門外 。那么 , 當 v3 的「行為監控」也因隱私問題和 AI 模擬而失效時 , 該怎么辦呢?
還是前面那個 ETH Zurich 的研究團隊 , 提出了一種最「黑客帝國」的方案:「對抗性 CAPTCHA」(Adversarial CAPTCHA) 。

論文標題:Seeing Through the Mask: Rethinking Adversarial Examples for CAPTCHAs 論文地址:https://arxiv.org/abs/2409.05558v1這個想法是利用 AI 的一個致命弱點:它們很容易被「對抗性樣本」欺騙 。 這是一種人類肉眼看來毫無意義的「噪音」圖像 , 但 AI(如 CNN)卻會以 99.9% 的置信度將其誤認為某個特定物體 。

未來的驗證碼 , 可能不再是「你是否能解決人類的問題」 , 而是「你是否會犯 AI 才會犯的錯誤」 。
所以 , 回到開頭的那個「鏟貓屎」驗證碼 。
你以為你是在逗貓?沒準 , 你是在給某個「AI 鏟屎官」機器人 , 免費上崗前培訓呢 。 或者 , 你是在向系統證明 , 你不會傻到去點擊一張 AI 誤以為是「貓屎」的電視雪花點 。

    推薦閱讀