中國AI同傳遭質疑之時 谷歌實時翻譯也被吐槽了


中國AI同傳遭質疑之時 谷歌實時翻譯也被吐槽了



要知道其中原因 , 首先我們來了解下谷歌耳機的歷史 。 谷歌去年推出了無線耳機Pixel Buds , 此前該公司曾大肆宣傳過這款產品 , 稱其是一款革命性的工具 , 支持實時翻譯功能 。 只要輕敲Pixel Buds , 說“幫我說” , 它就會打開你手機上的谷歌翻譯應用 。 現在 , Pixel手機也同樣支持這個功能 。
【中國AI同傳遭質疑之時 谷歌實時翻譯也被吐槽了】接著 , 你可以說出句子 , 谷歌翻譯會在手機上將其翻譯成目標語言 , 并進行轉錄 , 然后讀出來 。 理論上 , 谷歌的新技術甚至會讓口譯翻譯們擔心丟掉工作 。 這款產品在舞臺上的實時翻譯演示獲得了巨大成功 , 但當其開始發貨時 , 人們對其似乎產生了懷疑:翻譯的質量沒有達到公眾的預期 。
科技網站Tech Insider用十種不同的語言對實時翻譯功能進行了測試 。 它成功地翻譯了些基本問題 , 比如“最近的醫院在哪里” , 但當句子變得更復雜 , 或者說話人有口音時 , 翻譯就會出現錯誤 。 評論員們得出的結論是 , 實時翻譯似乎有點兒“欺騙嫌疑” , Google Assistant需要努力理解對它說出的話 。
消費技術資深分析師丹尼爾·格里森(Daniel Gleeson)說:“掌握自然語言是非常困難的 。 對于谷歌來說 , 這將是個巨大的成就 , 而他們實現這個目標的那一天 , 可以自豪地大聲說出來 。 ”或許有些人可能會說 , 這可能也是Pixel Buds支持頁面更新的信息被隱藏起來的原因 。
谷歌的問題不在于翻譯過程本身 , 事實上 , 該公司在過去幾年始終在提升其翻譯應用水平 。 2016年 , 谷歌將其谷歌翻譯轉換為基于深度學習的人工智能(AI)驅動系統 。 在此之前 , 該工具將每個單獨的單詞分別翻譯 , 并應用語言學規則使句子在語法上保持正確 , 從而導致了我們非常熟悉的、支離破碎的翻譯效果 。 另一方面 , 神經網絡則將句子作為一個整體來考慮 , 并根據之前訓練過的大量文本數據來猜測正確的輸出結果 。 通過機器學習 , 這些系統能夠考慮句子的上下文 , 從而提供更準確的翻譯 。
整合機器學習是Google Brain團隊的任務 , 該團隊是谷歌專門致力于深度學習研發的部門 。 Google Brain還將神經網絡應用到另一個工具上 , 這是實時翻譯的關鍵 , 但這似乎也導致其容易在語音識別上犯錯 。 實際上 , Google Assistant經過了數小時的語音培訓 , 它會使用機器學習工具來識別模式 , 并最終正確地識別出被要求翻譯的內容 。
那么 , 如果谷歌在某種程度上成功地將神經網絡應用到文本-文本的翻譯中 , 為什么Google Assistant仍然不能使用相同的技術精準地進行語音識別呢?劍橋大學自然語言處理研究人員馬西基·霍瓦特(Matic Horvat)說 , 這一切都歸結于用來訓練神經網絡的數據集 。
霍瓦特說:“系統能夠適應它們所得到的訓練數據集 。 當你把它介紹給它從未聽過的東西時 , 語音識別的質量就會下降 。 例如 , 如果你的訓練數據集是會話語音 , 那么在繁忙的環境中識別語音效果就不會太好 。 ”
干擾是任何致力于提高語音識別技術的計算機科學家的克星 。 去年 , 谷歌通過其數字新聞創新基金會向倫敦初創企業Trint投資1.5億歐元 , 該公司在自動語音轉錄方面處于領先地位 , 盡管其算法與谷歌不同 。 然而 , Trint的算法在處理基本的干擾問題上并沒有表現得更好 。

推薦閱讀