趙澤良:防AI“胡說八道”之后 我們該防AI“胡作非為”了?

趙澤良:防AI“胡說八道”之后 我們該防AI“胡作非為”了?



各位好 。 今天我想圍繞人工智能帶來的安全挑戰與人才培養問題 , 分享幾點思考 。
一、從“胡說八道”到“胡作非為”:AI安全的新挑戰
以前講大模型的安全 , 我們擔心什么?擔心“胡說八道”——它生成的內容不可信 。 到了今天 , 我們還要擔心什么?還要擔心“胡作非為”——它可能主動做出不當行為 。
以前關注人工智能 , 我們擔心的是“認知污染”——有問題的內容影響人的認知 。 今天我們要擔心的是“行為失控”——開車用導航地圖 , 擔心它瞎指路;明天開智駕系統 , 擔心它瞎開車 。 這些都給我們帶來了現實的網絡安全挑戰 。
【趙澤良:防AI“胡說八道”之后 我們該防AI“胡作非為”了?】二、技術迭代加速:從“大而全”到“小而精”
最近幾天 , 人工智能領域大事多、新鮮事多 。 3月17日 , 英偉達GTC大會在硅谷召開;3月19日 , 華為合作伙伴大會在深圳召開 。 人工智能 , 特別是大模型 , 正在從追求超大參數、超規模算力 , 向“塑身型”、高效率應用落地轉變 。
我想列舉幾個值得關注的動態:
第一 , OpenClaw 。 它是一個重要標志 , 讓我們的人工智能、大模型從“能說”走向“會做” , 為AI的應用落地提供了一個非常好的起點 。
第二 , MiniMax M2.7 。 最近推出的這個模型 , 讓人工智能可以在受控條件下完成局部的自我進化 。
第三 , BitNet Distillation框架 。 微軟最近推出的這個框架 , 將模型表示寬度壓縮至1.58比特 。 這意味著大模型在“塑身”、在更加小型化這個方向上 , 邁出了關鍵一步 。
第四 , GPT-5.4 。 OpenAI最近推出的新版本 , 不再是單一功能的提升 , 也不再是我們習慣的一問一答 , 而是將問答、編碼、任務應用接入一體 , 是一個綜合性的躍升 。
從技術維度還可以列舉很多 , 但我想強調的不只是技術 , 還有治理 。 3月20日 , 白宮發布了美國人工智能國家政策框架 , 從六個方面對人工智能提出了監管要求 。 技術發展、功能增強 , 安全就更加重要了 。
三、安全治理:從“事中事后”走向“事前定義”
我認為 , 我們的網絡安全、人才培養都需要重構 , 都需要創新 。
就安全而言 , 傳統的網絡安全 , 我們更多關注有沒有黑客攻擊 。 今天 , 我們要更多關注我們自己的系統、我們自己計算器里的智能體——因為你已經把智能體請到系統里了 , 你已經把“小龍蝦”(OpenClaw)安到筆記本里、手機里了 。
我們以前做安全 , 更多是分析、檢測 。 今天我們更要關注:對AI、對智能體 , 怎么明確它的權限邊界?我的系統里的智能體 , 它能看到什么?能調用什么?能做到什么程度?這些都要有明確的權限邊界和責任要求 。
我們以前的安全 , 更多是事中、事后處理 。 今天的安全 , 一定要事前定義、事前明確邊界、事中規范——不是出了問題再彌補 。
四、人才培養:打破“鏈條式”學習 , 走向“網狀型”學習
人才培養也是如此 。 AI沖擊最大的是教育 , 沖擊最大的是人才培養方式 。
我們要以人工智能的方式來學習、來教學 。 我們可能需要討論:現在的學習 , 是不是還一定是從理論到實踐、從基礎到應用 , 把學習當成一個鏈條?人工智能時代的學習 , 會不會是網狀型的?會不會是跳躍式的?
我們能不能從實踐再深入到理論?從現實問題去了解背后的理論基?。 咳醚骯毯拖質滴侍獾慕餼齦詠裘艿厝諍?, 這樣可以更好地激發學習興趣 , 也更好讓人才把知識和市場結合起來 。

    推薦閱讀