2030年前就會有完全超越人類的AGI,之后人類會隨機毀滅?

2030年前就會有完全超越人類的AGI,之后人類會隨機毀滅?

文章圖片

2030年前就會有完全超越人類的AGI,之后人類會隨機毀滅?

文章圖片

2030年前就會有完全超越人類的AGI,之后人類會隨機毀滅?
2030年前就會有完全超越人類的AGI , 之后人類會隨機毀滅?
——人類要想自保和延續 , 在這之前就應有個框架 , 然后和AGI賽跑
邵旭峰


一、AI時代完全開始 , AI及其基礎要素都呈指數級發展 , 且會繼續提速:
2024年6月18日 , 芯片巨頭英偉達市值超越微軟成為全球第一 , 標志著信息技術之AI時代完全開始 , 之前信息革命經歷了硬件和軟件時代 , 標志分別是硬件巨頭IBM的市值在1967年成為全球第一、之后一直霸榜到1986年 , 再就是微軟和蘋果市值成為全球最高——由于微軟提前布局AI , 比如投資OpenAI公司而壓住蘋果 。

目前全球市值前十的公司 , 除過沙特阿美是能源公司 , 其他基本都是信息技術和AI公司(另還有一個投資公司) , 更多信息技術和AI公司正在不斷擠掉全球市值前20、前50、前100、前500、前1000公司中之前的座次——也就是全球最多的財力、人力、人才、資源在往信息技術尤其AI領域集中 , 這一態勢是遠超之前第一次工業革命、第二次工業革命、以及信息技術之硬件和軟件時代的 , 是完全空前的瘋狂 。
目前世界 , OpenAI公司基于超強芯片和算力(計算平臺)的ChatGPT(文字和語言生成模型 , 當下是GPT-4) , 還有sora(視頻生成模型) , 以及谷歌公司的Bard、Meta公司的LLaMA , 基本代表了AI的最高水平 。 OpenAI公司也在推進其雄心勃勃的7萬億美元融資計劃 , 意圖打造生成式人工智能帝國 。

比爾·蓋茨稱 , GPT-4在學習整合表達知識信息方面已經超過大多數人 , 而OpenAI公司將在2024年年底前發布比GPT-4強100倍的新一代模型——毋庸置疑的 , AI及其基礎要素(芯片、算力等) , 都完全開始指數級發展 , 且越往后會越提速 。


二、完全碾壓人類的具備決策和意識功能的通用人工智能(AGI)在幾年內就會到來:
2024年3月1日 , 英偉達CEO黃仁勛在美國加州參加斯坦福經濟政策研究所峰會時表示 , 他預計AGI(強人工智能)最快將在五年內面世 , 其將通過所有人類測試 , 也就是基本能做人能做的所有事情并很大程度超越 。

OpenAI首席執行官山姆·奧特曼稍早前也表示 , AGI可能會在“相當近的將來”開發出來 。
特斯拉CEO埃隆·馬斯克稱 , OpenAI在2023年發布的GPT-4已經是“AGI” 。
2024年3月份 , 馬斯克在X社交媒體上寫道:“明年人工智能可能會比任何人類個體都聰明 , 到2029年 , 人工智能可能比所有人類加起來還要聰明 。 ”
對于馬斯克的話 , 我們可以稍作延展 , 比如OpenAI在年底推出的比GPT-4強100倍的新一代模型的基礎上再發展 , 應該確實就是比所有人類個體都聰明 , 再有幾年 , 真正的AGI問世 , 可不就是比所有人類加起來都聰明?
“AGI之父”本·戈澤爾認為AI迎來指數級“智能爆炸” , 他在之前一個AGI峰會閉幕時也預測“幾年內就可以創造完全超越人類的AGI” 。
和約翰·霍普菲爾德共同獲得2024年諾貝爾物理學獎的“AI教父”杰弗里·辛頓(獲獎理由是推動利用人工神經網絡進行機器學習作出的基礎性發現和發明) , 他的反向傳播算法和深度學習推動基礎性推動AI發展 。
OpenAI公司Chat、sora程序的最大推手 , 該公司前首席科學家伊爾亞·蘇茨克韋(Ilya Sutskever) , 就是辛頓學生 。 但杰弗里·辛頓2023年5月從谷歌離職 , 目的是“為了可以公開談論AI的危險” , 他認為:這些AI系統正在變得越來越危險 , 現在似乎還很難看到如何能夠防止壞人利用人工智能來做壞事 。 他也為自己曾經的工作感到后悔······受他的影響 , 伊爾亞·蘇茨克韋也在1年后——2024年5月離開OpenAI公司 , 創立新公司SSI(Safe Superintelligence Inc , 安全超級智能) , 表示新公司將致力于追求安全超級智能 。當然 , 也有人對AI是否超越人類表示懷疑 , 比如Meta公司人工智能負責人、首席科學家、圖靈獎獲得者 Yann LeCun , 他認為現有人工智能很難在幾個重要指標:推理、計劃、持久記憶和理解物理世界 , 趕上和達到人的水平 。 但同時他認為 , 通過“目標驅動訓練”(他的提法) , 可以使得這一過程事半功倍 , 也就是還是認為可以 , 只不過需要按照他的方法去做 。
通過這些人類全球最有代表性、也最知道底細的人的言論 , 基本可以得到較為確定的判斷:到2025年 , 大模型確實能比任何人都聰明——這個可能在OpenAI公司的新一代模型出來就差不多實現或者即將實現(年底出來后再發展一年?) 。 大概2028年或者2029年、最遲2030年 , 大家公認的AGI問世 , 就對人類形成完全碾壓態勢 。

請記住這一點 , 不管你同不同意 , 都請記住 , 記住后看點東西慢慢理解或者推翻——如果你可以的話 , 你就牛了 。


三、AGI要毀滅人 , 其實沒有自我意識就可以 , 因為其太神通廣大了 , 但悲哀的是其會有:
很顯然 , 如果AGI真的問世 , 其顯然都不需要什么自我意識 , 就可毀滅人類 , 因為其太神通廣大了 , 如果讓其控制過多資源——從理論上只要聯網就能控制(所有核武器 , 通訊設備、金融系統、電力石油天然氣、交通運輸、大壩 , 家用和公共聯網設備····) , 那毀滅人類 , 只需要一個指令或者一個“錯誤指令” , 或者由于變異和學習而有了某種指向 , 就可推動毀滅人類計劃 , 人類拿什么應對?其不僅同時控制的遠超人類、整合?高效利用也是 。
但根據綜合態勢 , 其具備自我意識基本是基本趨勢 , 即便AGI剛問世的時候 , 還不大具備 , 但過不了多久 , 就會具備 。
完全具備自我意識的AGI , 就成了真正的上帝 , 毀滅不毀滅人類 , 只在其“一念之間” 。
【2030年前就會有完全超越人類的AGI,之后人類會隨機毀滅?】


四、超強的不具備意識的AGI毀滅人類只需要隨機事件(有那個指向或接到那個指令即可)、而具有意識的AGI要毀滅人類只能訴諸于其是個永遠情緒穩定的“好人” , 且不會被其他病毒感染、不會被其它程序等影響 , 也就是無論如何 , 都不會去毀滅人類:
通過前面敘述 , 似乎只能如此假想 , 但這可能嗎?就像女性對另一半的要求一樣 , 只有弱者才希望強者足夠善良完美 , 就像奴隸期望奴隸主那樣一樣 。
對此我要說 , 別傻了 , 希望永遠在自己 , 人類的希望就在人類自己 。
你連自己都不信 , 何談其他??


五、人類想要延續的話怎么辦?
人類如果不想延續了 , 那聽之任之就行 , 但如果想要延續 , 就得提前有效作為 。
但反觀人類 , 你會可悲地發現 , 現有社會機制和體制、相關思維和作為 , 都完全無法遏制這一趨勢 , 大多數人還在懵懵懂懂之中忙于自己的生計···杰弗里·辛頓也認可這一點 。
美國總統拜登簽署了抗拒AI侵犯人權的行政命令 , 歐盟也予以立法 , 美英、歐盟、日本、以色列、澳大利亞、加拿大等簽署“人工智能框架公約” , 但稍微思考的人 , 就會知道這些舉措都無法阻止AGI的發展態勢、也無法阻止其毀滅人類的基本態勢 , 美國連立法都沒有 , 歐洲立法了但歐盟的執行力堪憂、再說那個立法完全沒有上升到阻止相關態勢的高度 , 至于那個公約 , 還不如歐盟的立法 。
由于美國是信息技術和AI的主陣地與主導 , 所以如果美國不真正作為 , 其實意義都不大 , 但美國要真正作為 , 在現行體制框架基礎上無法實現 , 首先由于兩黨的斗爭 , AI方面稍具約束力的法案無法建立 , 即便建立了 , 也還是不夠 , 高度和力度都達不到 , 再就是現有國會和總統機制到底能否應對AI這一人類的根本性威脅的問題?要知道現行國會和總統 , 經常連一些具體的細節問題都無法處理 , 比如援助烏克蘭和以色列的問題就能爭吵幾個月到一兩年 , 且力度不夠 , 還有具體行政機構的問題 , 何談人類根本性問題? 。
?西方體制本就是建立在如何為人和社會發展、經濟和科技發展提供盡可能好的服務的 , 幾圈體制則更多為?如何保持控制、自保服務的 。
?你讓這些體制克服和應對解決社會人類整體和自身導致的根本性問題 , 那無異于天方夜譚 , 關羽都只能做到讓華佗給自己刮骨療毒 , 沒有人能自己給自己做心臟和?腦外科手術并深度?清毒 。
很明顯的 , 導致問題的人類現行體制和機制、相關思維和作為 , 都無法反過來根本性應對AI毀滅人類的趨勢(AI的發展 , 基礎是信息技術革命 , 是整個人類、包括體制機制觀念思維等綜合導致的趨勢) , 也無法有效應對其他次一級的人類根本性困境 , 比如社會分裂碎裂、人性墮落沉淪 , 以及基本的自然環境和資源問題 。
所以要真正解決克服 , 只有一途:必須跳出這些來思考問題 , 個人的主張是社會形態重構、或者叫人的革命 , 辯證回歸人本來和應該的狀態——“人正視又高于現實世界”的狀態 , 從社會結構和思想觀念體系重構兩個層面落實:
比如美國 , 在兩院之外 , 設立人本院 , 對于一般性事務不遇干涉 , 但在人類基本問題 , 比如社會分裂碎裂、人性墮落沉淪 , 尤其AI領銜的信息技術革命對人的沖擊和控制、毀滅的問題 , 享有最高決策權和處置權 , 下設相關委員會 。 再就是建立專門負責應對AI的部門 , 可以叫信息與AI部 。 對于各自的權責都予以立法確定 , 包括憲法 。
從而讓社會結構 , 形成“人正視又高于現實世界”的狀態 。
再就是思想觀念方面 , 也形成相應狀態 。 讓社會的內外層面互相支撐和影響、完善 , 把人挺到最高 , 從而最大化消除和弱化對人的不利因素 , 讓人走向最遠 。
文中只能語焉不詳 , 具體 , 可參閱11月下旬出版的《世界主要形態及走向-人類自救時間或只剩不到10年》 。
對 , 這本書的意旨就是遏制人類被毀滅的趨勢 , 為人類中流擊水、奮為砥柱 , 所立者甚大!當然 , 最后或許用不上 , 但作為個人 , 確實是窮盡一切可能也窮盡了心力·····?
人類要長久延續 , 就無論如何都應該從盡可能廣泛的思考和討論開始 , 從而盡快促成有效和相對完善的行動和作為 , 時間要盡可能快 。


六、其實10年都是較為保守的說法 , 人類在幾年內AGI問世前就得有個框架 , 然后和AGI賽跑搶時間:
最大的尷尬在于 , 人類的改變窗口期確實沒多久了 , 其實10年都是保守說法 , 幾年內AGI就會出來 , 之后只要其趨向成熟 , 就具備毀滅人類的能力和可能了 , 至于到底會否毀滅 , 都不怎么需要自我意識 , 只需要一個契機 , 比如接到相關指令、或者由于“變異”或被病毒感染等而具備向人類整體發難的“意向”或者“趨向”即可 , 這個契機 , 會以無數隨機的情況出現 。 可悲的是 , 其確實會有意識 , 那樣的話 , 人類會不會被毀滅 , 只在其“一念之間” , 其一秒好多億好多億次的計算 , 其中有一次·······
所以說10年 , 可能都過于保守 , 你想等AGI出來 , 在讓其成熟和完善、尤其更發展(AI的發展階段 , 以年算有點長 , 以月差不多) , 人類還有什么機會可言?你即使毀掉一個AGI , 但綜合基礎早都造就——這是人類發展綜合趨勢使然、是整個人類在推動 , 有無數的AGI冒出 , 每個都可快速毀滅人類 。
要之 , 人類必須在AGI問世之前就有個大體框架 , 之后和AGI賽跑 , AGI指數級發展 , 人類竭盡所能完善自己的社會形態整體 , 看能否在被毀滅之前遏住這種趨勢 。
人類不僅和AI、尤其AGI賽跑 , 也和自己 , 和時間 , 就看誰能趕到前面·····
雖然理論上如此 , 但你反觀這個人間世······或許最后真·····


公號:邵旭峰域
備:邵旭峰傳媒

    推薦閱讀