日本免费全黄少妇一区二区三区-高清无码一区二区三区四区-欧美中文字幕日韩在线观看-国产福利诱惑在线网站-国产中文字幕一区在线-亚洲欧美精品日韩一区-久久国产精品国产精品国产-国产精久久久久久一区二区三区-欧美亚洲国产精品久久久久

OpenAI將發(fā)比GPT4強(qiáng)100倍的模型,算力已實(shí)現(xiàn)AGI

OpenAI將發(fā)比GPT4強(qiáng)100倍的模型,算力已實(shí)現(xiàn)AGI

文章圖片

OpenAI將發(fā)比GPT4強(qiáng)100倍的模型,算力已實(shí)現(xiàn)AGI

文章圖片

OpenAI將發(fā)比GPT4強(qiáng)100倍的模型,算力已實(shí)現(xiàn)AGI

文章圖片

OpenAI將發(fā)比GPT4強(qiáng)100倍的模型,算力已實(shí)現(xiàn)AGI

文章圖片

OpenAI將發(fā)比GPT4強(qiáng)100倍的模型,算力已實(shí)現(xiàn)AGI

文章圖片

OpenAI將發(fā)比GPT4強(qiáng)100倍的模型,算力已實(shí)現(xiàn)AGI

文章圖片

OpenAI將發(fā)比GPT4強(qiáng)100倍的模型,算力已實(shí)現(xiàn)AGI

文章圖片

OpenAI將發(fā)比GPT4強(qiáng)100倍的模型,算力已實(shí)現(xiàn)AGI

文章圖片

OpenAI將發(fā)比GPT4強(qiáng)100倍的模型,算力已實(shí)現(xiàn)AGI

文章圖片

OpenAI將發(fā)比GPT4強(qiáng)100倍的模型,算力已實(shí)現(xiàn)AGI

文章圖片

OpenAI將發(fā)比GPT4強(qiáng)100倍的模型,算力已實(shí)現(xiàn)AGI

文章圖片

OpenAI將發(fā)比GPT4強(qiáng)100倍的模型,算力已實(shí)現(xiàn)AGI

文章圖片

OpenAI將發(fā)比GPT4強(qiáng)100倍的模型,算力已實(shí)現(xiàn)AGI

文章圖片

OpenAI將發(fā)比GPT4強(qiáng)100倍的模型,算力已實(shí)現(xiàn)AGI

文章圖片

OpenAI將發(fā)比GPT4強(qiáng)100倍的模型,算力已實(shí)現(xiàn)AGI
OpenAI將發(fā)比GPT4強(qiáng)100倍的模型 , 算力已實(shí)現(xiàn)AGI


轉(zhuǎn)載一篇來自量子位的文章 , _原題:OpenAI回應(yīng)一切 , o1/GPT年前升級!奧特曼:別嫌慢 , 問就是缺算力 。
大概意思如下:
1.年底將發(fā)布比現(xiàn)有GPT-4強(qiáng)100倍的新模型 , 但不會命名為GPT-5 。
2.當(dāng)前的硬件可以實(shí)現(xiàn)AGI , 缺是主要是計算資源 , 或者“料” 。
3.圖像生成模型DALL-E的下次更新值得期待 , 目前保密 。
4.明年將讓ChatGPT自主執(zhí)行任務(wù) 。

綜合如上 , 你隱約能覺得其GPT-5將接近或者初步達(dá)到AGI 。 這個時間應(yīng)該在2025年 。
5.Sora的進(jìn)一步升級 , 目前保密 。
6.o1系列和GPT系列將同步推進(jìn) , 之后也可能整合 。
7.OpenAI將擁有自己的搜索 。
你從如上可以看出 , 目前全球最強(qiáng)AI公司的算力已經(jīng)基本達(dá)到AGI(通用人工智能 , 也就是在絕大多數(shù)方面趕上和超過人) , 這個超出絕大多數(shù)信息與AI界代表(馬斯克除外)的說法 , 更超出幾乎所有其他人的···其他人大多數(shù)···
也就是AI的發(fā)展 , 其速度是超過大多數(shù)人感知的(尤其井里的和背著井到處走的) , 可能個人2028年實(shí)現(xiàn)AGI的預(yù)斷都稍顯保守 。

【OpenAI將發(fā)比GPT4強(qiáng)100倍的模型,算力已實(shí)現(xiàn)AGI】另外 , 不僅是OpenAI瘋了 , 其他公司 , 比如谷歌、英偉達(dá)、MATE、蘋果、Anthropic等都瘋了 , 以及其他正在發(fā)力和準(zhǔn)備發(fā)力AI的公司和雄心勃勃的創(chuàng)業(yè)者 , 都瘋狂···
這個球瘋了 , 最多的資源、人才、人力、技術(shù)、財力在往AI集中和整合 , 態(tài)勢完全空前——整個地球和人類社會體制、機(jī)制、合力 , 推動AI指數(shù)級發(fā)展 , 并還在不斷提速 。
完全一副不把自己搞毀滅絕不罷休的態(tài)勢——人類在最后的、也空前的瘋狂 , 如果不在能遏制被毀滅的趨勢的話 。
如何遏制?為什么如此遏制?敬請留意本人即將出版的《世界主要社會形態(tài)及走向-人類自救時間或只剩不到10年》 , 只有社會形態(tài)重構(gòu)與人的革命 , 只此一途 。 封面大概:







原文全文如下:
關(guān)于OpenAI的一切消息 , 官方這次全回應(yīng)了?。 ?
就在剛剛 , CEO奧特曼攜4大高管集體亮相reddit有問必答活動(AMA ) , 挨個回復(fù)了大家對OpenAI主要產(chǎn)品、AGI路線規(guī)劃等提問 。
具體陣容包括 , 首席產(chǎn)品官Kevin Weil、高級研究副總裁Mark Chen、工程副總裁Srinivas Narayanan和首席科學(xué)家Jakub Pachocki 。



如此豪華陣容也當(dāng)即引來大量關(guān)注 , 僅過去幾小時 , reddit已有4000多條網(wǎng)友留言 。



先來個省流版 , 在這次活動上 , OpenAI團(tuán)隊(duì)主要透露了:
  • 年底將會有重大更新 , 但不會命名為GPT-5
  • 當(dāng)前的硬件可以實(shí)現(xiàn)AGI
  • 缺少計算資源是阻礙產(chǎn)品推遲的主要因素
  • 圖像生成模型DALL-E的下次更新值得期待 , 但目前無發(fā)布計劃
  • 讓ChatGPT自主執(zhí)行任務(wù)將是明年一大重點(diǎn)
  • Sora還需要完善 , 暫無明確發(fā)布時間表
  • o1系列和GPT系列將同步推進(jìn) , 未來也可能整合
  • o1滿血版即將推出
  • ……
好家伙 , 這次的信息密度有億點(diǎn)高 , 準(zhǔn)備好瓜子咱們接著嘮(doge) 。



OpenAI回應(yīng)一切一上來 , 網(wǎng)友們就開始了貼臉開大 , 紛紛喊話對面的OpenAI團(tuán)隊(duì):
你還記得大明湖畔的Sora、GPT-4o視頻通話、DALL-A……嗎?



對此 , CEO奧特曼開始訴苦(bushi , 承認(rèn)缺少計算能力是阻礙公司更快交付產(chǎn)品的主要因素 。
最近還有報道稱 , 奧特曼和OpenAI首席財務(wù)官對員工抱怨 , 微軟行動速度不夠快 , 沒有提供足夠的服務(wù)器 。
兩家的聯(lián)盟關(guān)系也正在逐漸破裂 , 并開始互相視對方為備胎——
OpenAI找了甲骨文做額外的云計算供應(yīng)商 , 微軟也開始在自家產(chǎn)品中接入谷歌和Anthropic模型 。
除此之外 , 為了減少對英偉達(dá)的芯片依賴 , OpenAI近幾個月還在與博通合作開發(fā)AI芯片 , 不過預(yù)計最早要等到2026年才能上市 。
多方跡象顯示 , OpenAI目前確實(shí)在計算能力上面臨壓力 。
不過拋開這點(diǎn)不談 , 奧特曼此次自信宣稱 , 人類當(dāng)前的硬件已經(jīng)可以實(shí)現(xiàn)AGI了 。



與此同時 , 更多重點(diǎn)產(chǎn)品消息釋出:
首先 , 奧特曼照例放出重磅煙霧彈 , 暗示年底可能會發(fā)布重要產(chǎn)品 , 只不過不會將其命名為GPT-5 。



他表示 , 一方面模型變得越來越復(fù)雜了 , 另一方面有限的算力還需要分配給“許多偉大的想法” 。 (傳聞OpenAI擅長在內(nèi)部同時推進(jìn)很多項(xiàng)目)



而對于當(dāng)前存在的GPT和o1系列模型 , OpenAI目前會同步開發(fā)、發(fā)布 , 不過將來也不排除整合的可能性 。
同時 , o1滿血版將很快推出 。






另外 , 對于大家一直關(guān)注的視頻生成模型Sora , 目前還是沒有明確的發(fā)布時間表 。
官方說法是 , Sora還需要進(jìn)一步完善 , 需要考慮安全方面的因素 。 (Sora負(fù)責(zé)人前一陣還跳槽谷歌了)



同樣的 , 對于期待值頗高的GPT-4o的視頻通話功能 , 以及久未更新的圖像生成模型DALL-E系列 , OpenAI仍然態(tài)度曖昧模糊 , 能夠看出 , 他們的重點(diǎn)目前不在這些上面 。






所以 , OpenAI最近的重點(diǎn)是啥呢?
最新答案來了:AI搜索 。
就在今天 , ChatGPT新增了搜索功能 , 背后由GPT-4o的微調(diào)版本提供支撐 , 而且網(wǎng)頁版、手機(jī)版、桌面版同時上線 。
據(jù)介紹 , 其最主要的亮點(diǎn)是“快速獲取準(zhǔn)確答案 , 并提供相關(guān)網(wǎng)頁鏈接” , 無需再切換至其它的搜索引擎 。



有網(wǎng)友借機(jī)提問奧特曼 , ChatGPT search優(yōu)勢何在?我們?yōu)槭裁匆艞墏鹘y(tǒng)搜索引擎?
對此 , 奧特曼認(rèn)為AI搜索主要應(yīng)用于更復(fù)雜的場景 , 最好能動態(tài)呈現(xiàn)自定義網(wǎng)頁作為響應(yīng) 。



而且OpenAI透露 , ChatGPT搜索仍然使用了微軟的Bing 。



最后 , OpenAI明年的重點(diǎn)之一是——讓ChatGPT自主執(zhí)行任務(wù) 。
要知道 , 隔壁家的Claude目前已經(jīng)能接管我們的電腦了 , 僅需輸入指令 , Claude就能幫我們完成訂比薩、做攻略等任務(wù) 。 (OpenAI要加油了)



網(wǎng)友們還關(guān)注這些除了上面這些大眾關(guān)切 , 部分網(wǎng)友也原地開啟了許愿模式 。
Q:GPT-4o的文本能否擴(kuò)展?32k不太夠用 。
A:在努力了!



而且不止GPT-4o , OpenAI可能會為ChatGPT增加上下文窗口 。



Q:ChatGPT可以做但目前還不能做的一件事是什么?
A:代替人類 , 自主理解并執(zhí)行任務(wù) 。



Q:ChatGPT的最佳用例以及未來在哪些領(lǐng)域會特別有用?
A:發(fā)現(xiàn)并治療疾病 , 以及加速新的科學(xué)發(fā)現(xiàn) 。



Q:是否有計劃發(fā)布一項(xiàng)新功能 , 讓用戶能看到自己在ChatGPT被引用的方式和頻率?
A:會考慮這個好主意 , 目前沒有計劃 。



Q:AGI是否可以通過已知的神經(jīng)網(wǎng)絡(luò)架構(gòu)實(shí)現(xiàn) , 或者是否需要新的科學(xué)(基?。 ┩黃疲?
A:如果架構(gòu)突破是由現(xiàn)有的LLM提出的 , 這算不算?(暗示新架構(gòu)也可能由LLM提出)



Q:高級語音的API成本會降低嗎?
A:語音和其他功能都考慮進(jìn)一步降低成本 。 (GPT-4o mini的成本目前是GPT-3的2%)



Q:模型幻覺會成為永久性特征嗎?如何應(yīng)對?
A:很難避免 , OpenAI正在使用的解決方案包括:加強(qiáng)出處引用、使用強(qiáng)化學(xué)習(xí)(模型不產(chǎn)生幻覺時 , 實(shí)行獎勵) 。



Q:對明年的大膽預(yù)測?
A:使所有基準(zhǔn)測試達(dá)到飽和 。 (自信起來)



最后 , 有人突發(fā)奇想 , 提問奧特曼是否會使用ChatGPT來回答上述問題 。
結(jié)果沒想到 , 還真有 。 (就emmm……)



Ilya看到了什么?有意思的是 , 一聽到OpenAI團(tuán)隊(duì)要來個“知無不言” , 大家伙兒不約而同地又問出了那句:
what did Ilya see?
懟到眼前來了 , CEO奧特曼自知躲不過 , 于是乖巧回復(fù)道:
他是一位令人難以置信的有遠(yuǎn)見的人 , 他的一些最初想法最終成就了o1模型 。



嗯 , 感覺每次回答都一樣 , 大家可以放棄這個問題了(doge) 。
問不出來 , 真的問不出來……
— 完 —

    推薦閱讀