99国内免费在线_无码 有码 日韩 人妻_国产成_人_综合_亚洲_漂亮人妻被强中文字幕久久_手机看片福利永久国产影集

當(dāng)前觀察:申請ChatGPT和新Bing們的賬號,為什么都要等這么久?

來源:36kr時間:2023-03-30 08:05:12

上周,AIGC 的變化讓世界變得瘋狂,每天醒來都可能是一個「新世界」。

但從另一個角度上來說,無論 AIGC 如何智能和顛覆,我們?nèi)匀惶幱凇概f世界」,或者準(zhǔn)確的說,應(yīng)該是「候補(bǔ)」世界。

不止是新 Bing,Github Copilot X,ChatGPT 的插件,Midjourney V5,以及 Adobe 的 Firefly,甚至是百度的文心一言,在你體驗(yàn)之前,都需要加入 Waitlist 名單進(jìn)行排隊(duì)等待名額。這個過程,像極了計(jì)劃經(jīng)濟(jì)的配給制。


(資料圖片僅供參考)

隨著 AIGC 的服務(wù)越多,也包括原有的像是 GPT-4、Midjourney V5 的升級,Waitlist 的時間仿佛被延長。

Midjourney V5

直到如今,仍然有相當(dāng)多人還存在于新 Bing 的 Waitlist 之內(nèi),更別說其他更新的生成式 AI 體驗(yàn)。

或許是對 Waitlist 這個潛規(guī)則的無聲反抗,有人做了一個「一鍵進(jìn)行所有排隊(duì)」的網(wǎng)站。

不過諷刺的是,「一鍵加入」的功能還未做好,需要先加入 Waitlist 等待,且網(wǎng)站域名后綴是 wtf,怨氣拉滿。

候補(bǔ)名單的背后是為了更穩(wěn)的服務(wù)

當(dāng)我把這個問題丟給 Bing,Bing 從 OpenAI 官方網(wǎng)站的三個頁面里找到了四個原因。

限制用戶數(shù)量,保證服務(wù)質(zhì)量和穩(wěn)定性。

收集用戶反饋,改進(jìn)服務(wù)功能和體驗(yàn)。

增加用戶期待和參與感,提高服務(wù)知名度和口碑。

篩選出符合目標(biāo)人群的用戶,提高服務(wù)轉(zhuǎn)化率和留存率。

而這也更像是 OpenAI、微軟、Google 等大公司針對無限期 Wait 的一些官方話術(shù)。

相對來說,最先走入大眾的 ChatGPT,隨著模型的升級,以及大幅度降價,ChatGPT 的服務(wù)也出現(xiàn)過不少的波動。

問答列表的混亂,宕過機(jī),響應(yīng)慢等等穩(wěn)定性問題。

而基于 OpenAI 的新 Bing 同樣也出現(xiàn)過過激的言辭,一直到現(xiàn)在,微軟也在限制新 Bing 的對話次數(shù)與長度。

你可以說,限制使用 ChatGPT 和新 Bing 的人數(shù),能夠提供更穩(wěn)定和快速的響應(yīng)和內(nèi)容生成。

但要知道這些功能和服務(wù),已經(jīng)消耗了相當(dāng)?shù)馁Y源,幾乎占用了微軟 Azure 一半的算力。

目前,AIGC 還尚未迎來超級 App,仍然處于一個快速迭代的過程,甚至也可以說仍然是一個 Beta 測試版本。

通過傳統(tǒng)的對話框與 AI 進(jìn)行交互,其實(shí)是與 2023 年人手一部智能手機(jī)的狀況不太相匹配。

AIGC 現(xiàn)在只能算是一個功能,而即將推出的 Copilot、Firefly 等才更像是個產(chǎn)品。

Office 365 的 Copilot 功能

但它們?nèi)匀贿€未向外開放,躺在一個個 Waitlist 里。

從某方面來說,微軟、Google、Adobe 還在「打磨」自己的產(chǎn)品,而從另一個方向來看,想要對所有人敞開大門,或者說 AI 成為每個人的 Copilot,還需要突破一些「瓶頸」。

蓬勃發(fā)展的 AIGC,或許開始觸及瓶頸

這里的「瓶頸」,并非是外在表現(xiàn)的,生成式 AI 所遇到的倫理、法律法規(guī)或者說其響應(yīng)的準(zhǔn)確度。

反而是 AI 背后提供算力的硬件,以及各種用于訓(xùn)練的云算力。

微軟正持續(xù)在 OpenAI 上大手筆的投入,先后投入幾十億美元,也逐步出現(xiàn)了基于 GPT-4 的新 bing,和后續(xù)還在 Waitlist 上的新 Office。

同時,為了保證新 bing,以及后續(xù)具有 Copilot 功能的新 Office 能夠穩(wěn)定快速地響應(yīng)。

微軟也提供和預(yù)留了其 Azure 云服務(wù)的一半算力和運(yùn)算容量。

如此也導(dǎo)致了微軟內(nèi)部 Azure 算力資源的緊張。The Information 就采訪了微軟內(nèi)部員工,針對于有限的硬件運(yùn)算資源,微軟正在實(shí)行內(nèi)部硬件 Waitlist 制度。

微軟內(nèi)部其他開發(fā)機(jī)器學(xué)習(xí)模型的團(tuán)隊(duì)和部門,想要調(diào)用 Azure 的 AI 云服務(wù),需要逐級審批報(bào)備,并最終由一位副總裁來定奪。

就如同我們在排隊(duì)體驗(yàn)新的生成式 AI 服務(wù),除了新 bing 和新 Office 和 OpenAI 服務(wù)外,微軟其他部門也在等待多余的 Azure 云算力。

只是,隨著微軟 All in OpenAI 的策略,Azure 云相關(guān)算力和容量也顯得十分緊張。

除了內(nèi)部調(diào)用外,Azure 也提供了各種產(chǎn)品和服務(wù),包括 AI、計(jì)算、容器、混合云、物聯(lián)網(wǎng)等。

作為云服務(wù)供應(yīng)商 Azure 目前擴(kuò)展到全球 60 多個區(qū)域,其對外服務(wù)器產(chǎn)品和云服務(wù)收入占到微軟總營收的 36%。

但與微軟內(nèi)部團(tuán)隊(duì)類似,購買 Azure 的客戶也受到了算力受限的影響,尤其是想要調(diào)用 Azure OpenAI 依舊需要加入 Waitlist。

大概從 2022 年底,微軟就打算增加更多的硬件(GPU 或者 TPU)來擴(kuò)充更多的算力。

并且也與英偉達(dá)達(dá)成協(xié)議,為 Azure 增加數(shù)萬個 H100 GPU 計(jì)算卡,為后續(xù) OpenAI 提供更高的 AI 訓(xùn)練和推理效率。

不過,目前微軟與英偉達(dá)并未透露在 Azure 當(dāng)中 H100 的部署情況,微軟內(nèi)部也只有一小部分團(tuán)隊(duì)擁有 H100 的調(diào)用權(quán)限(大概率是新 bing 和 Office),大部分的部門仍然被排除在外。

一塊 H100 大概的售價可能在 24 萬元上下,以此為參考的話,微軟為 Azure 擴(kuò)容則需要投入數(shù)億資金。

不止是微軟,Google、甲骨文這些云服務(wù)商,也在大力投入 GPU 等硬件為自己的云服務(wù)擴(kuò)容,準(zhǔn)備在 AIGC 徹底爆發(fā)之前,做好算力上的準(zhǔn)備。

英偉達(dá) CEO 黃仁勛與 OpenAI 聯(lián)合創(chuàng)始人兼首席科學(xué)家 Ilya Sutskever

但從 GTC 2022 發(fā)布到現(xiàn)在,英偉達(dá)并沒有對外公布 H100 的供應(yīng)和銷售情況,微軟對于 Azure 的擴(kuò)容計(jì)劃是否成效也不得而知。

而在今年的 GTC 2023 中,英偉達(dá)并沒有帶來關(guān)于 H100、A100 硬件上的進(jìn)展,而是一直在強(qiáng)調(diào)英偉達(dá)在云計(jì)算硬件上的優(yōu)勢。

并且其首席技術(shù)官也開始強(qiáng)調(diào),「加密貨幣對于社會沒有任何有益的貢獻(xiàn)」,也從側(cè)面開始強(qiáng)調(diào) AIGC 領(lǐng)域?qū)怯ミ_(dá)接下來 30 多年所專注的領(lǐng)域。

隨著 AIGC 領(lǐng)域的持續(xù)迭代,大概從 2022 年 10 月份,英偉達(dá)的股價也隨之增長,一掃此前因?yàn)榧用茇泿潘ネ硕鴮?dǎo)致的業(yè)務(wù)下滑頹勢。

目前,英偉達(dá)的市值又達(dá)到了一個高點(diǎn),幾乎等同于 Intel、AMD、ARM 這三家市值之和。

但如此的高市值,似乎并沒有改善硬件的供應(yīng)狀況,反而隨著 Google、微軟等大企業(yè)不計(jì)成本資源地對云計(jì)算硬件投入,按照此前英偉達(dá)的供應(yīng)狀況,很可能再次出現(xiàn)工業(yè)顯卡慌的一個局面。

不止是硬件供應(yīng)狀況,這些高性能 GPU 組成的計(jì)算矩陣也有著很高的功率,單張 SXM 接口的 H100 計(jì)算卡功率就達(dá)到了 700W。

用于 AI 模型訓(xùn)練和大數(shù)據(jù)處理的計(jì)算中心的耗電量實(shí)際上也十分驚人。

在 2021 年,加州大學(xué)的 David Patterson、Joseph Gonzalez 通過研究表明,訓(xùn)練 GPT-3 大概需要耗費(fèi) 1.287 千兆瓦時的電力,它相當(dāng)于 120 個美國家庭一年的用電量。

同時,這篇論文還發(fā)現(xiàn),訓(xùn)練 GPT-3 會產(chǎn)生 502 噸的碳排放,等同于 110 輛汽車的一年排放量。

他們也強(qiáng)調(diào)這只是一個模型的訓(xùn)練成本,隨著它涌入市場,也會產(chǎn)生更多的資源消耗,可能要比訓(xùn)練成本還高。

OpenAI 的 GPT-3 使用了 1750 億個參數(shù)或者變量,而 GPT-4 的參數(shù)預(yù)計(jì)在 1750 億到 2800 億之間。對于能耗,云計(jì)算的需求只增不減。

為此,OpenAI CEO Sam Altman 在接受 The Verge 采訪時表示,OpenAI 正在尋找有效的方法來提升模型的性能和安全性。

換句話說,OpenAI 也在試圖通過更高效的算法來尋找節(jié)省訓(xùn)練運(yùn)行模型的硬件、電力資源。

Waitlist 的機(jī)制,從淺層次來看,它確保了當(dāng)前 AIGC 的使用體驗(yàn),以及相關(guān)服務(wù)的響應(yīng)速度。

但從深層次來看,它也是一場資源角力,是 GPU、TPU 為核心的云計(jì)算中心算力和容量的互相角力,也是宏觀上高投入高能耗的一場競爭。

而到目前為止,AIGC 其實(shí)仍處于一個「盲盒」階段,對于資源的需求和占用也尚不明朗。

不過,站在各種 AI 服務(wù)的 Waitlist 隊(duì)列里,確實(shí)很像在科幻電影里人們正不斷排隊(duì)進(jìn)入 AI 控制的工廠,為其運(yùn)行提供所需的資源。

Waitlist,既是虛擬世界里的候補(bǔ)名單,也可能是將來現(xiàn)實(shí)世界當(dāng)中的一則為 AI 服務(wù)的隊(duì)列。

關(guān)鍵詞:

責(zé)任編輯:FD31
上一篇:阿里,即將開始“有序擴(kuò)張”?_短訊
下一篇:最后一頁