眼看 AI 起高樓、眼看它樓塌了?
就在昨天早上,一封公開信刷屏了差評君的朋友圈,著名安全機(jī)構(gòu)生命未來研究所(Future of Life Institute,F(xiàn)LI)呼吁全球所有研究機(jī)構(gòu)暫停訓(xùn)練比 GPT-4 更強(qiáng)的 AI.
至少六個月。
(資料圖)
并且要在這六個月中來制訂和 AI 相關(guān)的安全協(xié)議,其中就包括如何監(jiān)管 AI 輸出的內(nèi)容,還有如何把 AI 創(chuàng)造出的內(nèi)容和真實(shí)的內(nèi)容區(qū)分開來。
咱別看這個研究所名字中二感滿滿,但在上面留下名字的,個個都是行業(yè)里的頂尖大牛。
圖靈獎得主約書亞·本吉奧、蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克、《人類簡史》的作者尤瓦爾·赫拉利、以及什么地方都會刷一腳存在感的埃隆馬斯克。
可以說是“滿級人類閃耀時”了。
雖然,關(guān)于這次簽名事件的準(zhǔn)確性沒有那么高,也有些人在自己不之情的情況下”被簽名“ 了,比如一開始 OpenAI CEO 奧特曼的簽名也在上面(我殺我自己?)
再比上面還有急速追殺的主角John Wick
但不管怎么說,可以感到大家都緊張起來了。
在信中,生命未來研究所提了四個問題:
我們一定要讓機(jī)器用宣傳和謊言充斥我們的信息渠道嗎?
我們一定要把所有工作都自動化嗎?包括哪些人工完全可以做得令人滿意的工作嗎 ?
我們一定要發(fā)展最終可能超過我們、超越我們、并取代我們的非人類思維嗎?
我們一定要冒險(xiǎn)失去對我們文明的控制嗎?
講道理,這些問題在過去幾十年里一直是科幻小說中流行的題材。
但是可能誰也想不到,隨著去年年底 OpenAI 一聲槍響。
這些難題真真切切的被搬到了我們面前,變成了我們可能需要立刻面對的元素。
前幾天,有人在網(wǎng)上發(fā)布了一組圖片,記錄了 2001 年發(fā)生在美國西部小鎮(zhèn)卡斯卡迪亞上的了一場 9.1 級的地震之后的景象。
略帶模糊的鏡頭記錄下了當(dāng)時哭喊的民眾
被摧毀的建筑和房屋
甚至還有當(dāng)時的美國總統(tǒng)小布什訪問災(zāi)區(qū)的合影。
無論是破損的城市,街道上大家的穿著,都在告訴觀眾這是一組來自 2001 年的照片。
不那么清晰的畫質(zhì)反而給大家一種“路人隨手拍”的感覺,讓照片的真實(shí)性再上了一個臺階。
但唯一的問題是,根本沒有這場大地震,卡斯卡迪亞上一次有記錄的災(zāi)難,是在 1700年。
沒錯,這組照片就是用 Midjounrney 來生成的。
比起前段時間流行的“賽博 COS”,明暗對比更強(qiáng)烈,更擅長描述場景關(guān)系的 Midjourney 用來制作“虛假歷史”明顯更加得心應(yīng)手了。
也更容易騙到大家的眼睛。
前幾天流行的“川普被捕”或者是“教皇穿羽絨服”,都是出于 Midjourney 的手筆。
圖片來源@谷大白話
說實(shí)話,差評君看到這個照片的第一瞬間,還真覺得有點(diǎn)懵,畢竟做為解放神學(xué)出身的教皇,方濟(jì)各穿個羽絨服也很正常對吧。
但是,這些圖片用來圖一樂倒是還好,一旦用來深究,那事情可能就大條了。
萬一下回,這項(xiàng)技術(shù)被用來詐騙呢?
和前些年流行過的 DeepFake 換臉不同,如今的 AI 作圖不需要特別好的顯卡,更不需要很長的時間去調(diào)試,對 Midjourney 來說,只要坐在瀏覽器前敲敲鍵盤就行。
當(dāng) AI 讓圖像造假的成本足夠低廉之后,咱又要花多少時間去分辨一張圖是不是 AI 畫的?
比如川普返鄉(xiāng)
可能生成一張假的圖片需要 10秒,但咱們想要看出來是這張圖是不是 AI 畫的,可能少說得要花個半分鐘。。。
不是每個人都有那么多精力能分辨 AI 的,只要有 1%的人認(rèn)不出來上當(dāng)受騙,就可以說是一本萬利的生意了好吧。
以往我們說耳聽為虛,眼見為實(shí),然而現(xiàn)在,眼見也不再為真。
過去幾十年來人類習(xí)以為常的秘密,已經(jīng)悄悄被 AI 解構(gòu)成了一堆的線性矩陣。
在排列組合中,瞞天過海了人類。
而圖片生成還只是 AIGC (人工智能技術(shù)來生成內(nèi)容)中的一部分。
這次被大佬們試圖聯(lián)名叫停的“巨型 AI”更是重量級,對標(biāo)的產(chǎn)品自然是出盡風(fēng)頭的 ChatGPT 。
這玩意有多離譜,咱們也寫文章聊過很多,今天就不再做贅述。
前段時間還生成了一段杭州取消限行的文案,騙過了不少人。
實(shí)際上,這類大語言模型并不是沒有監(jiān)管,從它們出生的那刻開始,監(jiān)管就如影隨形了。
上個月 OpenAI 在發(fā)布 GPT-4 的時候就提到,他們早在 22 年 8 月就完成了 GPT-4 的開發(fā)。
但是之后花了六個月來搞安全問題,為的就是不讓AI“亂說話”。
GPT-4 經(jīng)過拷打之后胡言亂語的水平大幅度下降:
但問題是,現(xiàn)在的 AI 和過去那些一步步執(zhí)行編譯的程序不一樣,這 AI 有一個算一個,全是黑箱。
不像過去那些程序,要是出了問題,程序員還可以進(jìn)去打斷點(diǎn),一個環(huán)節(jié)一個環(huán)節(jié)的調(diào)試 Bug 來把問題給搞清楚,哪一個環(huán)節(jié)有問題,針對性的改一下就好了。
但現(xiàn)在以 Chatgpt 為首的大模型 AI 就好像一個黑色的紙箱子,你只知道給它喂蘋果,它能還你一個橘子,而中間發(fā)生了什么事情一概不知。
那萬一這箱子要是出了問題,那咋辦嘛?只能重新買一個黑箱子了。
ChatGPT 就像一盒巧克力,在它輸出完成之前,沒有人知道它嘴巴里會蹦出什么字來。
李彥宏也提到:“生成式 AI 每次給出的答案不一定一樣,會帶來不確定性”。
這個生成到底有多不靠譜呢?差評君講個剛剛遇到的事兒:
前幾天不是索尼微軟任天堂、育碧和 D 社都說要退出 E3 展會么,我就有點(diǎn)好奇 E3 展會租金到底要多少錢?
先是在知乎上找到了一個回答,答主表示自己查到在 06 年時 E3 的租金就要 500萬美元以上。
額。。。06 年,500萬?這個數(shù)據(jù)好像有一些不靠譜,于是我又去用 NewBing 問了一下:
也給出了類似的回答。
有數(shù)據(jù)有鏈接,看起來是有理有據(jù)。
但問題是當(dāng)我點(diǎn)開這個鏈接的時候發(fā)現(xiàn)。。。IGN 的文章里面根本沒有提到租金 500 萬這個數(shù)字
合著你是直接把之前的知乎文章翻譯了一遍,然后又給我編了一篇英文文章來訛我啊。。。
它順應(yīng)了我們的猜測給了一個謠言,要不是我多心看了一眼,可能真的給他糊弄過去了。
真就是睜眼說瞎話大師。
而除了這個 title 以外, AI 還是桀驁不羈的漏洞尋找大師,往往能在我們訓(xùn)練它的過程中表演一手出乎意料。
在人工智能領(lǐng)域,有個非常經(jīng)典的理論叫做“對齊問題”。
意思是AI在做的事情和我們想要的結(jié)果之間沒有對齊,命令的傳遞出現(xiàn)了偏差。
就比如前兩年那只寧愿一頭撞死的賽博狼。
發(fā)現(xiàn)抓半天羊還會不斷扣分,那還不如一頭撞死自己分還比較高。
狼抓羊這么簡單的程序都會出現(xiàn)沒法對齊的問題,那更大模型的人工智能就更難說了。
實(shí)際上,缺乏“對齊”的 AI,還可能會形成社會中一些錯誤印象的“放大器”。
就拿性別歧視舉個例子,早些年亞馬遜引入了一個人工智能,來給求職者的簡歷打分。
結(jié)果過了幾年回頭一看,在程序制定者啥也沒做的情況下,性別歧視就很順滑的出現(xiàn)了,男性簡歷的通過率比女性高了不少。
甚至就算簡歷上面沒有明確寫出性別,程序還會通過一些細(xì)枝末節(jié)的地方來確定:比如是否畢業(yè)于女子大學(xué),是否是“女子 XX 社”社團(tuán)社長。
這自然不是亞馬遜在招聘時希望看到的,也絕對不是它們在設(shè)計(jì) AI 時給它下的命令。
但是 AI 在訓(xùn)練的結(jié)果中很自然的“沒有對齊”。
而且不光早些年的人工智能,最新的 ChatGPT 也依舊會有這些問題。
比如寧可讓百萬人失去生命也不愿意說一句種族歧視的話語。
再比如不愿意寫一首詩歌歌頌川普,但是可以贊揚(yáng)拜登。。。
這些都是很明顯的政治傾向,我愿意相信 OpenAI 在研發(fā) ChatGPT 的時候并不希望它學(xué)會這些,不然他們也沒有必要在 GPT-4 上花那么多時間用于自我審查。
但我們一不留神, AI 可能就偷偷的跑偏。
去學(xué)習(xí)偏見、歧視這些我們不希望存在,但是又客觀隱藏在社會關(guān)系里的性別歧視和政治傾向。
差評君也和清華大學(xué)交叉信息研究院的于洋教授聊過這個問題,探究到底是 AI 的哪里出了問題。
于教授的回答是:“這既是訓(xùn)練數(shù)據(jù)集的問題,也是模型架構(gòu)的問題,也是訓(xùn)練方式的問題,還涉及到使用的問題——比如誘導(dǎo) AI 犯錯的攻擊式使用?!?/strong>
——對,就是全有問題。
現(xiàn)在的 AI 能做的還有限,就算沒對齊,捅出了簍子,可能還在我們能控制的范圍里。
但如果在這樣狂飆下去,那可就說不定了,就像那個知名的“曲別針假說”。
說不定未來哪一天, AI 會認(rèn)為人類都是阻撓它生產(chǎn)曲別針的阻礙,把大家都給噶了?
人類有和自然相處成百上千年下來的道德約束,我們知道什么能做,什么不能做。
而目前,人工智能學(xué)不會這些。
或許,這才是這次數(shù)千 AI 大佬發(fā)出聯(lián)名信的原因。
監(jiān)管必須要有,但是監(jiān)管、法規(guī)不是一日而成。
AI算法突破起來毫無阻礙,連我們這種外行人都知道,AI帶來的技術(shù)爆發(fā)已經(jīng)箭在弦上。去年啥情況,今年啥情況,稱之為突飛猛進(jìn)不為過。
隨著AI算法的日益完善,下一步?jīng)]準(zhǔn)就要自我進(jìn)化了,它能成長到什么地步我們很難說。
我們有可能只能跟著 AI 在屁股后面追,但是現(xiàn)在不知道還有沒有我們一直在后面追的空間。
也許下一步只能用 AI 來監(jiān)管 AI。
今天的聯(lián)名信或許是給人類敲響了一記警鐘。
但可惜的是,在差評君看來,這樣一紙的 “ 聯(lián)名信 ” 絕對停不下 AI 領(lǐng)域研發(fā)的腳步。
撰文:小陳編輯:江江 & 面線 & 結(jié)界封面:萱萱
圖片、資料來源:
https://openai.com/research/gpt-4
Red Teaming Improved GPT-4. Violet Teaming Goes Even Further
ChatGPT Is a Blurry JPEG of the Web —— Ted Chiang
關(guān)鍵詞: