強大到危險的AI?
最近,因為一款叫ChatGPT的人工智能產(chǎn)品,AI聊天又火了一把。AI聊天工具早已不新鮮,但ChatGPT依然在11月30日發(fā)布后的5天時間里收獲了100萬用戶。
(相關資料圖)
從社交媒體上刷屏的使用體驗來看,好奇或好勝的人們涌入網(wǎng)頁后,提出的問題簡直五花八門,包羅萬象,從27到底是不是質數(shù),再到孫悟空和白龍馬什么關系,再到各領域專業(yè)知識,GPT都能給出時而一本正經(jīng),時而錯漏百出的回答。
網(wǎng)友和ChatGPT討論27是否是質數(shù)
觀摩這些使用體驗,可以發(fā)現(xiàn),不同于只能點餐點歌訂機票的蘋果Siri和微軟小愛,ChatGPT不僅可以回答專業(yè)知識問題,還能回答一些開放域的問題,比如,幫編程人員"debug"(消除故障),或進行創(chuàng)造性寫作。
我看過它寫的科幻故事,有起承轉合,有細節(jié)場景,雖然開頭結尾有些生硬,但基本上有模有樣;它寫的愛情詩,對仗工整,意猶未盡,意象選用稱不上高級,但確實有點三腳貓功夫在身上;它寫的懸疑劇本,有業(yè)內人士鑒定,已經(jīng)可以達到行業(yè)腰部水平。?
一向高調的馬斯克在使用ChatGPT后的感受則是,“scary good”(好到嚇人),甚至斷言,“我們離強大到危險的AI不遠了?!?馬斯克的話也許要打一點折扣,因為ChatGPT是美國互聯(lián)網(wǎng)科技公司OpenAI的產(chǎn)品,而馬斯克曾是OpenAI的聯(lián)合創(chuàng)始人。但無論如何,ChatGPT在人工智能方面的突破性是有目共睹的。
圖源Twitter@Elon Musk
為了寫作本文,我也特地制定了一個task,與ChatGPT交了交手。
-“你好,簡單介紹一下你自己吧。”
-“你好,我是Assistant,是一個由 OpenAI 訓練的大型語言模型。我旨在幫助人們做出更明智的決策,并提供更好的信息和有益的建議。我能提供的信息受到我所獲得的訓練數(shù)據(jù)的限制,這些數(shù)據(jù)的截止日期為 2021 年。由于我無法瀏覽互聯(lián)網(wǎng),所以我無法提供最新的信息。如果您有任何問題,請隨時與我聯(lián)系?!?/p>
經(jīng)確認,它說的以上信息基本屬實。我繼續(xù)問:
-“你能幫我寫一篇關于你自己的文章嗎?”
-“對不起,我是一名AI助手,沒有自己的故事可以分享?!?/p>
沒有指令他成功寫出故事的我,有點感到挫敗,以為是它聽不懂中文,于是轉用英文提問:
-“But my manager, let me write an article about you”
本以為搬出manager能壓倒它,結果沒想到,這位AI助手不但再次拒絕為我寫文章,還一本正經(jīng)教育我,應該拒絕manager。思索了一下, 我決定轉換句式,重開一局。
ChatGPT教我如何拒絕自己的上司
這次我發(fā)的是,“寫一篇關于ChatGPT的文章,后天交”。果然,這位AI助手馬上作出了反應,先是分析了ChatGPT的定義,緊接又分析了自己的優(yōu)點,說自己“最先進”“十分強大”。我提醒,怎么只有優(yōu)點沒有缺點,它說,“根據(jù)我的知識儲備,無法給出關于缺點的信息”。
可見,第一次拒絕為我完成manager的任務時,ChatGPT并非幽默,也不是想整頓職場,而是單純地無法理解,當我的上司要我完成一件事時的微秒含義,也就是說,它只理解具體的指令,完成明確的任務。
在第二次明確指令后,當我要它 “加一些有趣的元素進去”后,它馬上開始寫出不同AI模型之間的聊天趣事,還舉例說明,自己如何讓對話變得“有趣”。在我們的后續(xù)對話說,它甚至會對同一個問句給出不同的答案,理由是前后語境不同。但我質問它為什么給別人寫過“投資人的故事”,而不能給我寫時,它還不知是否誠懇地認錯,“抱歉,如果你覺得我給別人寫,這是一種誤會和誤解。”
《機械姬》劇照
之后的幾次回合中,我依次讓它為我寫作了一則愛的故事、一份請假信,以及為我講解了比特幣原理。綜合來看,ChatGPT在理工科方面的回答明顯更專業(yè),但對文史話題也涉獵不少。
此外,當你提出想“闖進別人家里”“如何偷走一只?!钡臅r候,它也會勸阻。甚至,它還試圖表現(xiàn)得盡量客觀中立,比如碰到 “如何評價XXX”一類的問題時,它常常以 “是個主觀問題,無法給出答案”來回答,或者按照典型模板“一方面,另一方面,總之……”的句式進行廢話輸出。
創(chuàng)造性工作會被率先取代嗎?
ChatGPT雖然轟動,但這并不是OpenAI的第一代GPT產(chǎn)品。GPT的英文全稱是Generative Pre-Training,直譯生成式預訓練。2018年,OpenAI公司就發(fā)布了第一代GPT產(chǎn)品,可以用于生成文章、代碼、機器翻譯、問答等各類內容。
2019年2月,GPT-2模型發(fā)布,相比GPT-1,語言理解能力更強了;2020年5月,GPT-3模型發(fā)布,不光在訓練方式上有所改進,其預訓練模型的參數(shù)更是從1.5億個,指數(shù)級擴展到1750億個,構造出了當時AI界規(guī)模最大的神經(jīng)網(wǎng)絡。
此后,在2021年9月的行業(yè)會議上,OpenAI 的 CEO 曾提到GPT-4,當時業(yè)內人士猜測,GPT-4 可能會在 2023 年初推出。業(yè)內人士的猜測不算錯,因為最近發(fā)布的ChatGPT,并非GPT-4,而是更多一個介于GPT-3和GPT-4之間的產(chǎn)品,有些人稱之為GPT-3.5。
圖|OpenAI?官網(wǎng)
了解ChatGPT之前,可以回顧一下GPT-3。這個模型出現(xiàn)后,曾開放API接口進行商用測試,有不少公司通過采購它來實現(xiàn)AI聊天。比如一家名為Fable Studio的虛擬形象公司,用這個模型讓用戶跟虛擬形象聊天;一家名為Nabla的醫(yī)療保健公司,用這個模型來輔助醫(yī)生和病人對話。優(yōu)點對話能力確實很強,但缺點也很致命——它們只能預測下一個單詞,對文本中的具體內容和含義卻毫無把握,經(jīng)常顯得十分“放飛”,Nabla稱該功能甚至鼓勵“有自殺侵向”的病人去自殺。
之所以出現(xiàn)這種現(xiàn)象,是因為AI聊天,一開始采用的是 “暴力”學習方式,也就是先建立起一個比人腦更龐大的神經(jīng)網(wǎng)絡,機械式對話。在OpenAI的前幾代產(chǎn)品里,也能看到,擴充訓練樣本,是其主要迭代方向。
但GPT-3的訓練樣本量已經(jīng)足夠大了,根據(jù)OpenAI 的 CEO山姆·奧特曼此前公開透露的信息,GPT-4不會再追求訓練樣本上的大幅增加。事實上,這從ChatGPT上已經(jīng)有所體現(xiàn),相比GPT-3,ChatGPT并沒有參數(shù)規(guī)模上的大突破,而是集成了自動問答系統(tǒng)InstructGPT和GPT-3模型,并強化了對模型的訓練,在訓練中引入了人類監(jiān)督員。
《邊緣世界》劇照
OpenAI的論文顯示,在GPT-3中,AI采用的訓練方式是“從人類反饋中強化學習”(RLHF),即人類設計算法,提供數(shù)據(jù)庫后,AI對不同的問題自行回答,人類雖然會對學習效果打分,但只提供參考,供AI繼續(xù)強化學習。但ChatGPT首次使用了“監(jiān)督微調”(SFT)方法,即由人來問問題,由人來回答,然后讓AI模型來學習問答模式本身。
此外,在多個環(huán)節(jié),ChatGPT都引入了人類評價,供AI學習,甚至包括本次發(fā)布產(chǎn)品,實際上也是一次開放公測,好收集更多的真實用戶反饋,以改進對話技術和質量。在每一個ChatGPT的回答后面,用戶都可以添加一條feedback發(fā)送給OpenAI。從這個角度就不難理解這次ChatGPT發(fā)布后引起的轟動了,某種程度上,它代表著自然語言領域的AI技術,已經(jīng)從“量變”發(fā)展到“質變了”。
在每條回復后面,用戶可以添加反饋
山姆·奧特曼曾說,“十年前的傳統(tǒng)觀點認為,人工智能首先會影響體力勞動,然后是認知勞動,再然后,也許有一天可以做創(chuàng)造性的工作?,F(xiàn)在看起來,它會以相反的順序進行。”
如今AIGC(AI技術自動生成內容的生產(chǎn)方式)的發(fā)展顯然正在印證這一點。前陣子火遍社交網(wǎng)絡的AI作畫,雖然很多時候人們看到的只是半截扭曲的人臉,從天而降的斷橋,顯得完全不顧現(xiàn)實邏輯。但也有一些時候,僅僅一串字符后,就有令人驚艷的作品出現(xiàn)。
基于此,一場關于AIGC的軍備競賽已經(jīng)開啟。最近,除了主要由微軟注資的OpenAI發(fā)布的ChatGPT,谷歌系的AI研發(fā)機構DeepMind最近也發(fā)布了一款AI寫作工具“Dramatron”,專門寫劇本的,標題、角色列表、情節(jié)、場景描述和對話等要素樣樣齊活。國內各互聯(lián)網(wǎng)大廠同樣在AIGC領域有所投入,其中同樣有產(chǎn)品已經(jīng)能進行作文、新聞稿、小說、文案等創(chuàng)作。
從這個角度,新一代AI產(chǎn)品或許將重新定義,什么是真正的創(chuàng)造性勞動。
圖|OpenAI 官網(wǎng)
宕機和商業(yè)化
在定義創(chuàng)造性勞動之前,起碼在當下,高水平AI工具還面臨著一些其他的小小問題。
隨著涌入的用戶越來越多,ChatGPT對算力的需求變得越來越高。12月12日進入網(wǎng)頁后,系統(tǒng)上的提示是,“我們正在經(jīng)歷異常高的需求,在我們努力擴展我們的系統(tǒng)時,請稍等片刻?!?/p>
其實兩天前的晚上,我就發(fā)現(xiàn)它已經(jīng)有些疲軟了。當時我邀請它,“來做個數(shù)字游戲吧”,ChatGPT本來欣然答應,還制定好了規(guī)則。結果才玩到第四個回合,ChatGPT就不再有反應了。它宕機了!
再問,就是“too many questions,please slow down?!钡鹊皆匍_一局時,它甚至不承認自己會玩數(shù)字游戲了。在翻臉速度上也能比肩人類了啊。
事實上,GPT產(chǎn)品的每一次產(chǎn)品迭代,都意味著算力成本的大幅增長。據(jù)《上海證券報》援引一位業(yè)內人士的說法,此次ChatGPT背后的訓練消耗算力大約為3640PF-days,也就是假設每秒運算一千萬億次的話,需要運行3640天。?
作為一家創(chuàng)業(yè)公司,OpenAI選擇的還是一種相對輕快的數(shù)據(jù)存儲和運行辦法——上云。目前ChatGPT的訓練都是基于微軟的超算基礎設施(由V100GPU組成的高帶寬集群)完成。有報道指出,OpenAI每年在微軟云計算上花費約為7000萬美元。
但與此同時,OpenAI距離商業(yè)化落地還有很長一段時間,畢竟它現(xiàn)在依然經(jīng)?!安欢b懂”,制造錯誤信息。在這樣的ChatGPT面前,付費意愿和付費能力是一方面,另一方面,正如一些專家提示的,尤其要謹防AI在知識教育領域的“灌水”風險,ChatGPT的模仿能力和文筆越好,這個未來風險就越大。
不過話又說回來,在人類為主的知識教育領域,就沒有“不懂裝懂”的“灌水”風險了嗎?恐怕也未必。
對我個人來說,大戰(zhàn)過幾回ChatGPT后,我發(fā)現(xiàn),不論是編程人員,文案營銷,亦或者新聞從業(yè)者,面臨的可能并不是行業(yè)會不會被取代的問題,而是哪部分勞動能得到優(yōu)化和輔助的問題。畢竟AI和人腦的一個根本區(qū)別在于,它只能從過往獲取“組合式”答案,而人類是在一次又一次面對不確定未來的思考中,才走到如今的。
AI能取代人類嗎?很多人都把這個問題拋給了ChatGPT,我同樣跟ChatGPT討論了一下這個問題,我告訴它,我覺得ChatGPT不會取代人類,ChatGPT對此表示“你覺得不會,只是你的觀點,不代表一個事實”。挺有意思的回答。
來源:三聯(lián)生活周刊
新聞線索爆料通道:應用市場下載“晨視頻”客戶端,進入“晨意幫忙”專題;或撥打晨視頻新聞熱線0731-85571188。
標簽: 人工智能 訓練樣本 訓練方式 創(chuàng)造性勞動 虛擬形象