1 月 29 日消息,谷歌、Facebook 和微軟幫助構(gòu)建了人工智能的框架,但規(guī)模較小的初創(chuàng)公司正在將其推向大眾,這迫使科技巨頭們加快 AI 開發(fā)速度。據(jù)消息人士透露,由于圍繞 ChatGPT 的關(guān)注激增,Meta 和谷歌內(nèi)部壓力也在增大,甚至可能為了行動(dòng)更快而撇開某些潛在的安全擔(dān)憂。
早在 AI 研究公司 OpenAI 于 2011 年 11 月份首次推出 AI 聊天機(jī)器人 ChatGPT 三個(gè)月前,F(xiàn)acebook 母公司 Meta 就曾發(fā)布過類似的聊天機(jī)器人。但 Meta 首席人工智能科學(xué)家雅恩勒昆(Yann LeCun)表示,與 ChatGPT 立即爆火、上線五天里就有 100 多萬用戶不同,Meta 的 Blenderbot 讓人覺得很無聊。
ChatGPT 正在迅速成為主流,因?yàn)槲④浾谂⑵浼{入其流行的辦公軟件中,并向其他企業(yè)出售該工具的使用權(quán)限。微軟最近向 ChatGPT 開發(fā)公司 OpenAI 公司投資了數(shù)十億美元。根據(jù)對(duì)六名離職和在職谷歌、Meta 員工的采訪,對(duì) ChatGPT 的關(guān)注激增正在促使包括這兩家公司在內(nèi)的科技巨頭內(nèi)部壓力激增,迫使他們更快地采取行動(dòng),可能會(huì)擱置對(duì)某些潛在安全問題的擔(dān)憂。
科技巨頭 AI 工具發(fā)布慢受到質(zhì)疑
其中一人表示,在 Meta,員工最近分享了內(nèi)部備忘錄,敦促公司加快 AI 項(xiàng)目的審批流程,以便利用最新技術(shù)。而谷歌本身就幫助開創(chuàng)了支撐 ChatGPT 的部分技術(shù),該公司最近發(fā)布了圍繞推出 AI 產(chǎn)品的“紅色代碼”,并提出了所謂的“綠色車道”,以縮短評(píng)估和減輕 AI 潛在危害的過程。
ChatGPT 以及 Dall-E 2、Stable Diffusion 等文本轉(zhuǎn)圖像等工具,都屬于所謂的生成性人工智能(AIGC)。它們通過借鑒現(xiàn)有的、人類創(chuàng)造的內(nèi)容來確定某些模式,以此來創(chuàng)作自己的作品。這項(xiàng)技術(shù)是由谷歌等大型科技公司首創(chuàng)的,但它們近年來變得更加保守,只發(fā)布新的模型或演示版本,而對(duì)整個(gè)產(chǎn)品保密。與此同時(shí),像 OpenAI 這樣的研究實(shí)驗(yàn)室迅速發(fā)布了他們的最新版本,這引發(fā)了人們對(duì)谷歌語言模型 Lamda 等企業(yè)產(chǎn)品的質(zhì)疑。
自從像微軟 AI 聊天機(jī)器人 Tay 等失敗以來,科技巨頭們始終都感覺很緊張。2016 年發(fā)布僅僅不到一天,Tay 就發(fā)布種族歧視等不當(dāng)言論,導(dǎo)致微軟立即將其關(guān)閉。Meta 為 Blenderbot 進(jìn)行了辯護(hù),并在其發(fā)表種族歧視言論后放棄了它。去年 11 月,另一款名為 Galactica 的 AI 工具因其不夠準(zhǔn)確、有時(shí)存在偏見而受到批評(píng),也在短短三天后被下線。
谷歌 AI 部門的一名員工表示:“人們覺得 OpenAI 的技術(shù)比這些老牌公司更新、更令人興奮,而且犯下的錯(cuò)誤更少,他們現(xiàn)在可以逃脫諸多指責(zé)。”他指的是公眾愿意在不那么嚴(yán)格的情況下接受 ChatGPT。有些 AI 領(lǐng)域的頂尖人才已經(jīng)跳槽到機(jī)制更靈活的初創(chuàng)公司,比如 OpenAI 和 Stable Diffusion 等。
有些 AI 倫理學(xué)家擔(dān)心,在信任和安全專家能夠研究這些風(fēng)險(xiǎn)之前,大型科技公司匆忙進(jìn)入市場(chǎng)可能會(huì)讓數(shù)十億人面臨潛在的危害,比如分享不準(zhǔn)確的信息、生成假圖像或讓學(xué)生有能力在學(xué)校考試中作弊。該領(lǐng)域的其他人也認(rèn)同 OpenAI 的理念,即向公眾發(fā)布工具是評(píng)估現(xiàn)實(shí)世界危害的唯一途徑。在減輕了某些可預(yù)測(cè)的風(fēng)險(xiǎn)后,向公眾發(fā)布工具通常名義上處于“測(cè)試期”。
創(chuàng)企搶先發(fā)布 AI 工具獲巨大優(yōu)勢(shì)
Meta 基礎(chǔ) AI 研究部門董事總經(jīng)理喬爾皮諾(Joelle Pineau)說:“AI 的發(fā)展速度快得令人難以置信,我們一直在關(guān)注這個(gè)領(lǐng)域,并確保我們擁有高效的審查流程,但當(dāng)務(wù)之急是做出正確的決定,并發(fā)布最適合我們社區(qū)的 AI 模型和產(chǎn)品。”
谷歌發(fā)言人林莉莉 (Lily Lin) 表示:“我們相信,AI 是一項(xiàng)基礎(chǔ)性和變革性技術(shù),對(duì)個(gè)人、企業(yè)和社區(qū)都非常有用。我們需要考慮這些創(chuàng)新可能產(chǎn)生的更廣泛的社會(huì)影響。我們繼續(xù)在內(nèi)部測(cè)試我們的 AI 技術(shù),以確保它能提供幫助,并能夠安全使用。”
微軟通信主管弗蘭克肖(Frank Shaw)稱,當(dāng)微軟在其產(chǎn)品中使用 DALE-2 等 AI 工具,并將與 OpenAI 合作時(shí),該公司將構(gòu)建額外的安全措施。他說:“微軟多年來始終在致力于推動(dòng) AI 領(lǐng)域的發(fā)展,并公開指導(dǎo)如何以負(fù)責(zé)任和符合道德的方式在我們的平臺(tái)上創(chuàng)建并使用這些技術(shù)。”
美國(guó)佐治亞理工學(xué)院計(jì)算機(jī)教授、機(jī)器學(xué)習(xí)專家馬克里德爾(Mark Riedl)表示,ChatGPT 背后的技術(shù)不一定比谷歌和 Meta 開發(fā)的技術(shù)更好,但其發(fā)布語言模型供公眾使用的做法給了它巨大優(yōu)勢(shì)。里德爾說:“在過去的兩年里,他們始終在利用一群人類向 GPT 提供反饋,比如對(duì)不合適或不滿意的答案給予‘否定’,這個(gè)過程被稱為“從人類反饋中強(qiáng)化學(xué)習(xí)”。
科技巨頭愿意冒險(xiǎn)加速部署 AI 工具
在科技股暴跌之際,硅谷突然愿意考慮承擔(dān)更多的聲譽(yù)損失風(fēng)險(xiǎn)。當(dāng)谷歌上周裁員 1.2 萬人時(shí),其首席執(zhí)行官桑達(dá)爾[gf]30fb[/gf]皮查伊(Sundar Pichai)寫道,該公司已經(jīng)進(jìn)行了嚴(yán)格的審查,將重點(diǎn)放在最優(yōu)先事項(xiàng)上,并兩次提到了其對(duì) AI 的早期投資。
十年前,谷歌成為 AI 領(lǐng)域無可爭(zhēng)辯的領(lǐng)導(dǎo)者。2014 年,谷歌收購(gòu)了尖端 AI 實(shí)驗(yàn)室 DeepMind,并于 2015 年開源了其機(jī)器學(xué)習(xí)軟件 TensorFlow。到 2016 年,皮查伊承諾將谷歌轉(zhuǎn)變?yōu)橐患?ldquo;AI 優(yōu)先”的公司。次年,谷歌發(fā)布了轉(zhuǎn)換器,這是其軟件架構(gòu)的關(guān)鍵部分,掀起了當(dāng)前的生成式 AI 浪潮。
谷歌不斷推出更先進(jìn)的技術(shù),推動(dòng)整個(gè)領(lǐng)域向前發(fā)展,在語言理解方面取得了許多突破,幫助改進(jìn)了谷歌搜索。在大型科技公司內(nèi)部,審查尖端 AI 道德影響的制衡體系沒有確保隱私或數(shù)據(jù)安全那么成熟。通常,由 AI 研究人員和工程師組成的團(tuán)隊(duì)會(huì)就他們的發(fā)現(xiàn)發(fā)表論文,將他們的技術(shù)整合到公司現(xiàn)有的基礎(chǔ)設(shè)施中,或者開發(fā)新產(chǎn)品,這一過程有時(shí)可能會(huì)與其他負(fù)責(zé) AI 開發(fā)的團(tuán)隊(duì)產(chǎn)生沖突,因?yàn)樗麄兠媾R著將創(chuàng)新更快推向公眾的壓力。
谷歌在 2018 年發(fā)布了其著名的 AI 原則,此前員工曾抗議 Project Maven(為美國(guó)國(guó)防部無人機(jī)提供計(jì)算機(jī)視覺的合同),消費(fèi)者對(duì) Duplex(可以呼叫餐廳并進(jìn)行訂餐的 AI 系統(tǒng))的演示也表示強(qiáng)烈反對(duì)。去年 8 月,谷歌開始通過其應(yīng)用程序 AI Test Kitchen 向消費(fèi)者提供限量版 LaMDA。前谷歌軟件工程師布萊克萊莫因(Blake Lemoine)聲稱,他相信 LaMDA 存在感知能力,但該功能還沒有完全向公眾發(fā)布,谷歌計(jì)劃在 2022 年底這樣做。
但這些技術(shù)進(jìn)步背后的頂尖 AI 人才卻正變得焦躁不安。在過去 1 年左右的時(shí)間里,谷歌許多頂級(jí) AI 研究人員離職,成立了圍繞大型語言模型的初創(chuàng)公司,包括 Character.AI、Cohere、Adept、Inflection.AI 以及 Inworld AI 等。此外,還有使用類似模型開發(fā)聊天界面的搜索初創(chuàng)公司,例如由谷歌前高管斯里達(dá)爾拉馬斯瓦米(Sridhar Ramaswamy)運(yùn)營(yíng)的 Neeva。
Character.AI 創(chuàng)始人諾姆沙澤(Noam Shazeer)幫助發(fā)明了轉(zhuǎn)換器和其他核心機(jī)器學(xué)習(xí)架構(gòu)。他表示,用戶數(shù)據(jù)的飛輪效應(yīng)是無價(jià)的。當(dāng)他首次將用戶反饋應(yīng)用于 Character.AI 時(shí),參與度上升了 30% 以上。Character.AI 允許任何人根據(jù)對(duì)真人或虛構(gòu)人物的簡(jiǎn)短描述來生成聊天機(jī)器人。
在 Google Brain 工作了三年的尼克弗羅斯特(Nick Frosst)說,像谷歌和微軟這樣的大公司通常都專注于利用 AI 來改進(jìn)他們龐大的現(xiàn)有商業(yè)模式。弗羅斯特在多倫多與人聯(lián)合創(chuàng)立了 Cohere,這是一家創(chuàng)建大型語言模型的初創(chuàng)公司,可以定制這些模型來幫助企業(yè)。他的創(chuàng)業(yè)伙伴艾丹戈麥斯(Aidan Gomez)在谷歌工作時(shí)也幫助開發(fā)了轉(zhuǎn)換器。弗羅斯特說:“這個(gè)領(lǐng)域發(fā)展得如此之快,對(duì)我來說,領(lǐng)先的都是小公司并不令人感到驚訝。”
在過去的十年里,AI 領(lǐng)域經(jīng)歷了幾次炒作周期,但對(duì) Dall-E 和 ChatGPT 的狂熱達(dá)到了新的高度。在 OpenAI 發(fā)布 ChatGPT 后不久,推特上的科技網(wǎng)紅開始預(yù)測(cè),AIGC 將預(yù)示著谷歌搜索的衰亡。ChatGPT 以一種可訪問的方式提供簡(jiǎn)單的答案,并且不要求用戶在藍(lán)色鏈接中搜索。此外,在發(fā)布 25 年之后,谷歌的搜索界面變得臃腫起來,充斥著試圖利用該系統(tǒng)的廣告和營(yíng)銷人員。
技術(shù)專家 Can Duruk 在他的時(shí)事通訊《Margins》上寫道:“由于他們的壟斷地位,谷歌已經(jīng)讓他們?cè)?jīng)令人難以置信的搜索體驗(yàn)退化成了垃圾郵件泛濫、搜索引擎驅(qū)動(dòng)的地獄。”
AI 消費(fèi)產(chǎn)品蘊(yùn)藏巨大盈利潛力?
在匿名應(yīng)用 Blind 上,科技工作者發(fā)布了數(shù)十個(gè)關(guān)于谷歌能否與 ChatGPT 競(jìng)爭(zhēng)的問題。著名研究科學(xué)家 David Ha 在推特上寫道:“如果谷歌不采取行動(dòng),開始發(fā)布類似應(yīng)用,他們將被載入史冊(cè):它培養(yǎng)了整整一代機(jī)器學(xué)習(xí)研究人員和工程師,而這些研究人員和工程師后來又在其他公司部署了這項(xiàng)技術(shù)。”最近,David Ha 離開 Google Brain,加盟開源文本轉(zhuǎn)圖像的初創(chuàng)公司 Stable Diffusion。
谷歌的員工們表示,仍留在公司內(nèi)部的 AI 工程師和他一樣沮喪。多年來,員工們始終在發(fā)送備忘錄,表示要在搜索中加入 AI 聊天功能。但他們也明白,谷歌有合理的理由不急于改變其搜索產(chǎn)品。如果聊天機(jī)器人直接通過谷歌搜索回答問題,如果該答案被發(fā)現(xiàn)是有害的或抄襲的,則可能會(huì)增加它的責(zé)任。
像 OpenAI 這樣的聊天機(jī)器人經(jīng)常犯事實(shí)性錯(cuò)誤,并經(jīng)常根據(jù)問題的提問方式改變答案。一位前谷歌 AI 研究員表示,從提供一系列直接鏈接到原始材料的問題的答案,轉(zhuǎn)向使用聊天機(jī)器人給出單一、權(quán)威的答案,將是一個(gè)重大轉(zhuǎn)變,讓谷歌內(nèi)部的許多人感到緊張。這位知情人士說,谷歌不想承擔(dān)這種提供單一答案的角色或責(zé)任。之前的搜索更新,比如添加即時(shí)答案,都是非常緩慢而謹(jǐn)慎進(jìn)行的。
然而,在谷歌內(nèi)部,對(duì) AI 安全流程的部分失望來自一種感覺,即由于擔(dān)心負(fù)面宣傳,尖端技術(shù)從未作為產(chǎn)品發(fā)布。比方說,有些 AI 模型存在偏見。
據(jù)一位了解公司內(nèi)部討論情況的人士透露,Meta 員工還不得不應(yīng)對(duì)公司對(duì)糟糕公關(guān)的擔(dān)憂。在推出新產(chǎn)品或發(fā)表研究成果之前,Meta 員工必須回答有關(guān)宣傳其工作的潛在風(fēng)險(xiǎn)問題,包括其研究如何可能被誤解。有些項(xiàng)目由公關(guān)人員以及內(nèi)部合規(guī)專家進(jìn)行審查,這些專家確保該公司的產(chǎn)品符合 2011 年聯(lián)邦貿(mào)易委員會(huì)關(guān)于如何處理用戶數(shù)據(jù)的協(xié)議。
對(duì)于非營(yíng)利組織“分布式 AI 研究所”(Distributed AI Research Institute)的執(zhí)行董事蒂姆尼特格布魯(Timnit Gebru)來說,谷歌將其負(fù)責(zé)任 AI 團(tuán)隊(duì)邊緣化的前景并不一定意味著權(quán)力或安全擔(dān)憂的轉(zhuǎn)移,因?yàn)槟切┚鏉撛谖:Φ娜藦囊婚_始就沒有得到授權(quán)。
從格布魯?shù)慕嵌葋砜?,谷歌發(fā)布 AI 工具的速度很慢,因?yàn)樵摴救狈ψ銐驈?qiáng)大的商業(yè)動(dòng)機(jī),不愿冒著聲譽(yù)受損的風(fēng)險(xiǎn)。然而,在 ChatGPT 發(fā)布后,谷歌可能會(huì)看到其從這些消費(fèi)產(chǎn)品中賺錢的能力發(fā)生了變化,而不僅僅是為搜索或在線廣告提供動(dòng)力。格布魯稱:“現(xiàn)在他們可能認(rèn)為這對(duì)他們的核心業(yè)務(wù)構(gòu)成了威脅,所以或許他們應(yīng)該冒險(xiǎn)一試。”
拉姆曼喬杜里(Rumman Chowdhury)曾領(lǐng)導(dǎo)推特的機(jī)器學(xué)習(xí)倫理團(tuán)隊(duì),直到去年 11 月埃隆馬斯克(Elon Musk)解散了該團(tuán)隊(duì)。她表示,她預(yù)計(jì)谷歌等公司在爭(zhēng)先恐后地追趕 OpenAI 的過程中,將越來越多地將內(nèi)部批評(píng)者和倫理學(xué)家排擠在外。她說:“我們?cè)瓉硪詾槭侵袊?guó)在推動(dòng)美國(guó) AI 技術(shù)進(jìn)步,但現(xiàn)在看起來像是初創(chuàng)企業(yè)在背后發(fā)力。”
標(biāo)簽: AI工具發(fā)布 AI消費(fèi)產(chǎn)品蘊(yùn)藏巨大盈利潛力 人工智能