至今,,我們已經(jīng)經(jīng)歷了多次數(shù)字革命,,包括圖形界面的出現(xiàn),、互聯(lián)網(wǎng)的誕生以及移動(dòng)互聯(lián)網(wǎng)的普及,,但沒有一次科技變革像 GPT 模型引發(fā)的 AI 浪潮那樣引起如此廣泛的恐慌情緒,。
一方面 AI 改變了人們工作和生活的方式,,大大提高了效率;另一方面 AI 的運(yùn)行和發(fā)展又充滿不確定性,,觸發(fā)了人類對(duì)于未知事物的天然保護(hù)機(jī)制——恐懼,。
![]()
今天,,網(wǎng)絡(luò)上一封公開的聯(lián)名信爆火,該信呼吁所有的 AI 實(shí)驗(yàn)立即暫停研究比 GPT-4 更先進(jìn)的 AI 模型,,暫停時(shí)間至少 6 個(gè)月,,為的就是把這些可怕的幻想扼殺在搖籃之中。
AI 的進(jìn)步速度實(shí)在過于驚人,,但相關(guān)的監(jiān)管,、審計(jì)手段卻遲遲沒有跟上,這也意味著沒有人能夠保證 AI 工具以及使用 AI 工具的過程中的安全性,。
![]()
該聯(lián)名信已經(jīng)獲得了包括 2018 年圖靈獎(jiǎng)得主 Yoshua Bengio,、馬斯克、史蒂夫 · 沃茲尼亞克,、Skype 聯(lián)合創(chuàng)始人,、Pinterest 聯(lián)合創(chuàng)始人、Stability AI CEO 等多位知名人士的簽名支持,,截稿前聯(lián)名人數(shù)已經(jīng)達(dá)到 1125 人,。
公開信的原文如下: 人工智能具有與人類競(jìng)爭(zhēng)的智能,這可能給社會(huì)和人類帶來深刻的風(fēng)險(xiǎn),,這已經(jīng)通過大量研究得到證實(shí),,并得到了頂級(jí) AI 實(shí)驗(yàn)室的認(rèn)可。正如廣泛認(rèn)可的阿西洛馬爾人工智能原則(Asilomar AI Principles)所指出的,,先進(jìn)的 AI 可能代表地球生命歷史上的重大變革,,因此應(yīng)該以相應(yīng)的關(guān)注和資源進(jìn)行規(guī)劃和管理。
不幸的是,,即使在最近幾個(gè)月,, AI 實(shí)驗(yàn)室在開發(fā)和部署越來越強(qiáng)大的數(shù)字化思維方面陷入了失控的競(jìng)爭(zhēng),而沒有人能夠理解,、預(yù)測(cè)或可靠地控制這些數(shù)字化思維,,即使是它們的創(chuàng)造者也無法做到這一點(diǎn)。
現(xiàn)代 AI 系統(tǒng)現(xiàn)在已經(jīng)在通用任務(wù)方面具有與人類競(jìng)爭(zhēng)的能力,,我們必須問自己:
- 我們應(yīng)該讓機(jī)器充斥我們的信息渠道,,傳播宣傳和謊言嗎?
- 我們應(yīng)該將所有工作都自動(dòng)化,,包括那些令人滿足的工作嗎,?
- 我們應(yīng)該發(fā)展可能最終超過、取代我們的非人類思維嗎,?
- 我們應(yīng)該冒失控文明的風(fēng)險(xiǎn)嗎,?
這些決策不應(yīng)該由非選舉產(chǎn)生的科技領(lǐng)導(dǎo)人來負(fù)責(zé)。只有當(dāng)我們確信 AI 系統(tǒng)的影響是積極的,,風(fēng)險(xiǎn)是可控的,,我們才應(yīng)該開發(fā)強(qiáng)大的 AI 系統(tǒng),。這種信心必須得到充分的理由,并隨著系統(tǒng)潛在影響的增大而增強(qiáng),。OpenAI 最近關(guān)于人工智能的聲明指出:「在某個(gè)時(shí)候,,可能需要在開始訓(xùn)練未來系統(tǒng)之前獲得獨(dú)立審查,對(duì)于最先進(jìn)的努力,,需要同意限制用于創(chuàng)建新模型的計(jì)算增長(zhǎng)速度,。」我們同意�,,F(xiàn)在就是那個(gè)時(shí)刻,。
因此,我們呼吁所有 AI 實(shí)驗(yàn)室立即暫停至少 6 個(gè)月的時(shí)間,,不要訓(xùn)練比 GPT-4 更強(qiáng)大的 AI 系統(tǒng),。這個(gè)暫停應(yīng)該是公開和可驗(yàn)證的,并包括所有關(guān)鍵參與者,。如果無法迅速實(shí)施這樣的暫停,,政府應(yīng)該介入并實(shí)行一個(gè)暫禁令。
AI 實(shí)驗(yàn)室和獨(dú)立專家應(yīng)該利用這個(gè)暫停時(shí)間共同制定和實(shí)施一套共享的先進(jìn) AI 設(shè)計(jì)和開發(fā)安全協(xié)議,,這些協(xié)議應(yīng)該由獨(dú)立的外部專家嚴(yán)格審核和監(jiān)督,。
這些協(xié)議應(yīng)確保遵守它們的系統(tǒng)在合理懷疑范圍之外是安全的。這并不意味著暫停 AI 發(fā)展,,而只是從不斷邁向更大、不可預(yù)測(cè)的黑箱模型及其突現(xiàn)能力的危險(xiǎn)競(jìng)賽中退一步,。
AI 研究和開發(fā)應(yīng)該重點(diǎn)放在提高現(xiàn)有強(qiáng)大,、先進(jìn)系統(tǒng)的準(zhǔn)確性、安全性,、可解釋性,、透明度、魯棒性,、對(duì)齊,、可信度和忠誠(chéng)度。
與此同時(shí),,AI 開發(fā)者必須與政策制定者合作,,大力加速 AI 治理體系的發(fā)展。這些至少應(yīng)包括:
- 專門負(fù)責(zé) AI 的新的,、有能力的監(jiān)管機(jī)構(gòu),;
- 對(duì)高能力 AI 系統(tǒng)和大型計(jì)算能力池的監(jiān)督和跟蹤;
- 用于區(qū)分真實(shí)與合成內(nèi)容,、跟蹤模型泄漏的溯源和水印系統(tǒng),;
- 健全的審計(jì)和認(rèn)證生態(tài)系統(tǒng),;對(duì) AI 造成的損害承擔(dān)責(zé)任;
- 技術(shù) AI 安全研究的充足公共資金,;
- 應(yīng)對(duì) AI 引起的巨大經(jīng)濟(jì)和政治變革(特別是對(duì)民主制度的影響)的資深機(jī)構(gòu),。
人類可以在 AI 的幫助下享受繁榮的未來。在成功創(chuàng)造出強(qiáng)大的 AI 系統(tǒng)之后,,我們現(xiàn)在可以享受一個(gè)「AI 盛夏」,,在其中我們收獲回報(bào),將這些系統(tǒng)明確地用于造福所有人,,并讓社會(huì)有機(jī)會(huì)適應(yīng),。
在面臨可能對(duì)社會(huì)造成災(zāi)難性影響的其他技術(shù)上,社會(huì)已經(jīng)按下了暫停鍵,。在這里,,我們也可以這樣做。讓我們享受一個(gè)漫長(zhǎng)的 AI 盛夏,,而不是毫無準(zhǔn)備地沖向秋天,。 |