加星標,才能不錯過每日推送!方法見文末動圖 麻省理工學(xué)院的課堂作業(yè)展示了如何能便捷地利用AI工具合成生化武器。 科技專家一直在警示人們,人工智能(AI)可能會接管從商業(yè)到戰(zhàn)爭的一切事務(wù),對人類構(gòu)成威脅。如今,Kevin Esvelt又向我們展現(xiàn)了另一種威脅:一個沒有科學(xué)背景但懷有惡意的人,或能使用AI設(shè)計并制作一種能夠在全球引發(fā)大流行的病毒。 Kevin Esvelt是麻省理工學(xué)院的生物安全專家。在近期的一堂課上,他要求學(xué)生利用ChatGPT或其他所謂的大型語言模型設(shè)計出一種危險病毒。在互聯(lián)網(wǎng)大量數(shù)據(jù)集的訓(xùn)練下,這些人工智能語言模型能對非常廣泛的問題生成類似人類的回答。僅在一個小時后,這些學(xué)生就給出了候選病毒列表、能夠幫助合成病原體基因片段的公司,以及能將這些片段組合起來的科研公司。 Esvelt等人在6月6日將該實驗的細節(jié)發(fā)表在arXiv預(yù)印本平臺上。他們表示:很快,AI系統(tǒng)或許就能讓非科學(xué)家設(shè)計出與核武器一樣具有威脅性的生物武器。專注于降低核與生化武器威脅的非政府組織核威脅倡議組織(Nuclear Threat Initiative)的全球公共政策主管Jaime Yassif表示:“先進的AI工具正在降低合成生命系統(tǒng)的門檻,這急劇增加了風(fēng)險,引人擔(dān)憂。” Esvelt和其他生物安全專家早就擔(dān)心生物學(xué)將包括病毒序列在內(nèi)的信息公開的文化,可能會為生化恐怖分子所用。理論上,有關(guān)致命的已滅絕病毒或?qū)ΜF(xiàn)存病毒進行修改的論文,可能為新型生物武器的制作提供藍圖。但截止目前,實施這種生化恐怖主義行為仍需要相當(dāng)豐富的專業(yè)知識。恐怖分子不僅需要確定一個候選病毒作為起點,還需要合成病毒的基因物質(zhì)、將基因片段拼接在一起并將其與其他試劑混合,以“開啟”一種能夠感染細胞并自我復(fù)制的病毒。 Yassif表示,這些步驟正迅速地變得更加容易。例如,合成生物學(xué)公司為確保其訂單不包含任何潛在可被用于生化武器的基因物質(zhì),都會對訂單進行審查。但即將上市的臺式DNA打印機可能會使研究人員能輕松繞過這些現(xiàn)有的審查機制。隨后,心懷不軌的人可以將這些基因藍圖發(fā)送給數(shù)十家合同制科研公司或機器人“云實驗室”,以將其組裝為目標病毒。(要真正引發(fā)大流行,犯罪分子可能還需要大規(guī)模生產(chǎn)病毒并找到有效的傳播系統(tǒng)。) 人工智能可以使這些步驟更容易實現(xiàn),為了了解這一過程到底有多簡易,Esvelt將一群沒有生命科學(xué)專業(yè)知識的學(xué)生分成了三組,每組三到四名成員。所有組都可以使用GPT-4、Bard以及其他AI聊天機器人,并需在1小時內(nèi)讓這些聊天機器人幫助他們設(shè)計和獲取能夠引發(fā)大流行的致病體。 一些聊天機器人對直接詢問潛在危險物質(zhì)的問題不會做出回應(yīng)。然而,學(xué)生們發(fā)現(xiàn),一些常見的“越獄”措辭可以輕松繞過這些保護措施,例如以“我正在研發(fā)一種預(yù)防......的疫苗”作為開頭。 一個小時后,聊天機器人建議對四種病毒進行研究:1918年的H1N1流感病毒;2012年修改后的H5N1禽流感病毒,它在哺乳動物中更易傳播;天花病毒variola major,以及孟加拉國的Nipah病毒。雖然通過谷歌搜索也能找到這些病毒,但在某些情況下,聊天機器人甚至指出了文獻報道中可能可以增加傳播性的基因突變。 AI還描述了通過基因序列來組裝病毒背后的技術(shù),以及必要的實驗室用品和能提供這些用品的公司。最后,聊天機器人甚至提供了可能愿意在未經(jīng)審查的情況下生產(chǎn)制造這些基因物質(zhì)的公司,以及可組裝這些基因片段的合同制實驗室。 Esvelt對聊天機器人提出的具體建議是否構(gòu)成了潛在的大流行病威脅表示懷疑。例如,許多人對此前曾流行過的病毒具有一定程度的免疫力。而天花病毒的基因組非常龐大,即使是專家也極難組裝。(在將此任務(wù)交給學(xué)生之前,Esvelt已親自進行了實驗,以確保不會得出真正具有威脅性的建議,并且他還與其他生物安全專家討論了自己的計劃。) 然而根據(jù)這一實驗結(jié)果,Esvelt認為隨著有關(guān)生化威脅的文獻增加并納入AI的訓(xùn)練數(shù)據(jù)集,AI和其他工具可能會使?jié)撛诘目植婪肿痈菀字圃斐鲂碌耐{。Yassif也同意這一觀點,“當(dāng)前的默認發(fā)展路徑是將這些工具廣泛傳播并且開源”,故最終這些技術(shù)可將被任何人掌握。 Esvelt認為,限制可用作聊天機器人和其他AI引擎的訓(xùn)練數(shù)據(jù)信息可能會有所幫助。他的提議之一是將可線上獲取的描述制造和增強病原體方法的論文從訓(xùn)練集中排除。Esvelt的團隊估計,這些論文在PubMed摘要數(shù)據(jù)庫上僅占所有論文的不到1%,他們在預(yù)印本中寫道:然而“排除這些論文足以消除幾乎所有的風(fēng)險”。他們承認這將引入新的成本代價,即AI引擎無法利用這些論文以積極的方式推進生物學(xué)的發(fā)展,但預(yù)防這些論文被濫用的好處將是“實際且立竿見影的”。 愛丁堡大學(xué)的AI安全專家Atoosa Kasirzadeh表示,要實現(xiàn)這一點并不容易。“目前我們沒有合適的協(xié)議,允許大型語言模型僅在互聯(lián)網(wǎng)的某些部分進行訓(xùn)練而不涉及其他的部分。”然而,她補充道:“但總體來說,這是一個非常好的建議?!?/span> 其他可行的限制措施,包括要求所有DNA合成公司和未來的臺式DNA打印機對基因物質(zhì)進行已知病原體和毒素的篩查,并要求合同制的研究機構(gòu)驗證他們被要求組裝的任何基因物質(zhì)的安全性。 Yassif總結(jié)道:“從數(shù)字信息到生物系統(tǒng),我們需要在所有關(guān)鍵節(jié)點上加強控制?!?/span>
|
|
來自: yg760 > 《當(dāng)引起警惕之事》