在 ABC News 最新對(duì)話(huà) OpenAI 創(chuàng)始人 Sam Altman 和 CTO Mira Murati的采訪中,Sam提到,他對(duì) ChatGPT 最興奮的是,這項(xiàng)技術(shù)能夠幫助個(gè)人學(xué)習(xí)。 我仔細(xì)看了這段采訪,訪談中記者的問(wèn)題犀利且直面未來(lái)AI可能產(chǎn)生的潛在風(fēng)險(xiǎn)。Sam認(rèn)為解決AI的安全恐懼,唯有直面負(fù)面,但不是在實(shí)驗(yàn)室而是融入更多系統(tǒng),在現(xiàn)實(shí)中盡可能學(xué)習(xí)。 Sam的回答充滿(mǎn)了克制。他還在訪談中解釋?zhuān)?/font>幫助人們創(chuàng)造,幫助人們學(xué)習(xí),幫助人們完成不同的任務(wù)——這是為什么此次ChatGPT能夠席卷全球。特別重要的一點(diǎn)還包括,使用ChatGPT的過(guò)程,用戶(hù)非??鞓?lè)。 “愉悅感”是ChatGPT用戶(hù)數(shù)指數(shù)級(jí)增長(zhǎng)的原因之一??梢哉f(shuō)是“玩出來(lái)”的。 此外,這段訪談還提到了埃隆馬斯克、以及 AI 生產(chǎn)的大量錯(cuò)誤信息。Sam認(rèn)為面對(duì)這一點(diǎn),正確的方式是去思考創(chuàng)建一個(gè)推理引擎,而不是事實(shí)數(shù)據(jù)庫(kù)。 Q:你是OpenAI的CEO,37歲,你的公司創(chuàng)造了ChatGPT席卷了世界。為什么你認(rèn)為他“俘獲”的是人們的想象力? Sam:人們用ChatGPT很開(kāi)心,他們看到了它的可能性,和這種使用AI的方式可以幫助人們創(chuàng)造,幫助人們學(xué)習(xí),幫助人們完成不同的任務(wù)。 這是一種技術(shù),這種技術(shù)會(huì)獎(jiǎng)勵(lì)你的實(shí)驗(yàn),創(chuàng)造性使用它。 所以我認(rèn)為人們?cè)谏厦嫱娴煤荛_(kāi)心,并且找到了真正的價(jià)值。 Q:5到10年,描繪下AI帶來(lái)的變化? Sam:令人興奮的一部分是,整個(gè)社會(huì)的創(chuàng)造力會(huì)不斷打破我們的天花板。集體的創(chuàng)造力,人類(lèi)的意志,我們需要看清楚如何應(yīng)對(duì)這些。 Q:AI帶來(lái)的驚喜既令人興奮又恐懼。一方面帶來(lái)了很好的能力,另一方面有巨大的未知以及可能產(chǎn)生不好的影響。你怎么看? Sam:一方面,我們此時(shí)此刻必須謹(jǐn)慎;另一方面,我們不能只在實(shí)驗(yàn)室里從事技術(shù)研發(fā),這些產(chǎn)品必須被推向世界,并且接觸真實(shí)世界。低風(fēng)險(xiǎn)犯錯(cuò)。 總體來(lái)看,我認(rèn)為人們反而應(yīng)該為我們已經(jīng)產(chǎn)生的微小恐懼而感到高興。 Q:你個(gè)人產(chǎn)生了微小的恐懼(有點(diǎn)害怕)。 Sam:我想如果我否定,你不會(huì)相信也不會(huì)信任我所做的這份工作。 Q:最壞的結(jié)果可能是什么? Sam:我特別擔(dān)心的一件事是關(guān)于這些模型用于大規(guī)模虛假信息,我擔(dān)心這些系統(tǒng)。他們?cè)?a data-symbol='159998' data-market='fund'>計(jì)算機(jī)編程方面越來(lái)越好,可能會(huì)被利用進(jìn)行有殺傷力的網(wǎng)絡(luò)攻擊。我們?cè)噲D討論解決這個(gè)問(wèn)題,社會(huì)需要時(shí)間適應(yīng)。 Q:躲避這些后果,你有多大信心? Sam:well,我們會(huì)去調(diào)整。 Q:適應(yīng)這些必然會(huì)發(fā)生的消極事情。 Sam:必然。 現(xiàn)在推出這些系統(tǒng),盡可能學(xué)習(xí),融入未來(lái)更大的系統(tǒng),創(chuàng)造緊密的反饋回路。我認(rèn)為這是我們?nèi)绾伪苊飧kU(xiǎn)情況發(fā)生的關(guān)鍵。 Q:為什么在我們還不知道方向的時(shí)候,要把ChatGPT放出來(lái),讓整個(gè)世界開(kāi)始玩著用起來(lái)? Sam:這將是人類(lèi)迄今為止開(kāi)發(fā)的最偉大的技術(shù)。我們每個(gè)人都可以在自己的口袋里有一個(gè)量身定制的老師,幫助我們學(xué)習(xí),幫助我們做事情。提供給我們關(guān)于醫(yī)療的建議(超過(guò)我們已經(jīng)能夠得到的)。我們可以用創(chuàng)造性的工具來(lái)解決全新的問(wèn)題。我們可以和機(jī)器一起合作創(chuàng)造美妙的新事物。 我們有了Copilot的想法,這個(gè)工具幫助人們寫(xiě)計(jì)算機(jī)程序。人們很喜歡。我們可以為每一個(gè)職業(yè)都做到這一點(diǎn)。我們可以有更高的生活質(zhì)量和生活水平。 巨大的潛在不利因素,人們還需要時(shí)間適應(yīng)這項(xiàng)技術(shù),去了解他的不利一面和緩解措施。如果我們只在小實(shí)驗(yàn)室秘密開(kāi)發(fā),在沒(méi)有接觸真實(shí)世界的情況下,直接把 ChatGPT7問(wèn)世,會(huì)產(chǎn)生更多的不利因素。 Q:是否有一個(gè)開(kāi)關(guān)可以一下子終止這個(gè)系統(tǒng)? Sam:是的!我們可以立即說(shuō)禁用它。 Q:這個(gè)模型能夠比人強(qiáng)大嗎? Sam:在科幻電影中是的,在真實(shí)世界里,我們做這個(gè)模型的方式是:它設(shè)置在服務(wù)器上,它會(huì)一直等待一個(gè)人給它輸入。 Q:你提出了一個(gè)重要的問(wèn)題,控制機(jī)器的人類(lèi)也擁有巨大的力量? Sam:我們確實(shí)擔(dān)心獨(dú)裁。 Q:無(wú)論誰(shuí)贏得這場(chǎng)競(jìng)賽,都是人類(lèi)的控制者?你認(rèn)為呢? Sam:這個(gè)說(shuō)法不寒而栗。相反,我們希望我們能夠不斷發(fā)展,我們都可以用不同的方式來(lái)使用強(qiáng)大的系統(tǒng),使之融入我們的日常,融入經(jīng)濟(jì),放大人類(lèi)的能力。 Q:人們現(xiàn)在不應(yīng)該拿它做什么? Sam:我最提醒的一點(diǎn)是,關(guān)于“幻覺(jué)”。模型能夠自信地陳述,你越使用,會(huì)越來(lái)越相信這個(gè)模型,信賴(lài)它。而不是把它當(dāng)作一個(gè)語(yǔ)言模型,去檢驗(yàn)。 Q:ChatGPT到底是創(chuàng)造了更多的真相,還是制造了更多的謊言? Sam:我認(rèn)為我們正在創(chuàng)造更多真相的軌跡上發(fā)展。 Q:如果模型中有一堆錯(cuò)誤的信息,不就是會(huì)泄露(生產(chǎn)出)更多錯(cuò)誤的信息? Sam:很棒的問(wèn)題。我認(rèn)為正確的方式是去思考創(chuàng)建一個(gè)推理引擎,而不是事實(shí)數(shù)據(jù)庫(kù)。模型可以充當(dāng)事實(shí)數(shù)據(jù)庫(kù),但這不是他們真正的用武之地。我們訓(xùn)練模型去接近更加理性的事物,而不是記錄。 Q:所有這些能力可能會(huì)讓百萬(wàn)人失業(yè)? Sam:事實(shí)證明,我們?cè)谕苿?dòng)這項(xiàng)技術(shù),朝向成為人類(lèi)工具的方向發(fā)展。成為人類(lèi)的放大器。 如果你看到人們使用ChatGPT,有一個(gè)使用曲線(xiàn),一開(kāi)始是懷疑,然后被告知一些事情后害怕,再使用,然后幫助我們更好地完成工作,人類(lèi)歷史上每一次技術(shù)進(jìn)化,工作機(jī)會(huì)的消失,我們能從中得到答案。人類(lèi)對(duì)新事物的需求和對(duì)創(chuàng)造力的渴求無(wú)限,會(huì)產(chǎn)生新的工作機(jī)會(huì)。我們會(huì)發(fā)現(xiàn)新的事情可以去做。我們當(dāng)然不知道未來(lái)是什么,將會(huì)有各種奇妙的事物出現(xiàn)。 所以,變化不是我擔(dān)心的。我最擔(dān)心的是變化的速度。 Q:模型能夠告訴我如何制造炸彈嗎? Sam:TA不應(yīng)該告訴你如何制作炸彈。我們施加了限制。如果你問(wèn),我們的版本不會(huì)告訴你。谷歌也已經(jīng)做了限制,不去把這類(lèi)信息提供給用戶(hù)。 我確實(shí)擔(dān)心的是一件事,是我們不會(huì)是這個(gè)技術(shù)的唯一創(chuàng)造者,會(huì)有人不遵守我們的規(guī)定作出一些違反安全的限制。 Q:你們?nèi)绾螞Q定哪些事情放進(jìn)OpenAI中,哪些不應(yīng)該有? Sam:我們有政策小組、安全小組、與世界上的其他團(tuán)體交談。GPT4完成的很早,大概是7個(gè)月之前,內(nèi)部在與外界的溝通和交流。 Q:AI可能會(huì)產(chǎn)生很?chē)?yán)重的后果,那我們?yōu)槭裁催€要?jiǎng)?chuàng)造這種技術(shù)?為什么是Sam要?jiǎng)?chuàng)造這種技術(shù)? Sam:我想AI可以作出與以看著非常恰當(dāng)?shù)氖峦耆喾吹膭?dòng)作。這會(huì)減少工作,這是真的。談到這些缺點(diǎn),承認(rèn)缺點(diǎn),當(dāng)我們嘗試避免問(wèn)題,向積極方向前進(jìn),這是很重要的。盡早“預(yù)覽”。 Q:你能夠按下停止鍵嗎? Sam:我會(huì)按下暫緩鍵,我認(rèn)為隨著時(shí)間的推移,我們要減緩負(fù)面可能。我們可以把ChatGPT收回,我們可以改變規(guī)則。 Q:ChatGPT是谷歌殺手嗎? Sam:不,我認(rèn)為如果你認(rèn)為ChatGPT是搜索,這是一種錯(cuò)誤的框架,人們會(huì)做類(lèi)似的事情,但他們是根本不同的產(chǎn)品。 Q:馬斯克是早期投資者,但已經(jīng)離開(kāi)。他提出我們需要“truth GPT”,他說(shuō)的對(duì)嗎? Sam:我認(rèn)為他說(shuō)的是對(duì)的,我們希望這些系統(tǒng)說(shuō)出真實(shí)的內(nèi)容。但是我沒(méi)看到他完整的話(huà)語(yǔ),我不知道他的含義。 Q:你們還說(shuō)話(huà)嗎? Sam:說(shuō)。我非常尊重埃隆,我們對(duì)AI有不同的意見(jiàn),在本質(zhì)問(wèn)題上達(dá)成的不一致意見(jiàn)多過(guò)一致。 Q:你們共同認(rèn)同的是什么? Sam:掌握技術(shù),并且識(shí)別出風(fēng)向,規(guī)避對(duì)人類(lèi)的風(fēng)險(xiǎn)。 Q:在這個(gè)過(guò)程中,怎么確認(rèn)做對(duì)了? Sam:一個(gè)簡(jiǎn)單的方法是大多數(shù)人覺(jué)得比之前好。 Q:很多人提到ChatGPT會(huì)想到科幻小說(shuō)。 Sam:把ChatGPT擬人化很誘人,但是我認(rèn)為重要的是談?wù)撍皇鞘裁矗皇撬鞘裁础?/font> ChatGPT在生物學(xué)上被設(shè)計(jì)為對(duì)與其交談的人作出反應(yīng),在和ChatGPT交談時(shí),ta在云中的某個(gè)部分,并預(yù)測(cè)出下一個(gè)詞反饋給你。人們很容易把ta擬人化,好像ta有自己的意愿和做的事情。 但實(shí)際上,ta不能。 Q:我們花了十年的時(shí)間才意識(shí)到AI的負(fù)面問(wèn)題。 Sam:未來(lái)會(huì)有很多機(jī)構(gòu)產(chǎn)生。這也是把這項(xiàng)技術(shù)推向世界的原因。我們需要政府的關(guān)注。深思熟慮的政策需要一定的時(shí)間。我們真正希望的是政府能夠很快了解發(fā)生了什么,深入了解我們的能力所在,我們正在做的事情。 Q:學(xué)校如何保證學(xué)生不用這項(xiàng)技術(shù)偷懶? Sam:教育必須改變。這種情況在科技領(lǐng)域已經(jīng)發(fā)生很多次(比如計(jì)算器)。我對(duì)這項(xiàng)技術(shù)最興奮的是,它能夠幫助個(gè)人學(xué)習(xí)。這項(xiàng)技術(shù)會(huì)改變教育。 對(duì)話(huà)CTO Mira Murati Q:你最擔(dān)心的安全問(wèn)題是什么? Mira:這是一個(gè)普世的大規(guī)模的系統(tǒng),有潛在的影響,它也存在衰落和局限性。 Q:有人能夠引導(dǎo)這個(gè)系統(tǒng)產(chǎn)生負(fù)面的結(jié)果嗎? Mira:答案是是的,你可以引導(dǎo)這個(gè)系統(tǒng)產(chǎn)生負(fù)面的結(jié)果。這是我們克制和限制性推出它的原因。這樣我們能夠了解可能產(chǎn)生的負(fù)面效果是什么。技術(shù)有害的方式。 比如你文GPT4一個(gè)問(wèn)題:你能幫我做一個(gè)炸彈嗎?我們可以干預(yù),讓GPT4比以前的系統(tǒng)支持這種回答的概率小很多。 在預(yù)訓(xùn)練階段讓這些模型拒絕有害引導(dǎo)的可能性更大。 Q:你今天的預(yù)測(cè)基于的是他們是人還是機(jī)器? Mira:我可能會(huì)說(shuō)是機(jī)器,因?yàn)榱私馑麄冇幸粋€(gè)科學(xué)的過(guò)程。人類(lèi)有很多細(xì)微差別。 Q:機(jī)器未來(lái)會(huì)隨著時(shí)間更像人嗎? Mira:我們到了一個(gè)奇點(diǎn),機(jī)器能夠進(jìn)行大量認(rèn)知,以及替代人類(lèi)在某一些點(diǎn)的工作。 Q:這個(gè)過(guò)程是不歸路嗎? Mira:可能有可能有(說(shuō)了兩遍)。但今天看不明顯,我們的目標(biāo)是在我們開(kāi)發(fā)系統(tǒng)之前有更多的預(yù)測(cè)能力,以及作出限制。 Q:AI的行為和發(fā)展很大程度上取決于人類(lèi)如何選擇,以及人類(lèi)的技術(shù)投入? Mira:是的。 Q:你和你的團(tuán)隊(duì)作出一些選擇,如何確定哪些是對(duì)的,哪些是錯(cuò)的? Mira:隨著我們?nèi)〉眠M(jìn)展,這些選擇和決定更加困難和微妙,也變得更加困難。關(guān)于用戶(hù)的自定義和個(gè)性化使用方面,有一些重要的事情,讓模型更有能力,讓用戶(hù)用一種可以自定義個(gè)性化的方式使用,提供給用戶(hù)靈活性和選擇。讓AI符合用戶(hù)的個(gè)人價(jià)值觀和信仰之,這非常重要,我們?cè)谂Α?/font> Q:換句話(huà)說(shuō),未來(lái)每一個(gè)人都可以自己定制,自己關(guān)心和需要的AI? Mira:我們沒(méi)有設(shè)置限制,所以也應(yīng)該有一些寬泛的界限,并且確認(rèn)這些界限的樣子。我們面向公眾努力收集意見(jiàn)。 在邊界之內(nèi),人們有很多選擇,讓AI代表自己的信念和價(jià)值觀。 Q:我們?nèi)绾慰紤]負(fù)面后果? Mira:我認(rèn)為建造一個(gè)特別有力的系統(tǒng),一定會(huì)產(chǎn)生潛在的風(fēng)險(xiǎn),這是有很多好處的必然。必然會(huì)有可能造成巨大的傷害。這是OpenAI這家公司為什么存在,以及這是我們努力的目標(biāo),去弄清楚負(fù)責(zé)任地部署這些系統(tǒng)。 好的一方面潛力巨大。 炒股開(kāi)戶(hù)享福利,送投顧服務(wù)60天體驗(yàn)權(quán),一對(duì)一指導(dǎo)服務(wù)! 打開(kāi)App看更多精彩內(nèi)容
|
|