在數(shù)字時(shí)代,人工智能掃盲至關(guān)重要。它包括了解人工智能的功能、負(fù)責(zé)任地使用人工智能以及在各個(gè)領(lǐng)域合乎道德地應(yīng)用人工智能。 這份報(bào)告提供了一個(gè)全面的視角,涵蓋了AI技術(shù)在不同領(lǐng)域的應(yīng)用、挑戰(zhàn)和政策建議,旨在為美國(guó)在AI領(lǐng)域的未來發(fā)展提供指導(dǎo)和政策框架。然而美國(guó)的各行業(yè)精英人士人士好像不買賬。 一、報(bào)告背景與基本理念 2024 年 12 月 17 日,由聯(lián)席主席 Jay Obernolte(加州共和黨)和 Ted Lieu(加州民主黨)領(lǐng)導(dǎo)的美國(guó)眾議院人工智能特別工作組發(fā)布了一份 253 頁(yè)的報(bào)告,概述了國(guó)會(huì)關(guān)于人工智能的建議。該文件闡述了“指導(dǎo)原則、66 項(xiàng)關(guān)鍵發(fā)現(xiàn)和 89 項(xiàng)建議,分為 15 章?!?/span> 報(bào)告建議,考慮到技術(shù)進(jìn)步的快速步伐將需要更多的靈活性和警覺性,國(guó)會(huì)應(yīng)避免一次性制定龐大的監(jiān)管框架。 報(bào)告指出,“國(guó)會(huì)應(yīng)采取靈活的方法,使我們能夠以適當(dāng)、有針對(duì)性和可實(shí)現(xiàn)的方式作出反應(yīng),并充分利用所有可用證據(jù)和見解。支持這種靈活范式需要持續(xù)學(xué)習(xí)和適應(yīng)。國(guó)會(huì)應(yīng)定期評(píng)估其政策的有效性,并根據(jù)人工智能技術(shù)和其影響的發(fā)展進(jìn)行更新?!?/span> 報(bào)告不贊成任何具體的立法條款。 其中 AI 在教育中的應(yīng)用被視為一個(gè)重點(diǎn)關(guān)注領(lǐng)域,關(guān)于教育與就業(yè)市場(chǎng),特設(shè)小組發(fā)現(xiàn):(1)人工智能在職場(chǎng)中越來越被雇主和雇員所使用;(2)培養(yǎng)國(guó)內(nèi)人工智能人才和持續(xù)的美國(guó)領(lǐng)導(dǎo)地位將需要顯著提高基礎(chǔ) STEM 教育和培訓(xùn);(3)美國(guó)人工智能領(lǐng)導(dǎo)地位將通過擁有更多技能的技術(shù)勞動(dòng)力得到加強(qiáng);(4)人工智能在美國(guó)的應(yīng)用需要人工智能素養(yǎng);(5)K-12 教育工作者需要資源來教授和推廣人工智能素養(yǎng)。 給教育行業(yè)的建議: (1)投資 K-12 STEM 和人工智能教育,拓寬參與范圍; (2)加強(qiáng)美國(guó)人工智能技能,提供所需的 AI 資源; (3)培養(yǎng)支持政府-大學(xué)-產(chǎn)業(yè)合作時(shí)的區(qū)域?qū)I(yè)知識(shí); (4)推廣全美人工智能素養(yǎng); (5)賦能美國(guó)教育者,提供人工智能培訓(xùn)和資源; (6)支持國(guó)家自然科學(xué)基金(NSF)課程開發(fā)。 二、教育以外其他十四個(gè)行業(yè)的發(fā)現(xiàn)與建議 關(guān)于政府機(jī)構(gòu)
建議:靈活的治理結(jié)構(gòu)、減輕行政負(fù)擔(dān)和官僚主義、支持國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)制定聯(lián)邦人工智能系統(tǒng)的指南,以及提高聯(lián)邦系統(tǒng)(包括聯(lián)邦人工智能系統(tǒng))的網(wǎng)絡(luò)安全。 聯(lián)邦對(duì)州法律的優(yōu)先權(quán)
建議:“研究各行業(yè)適用的 AI 法規(guī)。” 數(shù)據(jù)隱私
建議:“探索以隱私增強(qiáng)的方式促進(jìn)數(shù)據(jù)訪問的機(jī)制”,“確保隱私法律具有普遍適用性和技術(shù)中立性”,以及“國(guó)會(huì)還可以支持伙伴關(guān)系,以改善考慮隱私設(shè)計(jì)并利用新的隱私增強(qiáng)技術(shù)和技術(shù)的 AI 系統(tǒng)設(shè)計(jì)”。 國(guó)家安全
建議:“繼續(xù)監(jiān)督自主武器政策”和“支持在軍事背景下使用人工智能的國(guó)際合作?!?/span> 研究、開發(fā)與標(biāo)準(zhǔn)
建議:“增加大學(xué)研發(fā)(R&D)向市場(chǎng)的技術(shù)轉(zhuǎn)移”,“促進(jìn)人工智能(AI)研發(fā)的公私合作”,“堅(jiān)持由美國(guó)制定標(biāo)準(zhǔn)的做法”,“使國(guó)家人工智能戰(zhàn)略與更廣泛的美國(guó)技術(shù)戰(zhàn)略保持一致”,以及“聯(lián)邦科學(xué)機(jī)構(gòu)應(yīng)促進(jìn)其計(jì)算資源的訪問并促進(jìn)其數(shù)據(jù)的更大可用性?!?/span> 公民權(quán)利
建議:“在人工智能應(yīng)用于高度重要的決策時(shí),讓人類參與其中,積極識(shí)別和糾正潛在缺陷”,“機(jī)構(gòu)必須理解和防范在歧視性決策中使用人工智能”,以及“提高私營(yíng)部門在行業(yè)主導(dǎo)的技術(shù)標(biāo)準(zhǔn)制定和發(fā)展中的參與度,有助于為人工智能系統(tǒng)在決策中的正確使用提供嚴(yán)格的技術(shù)基礎(chǔ)?!?/span> 知識(shí)產(chǎn)權(quán)(IP)
建議:“明確知識(shí)產(chǎn)權(quán)法律法規(guī)及機(jī)構(gòu)活動(dòng)”和“適當(dāng)?shù)貞?yīng)對(duì) AI 生成深度偽造帶來的日益增長(zhǎng)的危害?!?/span> 內(nèi)容真實(shí)性
建議:“解決可證實(shí)的合成內(nèi)容的危害,而非推測(cè)性的危害”,“確定 AI 開發(fā)者、內(nèi)容制作者和內(nèi)容分發(fā)者在合成內(nèi)容方面的責(zé)任”,“審查與有害合成內(nèi)容相關(guān)的現(xiàn)有法律”,“確保受害者擁有必要的工具”,“國(guó)會(huì)應(yīng)與行業(yè)合作,支持一個(gè)針對(duì)合成內(nèi)容技術(shù)解決方案的標(biāo)準(zhǔn)化生態(tài)系統(tǒng),例如通過預(yù)標(biāo)準(zhǔn)化研究、公私合作伙伴關(guān)系、直接參與國(guó)際標(biāo)準(zhǔn)制定或制定自愿標(biāo)準(zhǔn)和指南來解決合成內(nèi)容”,“國(guó)會(huì)還應(yīng)探討是否授權(quán)支持政府采用和跨部門協(xié)調(diào)特定內(nèi)容認(rèn)證技術(shù)解決方案的活動(dòng)?!?/span> 開放系統(tǒng)和封閉系統(tǒng)
建議:“關(guān)注可證明的危害和物理威脅”,“根據(jù)人工智能能力評(píng)估化學(xué)、生物、輻射或核(CBRN)威脅”,以及“繼續(xù)監(jiān)測(cè)開源模型的風(fēng)險(xiǎn)?!?/span> 能源使用與數(shù)據(jù)中心
建議:“支持并增加聯(lián)邦對(duì)能夠促進(jìn)人工智能硬件創(chuàng)新、算法效率、能源技術(shù)開發(fā)和能源基礎(chǔ)設(shè)施的投資”,“加強(qiáng)追蹤和預(yù)測(cè)人工智能數(shù)據(jù)中心電力使用的工作”,“制定新的標(biāo)準(zhǔn)、指標(biāo)和定義分類法,以溝通相關(guān)的能源使用和效率指標(biāo)”,“確保人工智能和能源電網(wǎng)成為關(guān)于電網(wǎng)現(xiàn)代化和安全的更廣泛討論的一部分”,“確保新基礎(chǔ)設(shè)施的成本主要由那些獲得相關(guān)利益的患者承擔(dān)”,以及“推廣人工智能的更廣泛應(yīng)用,以提升能源基礎(chǔ)設(shè)施、能源生產(chǎn)和能源效率?!?/span> 小微企業(yè)
建議:“為小型企業(yè)采用人工智能提供資源”,“減輕小型企業(yè)的合規(guī)負(fù)擔(dān)”,以及“國(guó)家人工智能研究資源(NAIRR)試點(diǎn)可以通過提供難以獲取的數(shù)據(jù)和計(jì)算資源,促進(jìn)小型企業(yè)的人工智能采用?!?/span> 農(nóng)業(yè)
建議:“直接指示美國(guó)農(nóng)業(yè)部更好地利用人工智能進(jìn)行項(xiàng)目交付”和“繼續(xù)審查商品期貨交易委員會(huì)(CFTC)基于原則的框架在金融市場(chǎng)中捕捉由人工智能帶來的獨(dú)特風(fēng)險(xiǎn)的應(yīng)用?!?/span> 醫(yī)療保健
建議:“在多種部署條件下,創(chuàng)建激勵(lì)措施和指導(dǎo)方針,以鼓勵(lì)對(duì)醫(yī)療保健中的人工智能技術(shù)的風(fēng)險(xiǎn)管理,以支持人工智能的采用,提高隱私性,增強(qiáng)安全性,并防止不同的健康結(jié)果”,“支持與人工智能問題相關(guān)的責(zé)任標(biāo)準(zhǔn)的制定”,“支持適當(dāng)?shù)闹Ц稒C(jī)制,同時(shí)不扼殺創(chuàng)新”,以及“國(guó)會(huì)應(yīng)探討是否需要新的法律來支持 FDA 對(duì)健康人工智能工具的市場(chǎng)后評(píng)估過程?!?/span> 金融服務(wù)
建議:“鼓勵(lì)并支持監(jiān)管機(jī)構(gòu)提高其在人工智能領(lǐng)域的專業(yè)知識(shí)”,“在金融服務(wù)和住房領(lǐng)域使用人工智能時(shí),維持消費(fèi)者和投資者的保護(hù)措施”,“考慮監(jiān)管'沙盒’的益處,這可能允許監(jiān)管機(jī)構(gòu)對(duì)人工智能應(yīng)用進(jìn)行實(shí)驗(yàn)”,以及“確保監(jiān)管措施不會(huì)阻礙小型企業(yè)采用人工智能工具” 這份報(bào)告提供了一個(gè)全面的視角,涵蓋了AI技術(shù)在不同領(lǐng)域的應(yīng)用、挑戰(zhàn)和政策建議,旨在為美國(guó)在AI領(lǐng)域的未來發(fā)展提供指導(dǎo)和政策框架。 三、社會(huì)人士對(duì)這份報(bào)告的評(píng)論 Tech Policy Press 從不同專家和組織收集了數(shù)份對(duì)該報(bào)告的反應(yīng): 資訊來源:https://www./reactions-to-the-bipartisan-us-house-ai-task-force-report/亞歷克斯·奧爾特,法律權(quán)利民權(quán)律師委員會(huì)政策顧問:盡管這份報(bào)告是一個(gè)積極的步驟,但我們專注于確保國(guó)會(huì)不會(huì)忽視人工智能特別工作組揭露的真正問題。我們不能允許國(guó)會(huì)簽署為人工智能發(fā)展提供資金的空白支票,而黑人及其他有色人種社區(qū)卻要承擔(dān)人工智能應(yīng)用的代價(jià)?!侗娮h院特別工作組報(bào)告》認(rèn)識(shí)到,為了使這些技術(shù)真正惠及每個(gè)人,信任是必要的。如果個(gè)人繼續(xù)被收集數(shù)據(jù)來構(gòu)建對(duì)他們起反作用的工具,或者被蒙在鼓里,不知道人工智能工具如何以及何時(shí)決定他們生活的各個(gè)方面,那么這種情況就不會(huì)發(fā)生。凱特·布倫南,AI Now 研究所副所長(zhǎng):雙邊眾議院 AI 特別工作組發(fā)布了一份 253 頁(yè)的報(bào)告,指出快速采用 AI 的許多危害,同時(shí)提供了很少的有意義的政策建議來應(yīng)對(duì)這一問題。雖然看到報(bào)告闡述了算法決策帶來的危害——如偏見、歧視和工人失業(yè)——是令人鼓舞的,但報(bào)告在支持 AI 采用和加速方面明顯偏頗,即使在那些大規(guī)模 AI 系統(tǒng)的好處尚未得到充分證明的行業(yè)也是如此。阿米娜·法茲拉赫,科技政策倡導(dǎo)負(fù)責(zé)人,Common Sense Media:人工智能素養(yǎng)的建議非常重要,因?yàn)槿斯ぶ悄芩仞B(yǎng)通過幫助消費(fèi)者理解人工智能的工作原理,使其在使用人工智能時(shí)做出明智的決定,并識(shí)別出風(fēng)險(xiǎn),如偏見、隱私問題和操縱性做法,從而建立信任。我們支持工作組關(guān)于投資于教授兒童數(shù)字技能的課程并為教育工作者提供專業(yè)發(fā)展的建議。然而,并且非常重要的一點(diǎn)是,報(bào)告沒有提及如何利用現(xiàn)有項(xiàng)目的機(jī)會(huì),例如由數(shù)字公平法案設(shè)立的項(xiàng)目,以擴(kuò)大和改善所有年齡段用戶的 AI 素養(yǎng)。Damon T. Hewitt,律師委員會(huì)法律下民權(quán)主席兼執(zhí)行董事:我們很高興這份報(bào)告強(qiáng)調(diào)了我們多年來一直在說的事情——為了使人工智能惠及我們所有人,國(guó)會(huì)必須采取行動(dòng),確保這項(xiàng)新興技術(shù)不會(huì)侵犯我們的公民權(quán)利?,F(xiàn)在國(guó)會(huì)兩院都已分析了這個(gè)問題,是時(shí)候采取行動(dòng)了。像《人工智能公民權(quán)利法案》這樣的細(xì)致且全面的立法必須立即跟進(jìn),以解決人工智能已知造成的危害,尤其是對(duì)黑人及有色人種社區(qū)的危害。如果沒有有意的保障和具體的立法步驟,這些技術(shù)將被用作系統(tǒng)性壓迫的工具。不容有失;國(guó)會(huì)必須迅速果斷地采取行動(dòng),保護(hù)我們國(guó)家人民在數(shù)字時(shí)代的權(quán)利。Courtney C. Radsch,中心主任,新聞與自由中心(以及 Tech Policy Press 董事會(huì)成員):我很高興看到關(guān)于農(nóng)業(yè)的部分,鑒于我們了解在我們食品系統(tǒng)中少數(shù)幾家大型農(nóng)業(yè)公司的主導(dǎo)地位及其產(chǎn)生的大量數(shù)據(jù),以及數(shù)據(jù)在人工智能系統(tǒng)中的重要性。哇,真讓人失望。我向領(lǐng)導(dǎo) Open Market 食品和農(nóng)業(yè)工作的同事克萊爾·凱洛韋詢問了她的看法?!?span>這份報(bào)告的農(nóng)業(yè)部分忽略了精準(zhǔn)農(nóng)業(yè)領(lǐng)域的競(jìng)爭(zhēng)動(dòng)態(tài)。目前,主導(dǎo)的農(nóng)業(yè)企業(yè)控制著訓(xùn)練和運(yùn)行人工智能驅(qū)動(dòng)的精準(zhǔn)農(nóng)業(yè)程序所需的臨界數(shù)據(jù)。這些公司有利潤(rùn)動(dòng)機(jī)建議農(nóng)民使用他們的產(chǎn)品,并在他們的 AI 驅(qū)動(dòng)的農(nóng)場(chǎng)管理方案中使用生態(tài)破壞性的單一作物模式。美國(guó)農(nóng)業(yè)部和政策制定者應(yīng)該推廣更多農(nóng)業(yè)數(shù)據(jù)的開放訪問,以促進(jìn)更具競(jìng)爭(zhēng)力的數(shù)字農(nóng)業(yè)市場(chǎng),進(jìn)而推廣更多樣化和可持續(xù)的農(nóng)業(yè)方法?!北娮h院錯(cuò)過了一個(gè)巨大的機(jī)會(huì)來解決影響我們支付雞蛋價(jià)格的問題(這是最新總統(tǒng)競(jìng)選中的一個(gè)反復(fù)出現(xiàn)的主題)以及我們最喜歡的家庭傳統(tǒng)。同樣,知識(shí)產(chǎn)權(quán)部分令人失望。報(bào)告指出需要投入和努力來“識(shí)別、收集、清洗、整理以及其他開發(fā)專業(yè)訓(xùn)練數(shù)據(jù)”,然而對(duì)于 AI 公司透明度要求的潛在緩解因素卻幾乎未予認(rèn)可。關(guān)于權(quán)利所有者的部分并未同樣認(rèn)可涉及例如收集新聞、學(xué)習(xí)如何行動(dòng)或?qū)憰璧耐度牒团Α?/span>盡管關(guān)于深度偽造的討論提到藝術(shù)家和表演者從他們的聲音和形象中獲得收入,但這只是遠(yuǎn)未充分解決的問題的一個(gè)方面,報(bào)告中也沒有提及新聞業(yè)。瑪雅·威利,美國(guó)民權(quán)與人類權(quán)利領(lǐng)導(dǎo)會(huì)議的主席兼首席執(zhí)行官:任務(wù)小組闡述了教育、培訓(xùn)和提升學(xué)生和工人的技能的必要性,以確保每個(gè)人都能享受到人工智能帶來的經(jīng)濟(jì)繁榮。報(bào)告的作者還明確指出,數(shù)據(jù)隱私和人工智能系統(tǒng)密不可分,并承認(rèn)當(dāng)我們的個(gè)人數(shù)據(jù)被濫用時(shí)會(huì)發(fā)生許多危害。還存在明顯的差距。我們需要具體的措施來解決可能存在缺陷的人工智能,如定期測(cè)試、評(píng)估和禁止有偏見的 AI。我們還需要具體措施來對(duì)抗人工智能生成的虛假信息,這些虛假信息破壞了人們投票的權(quán)利,包括識(shí)別和解決生成式 AI、操縱媒體和深度偽造的使用方法。如果 AI 的開發(fā)者和部署者行動(dòng)過快,不顧傷害誰(shuí)或什么而破壞事物,我們都會(huì)得不償失。這不是走向公平的道路。這不是走向真正創(chuàng)新的道路。我們將繼續(xù)對(duì)決策者負(fù)責(zé),按照本報(bào)告中概述的價(jià)值觀進(jìn)行問責(zé),并為每個(gè)人的公平 AI 未來而奮斗?!?/span> |
|