垃圾進,垃圾出:官員們面臨看似不可能的人工智能監管任務

已發表: 2023-05-24

隨著 Chat GPT 等平台對人工智能的使用激增,美國立法者發現自己面臨著一些新問題。 正如官員們不得不考慮社交網絡的問責制一樣,社交網絡上出現的大部分內容都是由公眾發布的,所以他們現在正在處理人工智能平台的問責制。

誰負責確保 AI 發布正確、無毒的信息? 沒有人知道,至少現在還不知道,而且很容易看出原因。

人工智能的問題

通過對越來越多的數據集進行訓練,AI 變得更加智能,而找到大量數據來訓練 AI 的最簡單方法是在線查看。 然而,問題是並非所有發布的都是事實信息,尤其是當你在處理社交媒體時。

在社交網絡或其他地方發布的一些內容僅僅是觀點而非事實。 另一方面,其中一些完全是錯誤的:要么是謠言之類的錯誤信息,要么更糟糕的是,惡意發布虛假信息。

不幸的是,AI 無法區分真假信息,除非人類告知它們信息是假的。 此外,許多對 Siri 和 Alexa 等人工智能助手的研究表明,人類的偏見是如何滲透到本應是無偏見的技術中的。

美國立法者還擔心人工智能對國家安全和教育的潛在影響。 官員們尤其關注 ChatGPT,這是一種能夠快速編寫各種問題答案的人工智能程序。 它立即成為有史以來增長最快的消費者應用程序,在幾個月內吸引了超過 1 億的月活躍用戶。

呼籲人工智能問責制

所有這些以及更多因素引發了許多關於人工智能問責制的問題。 4 月,隸屬於商務部的國家電信和信息管理局呼籲公眾就可能的問責措施提出意見。 該機構在 AI 的“問責機制”中引用了“日益增長的監管興趣”。

具體來說,官員們想知道他們是否可以採取任何措施來確保“人工智能係統合法、有效、合乎道德、安全且在其他方​​面值得信賴”。 NTIA 管理員 Alan Davidson 告訴路透社,“負責任的”人工智能係統可能會提供“巨大的好處……”,但“公司和消費者需要能夠信任它們。

喬·拜登總統此前曾表示,目前尚不清楚人工智能是否危險,並補充說科技公司“有責任……在公開產品之前確保其產品安全。”

人工智能模型是如何訓練的

當然,人工智能只能與用於訓練它的數據一樣好。 Twitter 首席執行官埃隆·馬斯克 (Elon Musk) 在指控微軟非法使用該社交網絡的數據來訓練其 AI 模型後威脅要起訴微軟。 一方面,馬斯克的威脅表明科技巨頭對其收集的數據擁有所有權——通常由用戶免費提供。 這些科技巨頭通過向其他公司收取使用收集到的數據的費用來賺大錢,如果微軟確實使用了 Twitter 的數據,這一定是馬斯克對微軟的想法。

據 CNBC 報導,人工智能專家將社交網絡視為其模型的寶貴數據來源,因為它們通過非正式環境捕捉來回對話。 出於訓練目的,必須向 AI 提供數 TB 的數據,其中大部分數據是從 Twitter、Reddit 和 StackOverflow 等網站上蒐集而來的。

許多首批 AI 模型都是在大學和研究實驗室開發的,通常沒有任何利潤預期。 然而,隨著像微軟這樣的大型科技公司通過大量資本的投入進入這些人工智能模型,這些人工智能模型背後的團隊開始尋求利潤。

因此,訓練這些 AI 所依據的數據的所有者開始要求付費才能訪問他們的數據。 例如,Reddit 在 4 月份表示,它將開始向公司收取 AI 模型的費用,以便為培訓目的接收對其數據的訪問權限。 包括環球音樂集團和蓋蒂圖片社在內的其他公司要求為其用於訓練人工智能模型的數據付費。

人工智能模型的關鍵問題

然而,拋開 AI 模型需要大量數據進行訓練,沒有太多討論的一件事是社交網絡是否真的是訓練 AI 模型的最佳來源。 眾所周知,社交網絡是虛假信息和錯誤信息的巢穴。

人類並非萬無一失,因此他們可能會不小心發布不正確的信息或分享謠言,這兩者都不適合訓練 AI 模型,因為它們不代表事實信息。 此外,我們回到人為偏見的問題,因為社交網絡通常充滿有偏見的帖子。

更糟糕的是,一些研究表明 Facebook 和其他社交網絡正在積極壓制保守派的聲音。 如果這種情況繼續下去,在社交網絡上訓練的人工智能模型將具有內在的自由主義偏見,這僅僅是因為它們接受訓練的數據。

AI 被證明會傳播虛假信息

即使撇開政治和自由派與保守派的問題,也無法驗證用於訓練 AI 模型的社交媒體帖子是否在共享事實信息。 社交網絡是表達意見的地方,但人工智能需要的是事實,這樣它們才能學會識別真假信息。

例如,斯坦福大學進行的一項研究表明,人工智能無法始終準確識別仇恨言論。 即使是人類也常常無法在這個問題上達成一致,因此人工智能模型本質上受限於告訴它什麼是仇恨言論的人的偏見。

然而,錯誤信息或虛假信息的問題可能是一個更大的問題。 例如,一項研究發現,當受命撰寫有關前紐約市市長邁克爾布隆伯格的新聞文章時,ChatGPT 往往會編造虛假的匿名消息來源。 據美國全國廣播公司紐約報導,事實上,那些所謂的“匿名消息來源”似乎“歪曲”了布隆伯格“利用他的財富影響公共政策”。

越來越多的研究表明,如果有機會,ChatGPT 及其後繼者(如 ChatGPT-4)將傳播虛假信息。 就目前的情況來看,這種人工智能的突然流行凸顯了人們需要更多地了解人工智能的缺點,並深入研究如何訓練它並可能對其進行監管。