垃圾进,垃圾出:官员们面临看似不可能的人工智能监管任务

已发表: 2023-05-24

随着 Chat GPT 等平台对人工智能的使用激增,美国立法者发现自己面临着一些新问题。 正如官员们不得不考虑社交网络的问责制一样,社交网络上出现的大部分内容都是由公众发布的,所以他们现在正在处理人工智能平台的问责制。

谁负责确保 AI 发布正确、无毒的信息? 没有人知道,至少现在还不知道,而且很容易看出原因。

人工智能的问题

通过对越来越多的数据集进行训练,AI 变得更加智能,而找到大量数据来训练 AI 的最简单方法是在线查看。 然而,问题是并非所有发布的都是事实信息,尤其是当你在处理社交媒体时。

在社交网络或其他地方发布的一些内容仅仅是观点而非事实。 另一方面,其中一些完全是错误的:要么是谣言之类的错误信息,要么更糟糕的是,恶意发布虚假信息。

不幸的是,AI 无法区分真假信息,除非人类告知它们信息是假的。 此外,许多对 Siri 和 Alexa 等人工智能助手的研究表明,人类的偏见是如何渗透到本应是无偏见的技术中的。

美国立法者还担心人工智能对国家安全和教育的潜在影响。 官员们尤其关注 ChatGPT,这是一种能够快速编写各种问题答案的人工智能程序。 它立即成为有史以来增长最快的消费者应用程序,在几个月内吸引了超过 1 亿的月活跃用户。

呼吁人工智能问责制

所有这些以及更多因素引发了许多关于人工智能问责制的问题。 4 月,隶属于商务部的国家电信和信息管理局呼吁公众就可能的问责措施提出意见。 该机构在 AI 的“问责机制”中引用了“日益增长的监管兴趣”。

具体来说,官员们想知道他们是否可以采取任何措施来确保“人工智能系统合法、有效、合乎道德、安全且在其他方​​面值得信赖”。 NTIA 管理员 Alan Davidson 告诉路透社,“负责任的”人工智能系统可能会提供“巨大的好处……”,但“公司和消费者需要能够信任它们。

乔·拜登总统此前曾表示,目前尚不清楚人工智能是否危险,并补充说科技公司“有责任……在公开产品之前确保其产品安全。”

人工智能模型是如何训练的

当然,人工智能只能与用于训练它的数据一样好。 Twitter 首席执行官埃隆·马斯克 (Elon Musk) 在指控微软非法使用该社交网络的数据来训练其 AI 模型后威胁要起诉微软。 一方面,马斯克的威胁表明科技巨头对其收集的数据拥有所有权——通常由用户免费提供。 这些科技巨头通过向其他公司收取使用收集到的数据的费用来大赚一笔,如果微软确实使用了 Twitter 的数据,这一定是马斯克对微软的想法。

据 CNBC 报道,人工智能专家将社交网络视为其模型的宝贵数据来源,因为它们通过非正式环境捕捉来回对话。 出于训练目的,必须向 AI 提供数 TB 的数据,其中大部分数据是从 Twitter、Reddit 和 StackOverflow 等网站上搜集而来的。

许多首批 AI 模型都是在大学和研究实验室开发的,通常没有任何利润预期。 然而,随着像微软这样的大型科技公司通过大量资本的投入进入这些人工智能模型,这些人工智能模型背后的团队开始寻求利润。

因此,训练这些 AI 所依据的数据的所有者开始要求付费才能访问他们的数据。 例如,Reddit 在 4 月份表示,它将开始向公司收取 AI 模型的费用,以便为培训目的接收对其数据的访问权限。 包括环球音乐集团和盖蒂图片社在内的其他公司要求为其用于训练人工智能模型的数据付费。

人工智能模型的关键问题

然而,抛开 AI 模型需要大量数据进行训练,没有太多讨论的一件事是社交网络是否真的是训练 AI 模型的最佳来源。 众所周知,社交网络是虚假信息和错误信息的巢穴。

人类并非万无一失,因此他们可能会不小心发布不正确的信息或分享谣言,这两者都不适合训练 AI 模型,因为它们不代表事实信息。 此外,我们回到人为偏见的问题,因为社交网络通常充满有偏见的帖子。

更糟糕的是,一些研究表明 Facebook 和其他社交网络正在积极压制保守派的声音。 如果这种情况继续下去,在社交网络上训练的人工智能模型将具有内在的自由主义偏见,这仅仅是因为它们接受训练的数据。

AI 被证明会传播虚假信息

即使撇开政治和自由派与保守派的问题,也无法验证用于训练 AI 模型的社交媒体帖子是否在共享事实信息。 社交网络是表达意见的地方,但人工智能需要的是事实,这样它们才能学会识别真假信息。

例如,斯坦福大学进行的一项研究表明,人工智能无法始终准确识别仇恨言论。 即使是人类也常常无法在这个问题上达成一致,因此人工智能模型本质上受限于告诉它什么是仇恨言论的人的偏见。

然而,错误信息或虚假信息的问题可能是一个更大的问题。 例如,一项研究发现,当受命撰写有关前纽约市市长迈克尔布隆伯格的新闻文章时,ChatGPT 往往会编造虚假的匿名消息来源。 据美国全国广播公司纽约报道,事实上,那些所谓的“匿名消息来源”似乎“歪曲”了布隆伯格“利用他的财富影响公共政策”。

越来越多的研究表明,如果有机会,ChatGPT 及其后继者(如 ChatGPT-4)将传播虚假信息。 就目前的情况来看,这种人工智能的突然流行凸显了人们需要更多地了解人工智能的缺点,并深入研究如何训练它并可能对其进行监管。