ゴミの流入、ゴミの流出: 当局は AI を規制するという一見不可能に見える課題に直面している

公開: 2023-05-24

Chat GPT のようなプラットフォームを介した人工知能の使用が急増するにつれ、米国の議員たちはいくつかの新たな疑問に直面していることに気づきました。 当局は、表示されるコンテンツのほとんどが一般大衆によって投稿されたソーシャル ネットワークに対する説明責任を考慮する必要があったのと同じように、現在、AI プラットフォームに対する説明責任に取り組んでいます。

AI が正しく無害な情報を確実に出すようにする責任は誰にあるのでしょうか? 少なくとも現時点では誰も知りませんが、その理由は簡単にわかります。

人工知能の問題

AI は、より多くのデータセットでトレーニングすることでよりインテリジェントになります。AI をトレーニングするための膨大な量のデータを見つける最も簡単な方法は、オンラインで検索することです。 ただし、問題は、特にソーシャル メディアを扱う場合、投稿されるすべてが事実情報であるとは限らないことです。

ソーシャル ネットワークなどに投稿されるコンテンツの中には、事実ではなく単なる意見にすぎないものがあります。 一方で、その中には明らかに間違っているものもあります。噂などの誤った情報、あるいはさらに悪いことに、悪意を持って意図的に投稿された偽情報です。

残念ながら、人間が情報が虚偽であることをAIに知らせない限り、AIは真実の情報と虚偽の情報を区別することができません。 さらに、Siri や Alexa などの AI アシスタントに関する多くの研究では、バイアスがないはずのテクノロジーに人間のバイアスがどのように入り込む可能性があるかを実証しています。

米国の議員らは、人工知能が国家安全保障と教育に及ぼす潜在的な影響についても懸念している。 特に当局は、さまざまな質問に対する回答を迅速に作成できる AI プログラムである ChatGPT を懸念しています。 これはすぐに、これまでに記録された中で最も急速に成長している消費者向けアプリケーションとなり、数か月のうちに月間 1 億人を超えるアクティブ ユーザーを獲得しました。

AI に説明責任を求める

これらすべての要因およびその他の要因により、人工知能の説明責任について多くの疑問が生じます。 商務省の一部である国家電気通信情報局は4月、潜在的な責任措置について一般の意見を求めた。 同庁は、AIの「説明責任メカニズム」に対する「規制上の関心の高まり」を理由に挙げた。

具体的には、当局者らは「AIシステムが合法的、効果的、倫理的、安全であるなど、信頼できるものであること」を保証するための措置を講じることができるかどうか知りたいと考えている。 NTIA管理者のアラン・デイビッドソン氏はロイターに対し、「責任ある」人工知能システムは「多大なメリット」をもたらす可能性があるが、「企業と消費者は人工知能システムを信頼できる必要がある」と語った。

ジョー・バイデン大統領は以前、AIが危険かどうかは不明だと述べ、ハイテク企業には「製品を公開する前に安全であることを確認する責任がある」と付け加えた。

AI モデルのトレーニング方法

もちろん、人工知能は、それを訓練するために使用されるデータと同じくらい優れています。 TwitterのCEOイーロン・マスク氏は、AIモデルのトレーニングにソーシャルネットワークのデータを違法に使用しているとしてMicrosoftを告訴すると脅した。 一方で、マスク氏の脅威は、ビッグテックが収集したデータ(通常はユーザーから無料で提供される)に対する所有権を主張していることを示している。 これらの巨大テクノロジー企業は、収集したデータの使用に対して他の企業に料金を請求することで造幣局を稼いでいるが、これがマイクロソフトがツイッターのデータを使用した場合にマスク氏が念頭に置いていたものに違いない。

CNBC によると、AI 専門家は、ソーシャル ネットワークが非公式な環境を通じてやり取りをキャプチャするため、モデルの貴重なデータ ソースであると考えています。 AI にはトレーニング目的でテラバイト規模のデータを供給する必要があり、そのデータの多くは Twitter、Reddit、StackOverflow などのサイトから収集されます。

最初の AI モデルの多くは、通常は利益を期待せずに大学や研究所で開発されました。 しかし、マイクロソフトのようなビッグテック企業が多額の資本を注ぎ込んでこれらの AI モデルに参入するにつれ、これらの AI モデルの背後にあるグループは利益を求め始めています。

その結果、これらの AI のトレーニングに使用されているデータの所有者は、データへのアクセスに対する支払いを要求し始めています。 たとえばレディットは4月、トレーニング目的でデータにアクセスするためのAIモデルに対して企業に課金を開始すると発表した。 ユニバーサル ミュージック グループやゲッティ イメージズなどの他の企業も、人工知能モデルのトレーニングに使用されるデータに対する支払いを要求しています。

人工知能モデルに対する重要な質問

ただし、AI モデルが膨大な量のデータでトレーニングする必要性はさておき、あまり議論されていないことの 1 つは、ソーシャル ネットワークが本当に AI モデルをトレーニングするのに最適なソースであるかどうかです。 ソーシャルネットワークが偽情報や誤った情報の巣窟であることは周知の事実です。

人間は完全ではないため、誤って間違った情報を投稿したり、噂を共有したりする可能性がありますが、どちらも事実の情報を表していないため、AI モデルのトレーニングには適していません。 さらに、ソーシャルネットワークには通常、偏った投稿が溢れているため、人間の偏見の問題に戻ります。

さらに悪いことに、Facebook やその他のソーシャル ネットワークが保守的な声を積極的に沈黙させていることがいくつかの研究で示されているのです。 このままでは、ソーシャル ネットワークでトレーニングする AI モデルは、単にトレーニングに使用されたデータという理由で、本質的にリベラルなバイアスを持つことになります。

AIが虚偽の情報を拡散することが判明

政治やリベラル対保守の問題を脇に置いても、AI モデルのトレーニングに使用されているソーシャル メディアの投稿が事実の情報を共有しているかどうかを検証する方法はありません。 ソーシャル ネットワークは意見を表明する場所ですが、AI が真の情報と虚偽の情報を識別できるようにするために必要なのは事実です。

たとえば、スタンフォード大学で行われた研究では、AI がヘイトスピーチを常に正確に識別できるわけではないことが明らかになりました。 この問題については人間ですら同意できないことが多いため、人工知能モデルは本質的に、ヘイトスピーチの構成要素を人工知能モデルに伝えた人物の偏見に限定されます。

しかし、誤った情報や偽情報の問題はさらに大きな問題になる可能性があります。 たとえば、ある調査によると、ChatGPT は、元ニューヨーク市長のマイケル ブルームバーグに関するニュース記事を書く任務を負った場合、偽の匿名情報源をでっち上げる傾向があることがわかりました。 実際、NBCニューヨークによると、これらのいわゆる「匿名情報源」は、ブルームバーグを「公共政策に影響を与えるために富を利用した」として「串刺し」にしたようだという。

ChatGPT とその後継である ChatGPT-4 は、機会があれば誤った情報を拡散することを実証する研究が増えています。 現状では、この AI の突然の人気は、人工知能の欠点をより認識し、人工知能を訓練し、潜在的に規制する方法についてのさらなる研究の必要性を浮き彫りにしています。