쓰레기가 들어오고 쓰레기가 나옴: 관리들은 AI를 규제하는 불가능해 보이는 작업에 직면

게시 됨: 2023-05-24

Chat GPT와 같은 플랫폼을 통한 인공 지능 사용이 급증함에 따라 미국 의원들은 몇 가지 새로운 질문에 직면하게 되었습니다. 공무원들이 등장하는 대부분의 콘텐츠가 일반 대중에 의해 게시된 소셜 네트워크에 대한 책임을 고려해야 했던 것처럼 이제는 AI 플랫폼에 대한 책임을 다루고 있습니다.

AI가 정확하고 유해하지 않은 정보를 제공하도록 보장하는 책임은 누구에게 있습니까? 적어도 아직은 아무도 모르고 그 이유를 쉽게 알 수 있습니다.

인공 지능의 문제

AI는 점점 더 많은 데이터 세트에 대한 교육을 통해 더욱 지능화되며, AI를 교육할 엄청난 양의 데이터를 찾는 가장 쉬운 방법은 온라인을 살펴보는 것입니다. 그러나 문제는 게시된 모든 것이 사실 정보가 아니라는 것입니다. 특히 소셜 미디어를 다룰 때는 더욱 그렇습니다.

소셜 네트워크나 다른 곳에 게시된 콘텐츠 중 일부는 사실이 아니라 의견일 뿐입니다. 반면에 그 중 일부는 완전히 잘못된 것입니다. 소문과 같은 잘못된 정보이거나 더 나쁜 것은 악의적인 의도로 의도적으로 게시된 허위 정보입니다.

안타깝게도 AI는 인간이 정보가 거짓이라고 알려주지 않는 한 참 정보와 거짓 정보를 구분할 수 없습니다. 또한 Siri 및 Alexa와 같은 AI 비서에 대한 많은 연구는 인간의 편견이 편견이 없어야 하는 기술에 어떻게 스며들 수 있는지 보여주었습니다.

미국 국회의원들도 인공 지능이 국가 안보와 교육에 미칠 잠재적 영향에 대해 우려하고 있습니다. 특히 다양한 질문에 대한 답을 빠르게 작성할 수 있는 AI 프로그램인 챗GPT에 대해 관계자들이 우려하고 있다. 그것은 즉시 지금까지 기록된 가장 빠르게 성장하는 소비자 애플리케이션이 되었으며, 몇 달 만에 1억 명 이상의 월간 활성 사용자를 끌어들였습니다.

AI의 책임 요구

이러한 모든 요소는 인공 지능의 책임에 대해 많은 질문을 제기합니다. 지난 4월 상무부 산하 국가통신정보국(National Telecommunications and Information Administration)은 잠재적 책임성 조치에 대한 대중의 의견을 요청했습니다. 이 기관은 AI에 대한 "책임 메커니즘"에서 "증가하는 규제 관심"을 언급했습니다.

특히 공무원들은 "AI 시스템이 합법적이고 효과적이며 윤리적이며 안전하고 신뢰할 수 있음"을 보장하기 위한 조치를 취할 수 있는지 알고 싶어합니다. NTIA의 앨런 데이비슨(Alan Davidson) 국장은 로이터 통신에 "책임감 있는" 인공 지능 시스템이 "엄청난 혜택"을 제공할 수 있지만 "기업과 소비자는 이를 신뢰할 수 있어야 합니다.

조 바이든 대통령은 이전에 AI가 위험한지 여부가 불분명하다고 말하면서 기술 회사는 "제품을 공개하기 전에 제품이 안전한지 확인해야 할 책임이 있습니다."라고 덧붙였습니다.

AI 모델이 훈련되는 방식

물론 인공 지능은 훈련에 사용되는 데이터만큼만 우수할 수 있습니다. Twitter CEO Elon Musk는 Microsoft가 소셜 네트워크의 데이터를 불법적으로 AI 모델을 교육하는 데 사용했다고 비난한 후 Microsoft를 고소하겠다고 위협했습니다. 한편으로 Musk의 위협은 수집한 데이터에 대한 Big Tech의 소유권 주장을 나타냅니다. 일반적으로 사용자가 무료로 제공합니다. 이 기술 거대 기업은 수집된 데이터를 사용하는 다른 회사에 비용을 청구하여 돈을 벌고 있으며 머스크가 트위터의 데이터를 사용했다면 Microsoft에 대해 염두에 두었던 것임에 틀림없습니다.

CNBC에 따르면 AI 전문가들은 비공식적인 환경을 통해 주고받는 대화를 캡처하기 때문에 소셜 네트워크를 모델에 대한 귀중한 데이터 소스로 보고 있습니다. AI는 훈련 목적으로 테라바이트의 데이터를 공급받아야 하며 그 데이터의 대부분은 Twitter, Reddit 및 StackOverflow와 같은 사이트에서 스크랩됩니다.

최초의 AI 모델 중 다수는 일반적으로 수익에 대한 기대 없이 대학 및 연구소에서 개발되었습니다. 그러나 마이크로소프트와 같은 빅 테크 기업들이 막대한 자본을 투입해 AI 모델에 뛰어들면서 AI 모델 배후에 있는 그룹들은 이익을 찾기 시작했다.

결과적으로 이러한 AI가 훈련되는 데이터의 소유자는 데이터 액세스에 대한 대가를 요구하기 시작했습니다. 예를 들어 Reddit은 지난 4월 AI 모델이 교육 목적으로 데이터에 액세스할 수 있도록 회사에 비용을 청구할 것이라고 밝혔습니다. Universal Music Group 및 Getty Images를 포함한 다른 회사는 인공 지능 모델을 교육하는 데 사용되는 데이터에 대한 지불을 요구하고 있습니다.

인공 지능 모델에 대한 중요한 질문

그러나 AI 모델이 방대한 양의 데이터를 훈련해야 할 필요성을 제쳐두고 많이 논의되지 않는 한 가지는 소셜 네트워크가 AI 모델을 훈련시키기 위한 최고의 소스인지 여부입니다. 소셜 네트워크가 잘못된 정보와 잘못된 정보의 소굴이라는 것은 비밀이 아닙니다.

인간은 오류가 없기 때문에 실수로 잘못된 정보를 게시하거나 소문을 공유할 수 있으며, 둘 다 사실 정보를 나타내지 않기 때문에 AI 모델 교육에 적합하지 않습니다. 또한 소셜 네트워크는 일반적으로 편향된 게시물로 가득 차 있기 때문에 인간의 편향 문제로 돌아갑니다.

설상가상으로 일부 연구에 따르면 Facebook 및 기타 소셜 네트워크가 적극적으로 보수적 목소리를 잠재우고 있다고 합니다. 이것이 계속된다면 소셜 네트워크에서 훈련하는 AI 모델은 단순히 훈련된 데이터 때문에 본질적으로 자유로운 편향을 갖게 될 것입니다.

거짓 정보를 퍼뜨리는 것으로 보이는 AI

정치와 진보 대 보수의 문제를 제쳐두더라도 AI 모델을 교육하는 데 사용되는 소셜 미디어 게시물이 사실 정보를 공유하고 있는지 확인할 방법이 없습니다. 소셜 네트워크는 의견을 표현하는 곳이지만 AI에게 필요한 것은 진실과 거짓 정보를 식별하는 방법을 배울 수 있도록 사실입니다.

예를 들어, 스탠포드 대학에서 실시한 연구에 따르면 AI가 증오심 표현을 항상 정확하게 식별할 수는 없습니다. 인간조차도 이 문제에 동의하지 못하는 경우가 많기 때문에 인공 지능 모델은 본질적으로 증오심 표현을 구성하는 것을 말한 사람 또는 사람들의 편견으로 제한됩니다.

그러나 잘못된 정보나 허위 정보의 문제는 더 큰 문제일 수 있습니다. 예를 들어, 한 연구에서는 ChatGPT가 Michael Bloomberg 전 뉴욕 시장에 대한 뉴스 기사를 작성할 때 가짜 익명 소스를 구성하는 경향이 있음을 발견했습니다. 실제로 NBC New York에 따르면 이러한 소위 "익명 출처"는 Bloomberg가 "공공 정책에 영향을 미치기 위해 그의 부를 사용"했다는 이유로 "꼬챙이"로 나타났습니다.

ChatGPT와 ChatGPT-4와 같은 후속 제품을 보여주는 점점 더 많은 연구가 기회가 주어지면 잘못된 정보를 퍼뜨릴 것입니다. 현재 상황에서 이 AI의 갑작스러운 인기는 인공 지능의 단점에 대한 더 큰 인식과 그것을 훈련하고 잠재적으로 규제하는 방법에 대한 더 많은 연구의 필요성을 강조합니다.