Lixo que entra, lixo que sai: as autoridades enfrentam uma tarefa aparentemente impossível de regulamentar a IA

Publicados: 2023-05-24

À medida que o uso de inteligência artificial por meio de plataformas como o Chat GPT dispara, os legisladores dos EUA se deparam com algumas novas questões. Assim como os funcionários tiveram que considerar a responsabilidade pelas redes sociais, onde a maior parte do conteúdo que aparece foi postado pelo público em geral, agora eles estão lidando com a responsabilidade pelas plataformas de IA.

Quem é responsável por garantir que as IAs divulguem informações corretas e não tóxicas? Ninguém sabe, pelo menos ainda não, e é fácil perceber porquê.

O problema da inteligência artificial

As IAs se tornam mais inteligentes por meio do treinamento em mais e mais conjuntos de dados, e a maneira mais fácil de encontrar enormes quantidades de dados para treinar uma IA é procurar online. No entanto, o problema é que nem tudo o que é publicado são informações factuais, especialmente quando se trata de mídias sociais.

Parte do conteúdo postado – nas redes sociais ou em qualquer outro lugar – é meramente opinião e não fato. Por outro lado, algumas delas estão simplesmente erradas: desinformação como rumores ou, pior ainda, desinformação postada deliberadamente com intenção maliciosa.

Infelizmente, os AIs não podem dizer a diferença entre informações verdadeiras e falsas, a menos que um humano os informe que a informação é falsa. Além disso, muitos estudos de assistentes de IA como Siri e Alexa demonstraram como os preconceitos humanos podem se infiltrar na tecnologia, que deveria ser imparcial.

Os legisladores dos EUA também estão preocupados com os possíveis impactos da inteligência artificial na segurança nacional e na educação. Em particular, os funcionários estão preocupados com o ChatGPT, um programa de IA capaz de escrever rapidamente respostas para uma ampla variedade de perguntas. Tornou-se imediatamente o aplicativo de consumo de crescimento mais rápido já registrado, atraindo mais de 100 milhões de usuários ativos mensais em questão de meses.

Chamadas por responsabilidade na IA

Todos esses fatores e outros levantam muitas questões sobre a responsabilidade pela inteligência artificial. Em abril, a Administração Nacional de Telecomunicações e Informação, que faz parte do Departamento de Comércio, solicitou contribuições do público sobre possíveis medidas de responsabilização. A agência citou “crescente interesse regulatório” em um “mecanismo de responsabilidade” para IA.

Especificamente, as autoridades querem saber se poderiam adotar medidas para garantir “que os sistemas de IA sejam legais, eficazes, éticos, seguros e confiáveis”. O administrador da NTIA, Alan Davidson, disse à Reuters que sistemas de inteligência artificial “responsáveis” podem oferecer “enormes benefícios…”, mas “empresas e consumidores precisam poder confiar neles.

O presidente Joe Biden havia dito anteriormente que não está claro se a IA é perigosa, acrescentando que as empresas de tecnologia “têm a responsabilidade… de garantir que seus produtos sejam seguros antes de torná-los públicos”.

Como os modelos de IA são treinados

Claro, uma inteligência artificial só pode ser tão boa quanto os dados usados ​​para treiná-la. O CEO do Twitter, Elon Musk, ameaçou processar a Microsoft após acusá-la de usar ilegalmente os dados da rede social para treinar seu modelo de IA. Por um lado, a ameaça de Musk é indicativa da reivindicação de propriedade da Big Tech sobre os dados coletados - geralmente fornecidos gratuitamente por seus usuários. Esses gigantes da tecnologia ganham dinheiro cobrando de outras empresas pelo uso dos dados coletados, e isso deve ser o que Musk tinha em mente para a Microsoft se ela usasse os dados do Twitter.

De acordo com a CNBC, os especialistas em IA veem as redes sociais como fontes valiosas de dados para seus modelos porque capturam conversas por meio de um ambiente informal. Os AIs devem ser alimentados com terabytes de dados para fins de treinamento, e muitos desses dados são extraídos de sites como Twitter, Reddit e StackOverflow.

Muitos dos primeiros modelos de IA foram desenvolvidos em universidades e laboratórios de pesquisa, geralmente sem nenhuma expectativa de lucro. No entanto, à medida que grandes empresas de tecnologia como a Microsoft avançam nesses modelos de IA, despejando grandes quantidades de capital, os grupos por trás desses modelos de IA estão começando a buscar lucros.

Com isso, os donos dos dados nos quais essas IAs estão sendo treinadas começam a exigir pagamento pelo acesso aos seus dados. Por exemplo, o Reddit disse em abril que começaria a cobrar das empresas por modelos de IA para receber acesso a seus dados para fins de treinamento. Outras empresas, incluindo Universal Music Group e Getty Images, estão exigindo pagamento por seus dados usados ​​para treinar modelos de inteligência artificial.

Uma questão crítica para modelos de inteligência artificial

No entanto, deixando de lado a necessidade de modelos de IA treinarem em grandes quantidades de dados, uma coisa que não está sendo muito discutida é se as redes sociais são realmente as melhores fontes para treinar modelos de IA. Não é segredo que as redes sociais são antros de desinformação e desinformação.

Os humanos não são infalíveis, então eles podem acidentalmente postar informações incorretas ou compartilhar rumores, nenhum dos quais é adequado para treinar modelos de IA porque não representam informações factuais. Além disso, voltamos à questão do viés humano porque as redes sociais costumam ser preenchidas com postagens tendenciosas.

O pior é que alguns estudos indicam que o Facebook e outras redes sociais estão silenciando ativamente as vozes conservadoras. Se isso continuar, os modelos de IA que treinam em redes sociais terão um viés inerentemente liberal, simplesmente por causa dos dados com os quais foram treinados.

AIs mostradas para espalhar informações falsas

Mesmo deixando de lado a questão da política e liberal versus conservador, não há como verificar se as postagens de mídia social usadas para treinar um modelo de IA estão compartilhando informações factuais. As redes sociais são um lugar para expressar opiniões, mas o que os AIs precisam são fatos para que possam aprender a identificar informações verdadeiras e falsas.

Por exemplo, um estudo realizado na Universidade de Stanford revelou que as IAs nem sempre conseguem identificar com precisão o discurso de ódio. Mesmo os humanos geralmente não concordam com essa questão, então um modelo de inteligência artificial é inerentemente limitado aos preconceitos da pessoa ou pessoas que lhe disseram o que constitui discurso de ódio.

No entanto, o problema com desinformação ou desinformação pode ser um problema ainda maior. Por exemplo, um estudo descobriu que o ChatGPT tende a inventar fontes anônimas falsas quando encarregado de escrever um artigo de notícias sobre o ex-prefeito de Nova York, Michael Bloomberg. Na verdade, essas chamadas “fontes anônimas” pareciam “espetar” Bloomberg por “usar sua riqueza para influenciar políticas públicas”, de acordo com a NBC New York.

Mais e mais estudos que demonstram que o ChatGPT e seus sucessores, como o ChatGPT-4, espalharão informações falsas se tiverem a chance de fazê-lo. Do jeito que as coisas estão agora, a popularidade repentina dessa IA destaca a necessidade de maior conscientização sobre as deficiências da inteligência artificial e maior estudo sobre como treiná-la e potencialmente regulá-la.