Garbage In, Garbage Out : les responsables sont confrontés à une tâche apparemment impossible de réglementation de l'IA

Publié: 2023-05-24

Alors que l'utilisation de l'intelligence artificielle via des plateformes telles que Chat GPT monte en flèche, les législateurs américains se retrouvent confrontés à de nouvelles questions. Tout comme les responsables devaient tenir compte de la responsabilité des réseaux sociaux, où la plupart du contenu qui apparaît était publié par le grand public, ils doivent maintenant gérer la responsabilité des plateformes d'IA.

Qui est responsable de s'assurer que les IA diffusent des informations correctes et non toxiques ? Personne ne le sait, du moins pas encore, et il est facile de comprendre pourquoi.

Le problème de l'intelligence artificielle

Les IA deviennent plus intelligentes grâce à la formation sur de plus en plus d'ensembles de données, et le moyen le plus simple de trouver d'énormes quantités de données sur lesquelles former une IA est de regarder en ligne. Cependant, le problème est que tout ce qui est publié n'est pas une information factuelle, en particulier lorsque vous traitez avec les médias sociaux.

Une partie du contenu publié - sur les réseaux sociaux ou ailleurs - n'est qu'une opinion plutôt qu'un fait. D'un autre côté, certaines d'entre elles sont tout simplement fausses : soit de la désinformation comme des rumeurs, soit pire encore, de la désinformation publiée délibérément avec une intention malveillante.

Malheureusement, les IA ne peuvent pas faire la différence entre les informations vraies et fausses à moins qu'un humain ne les informe que l'information est fausse. De plus, de nombreuses études sur des assistants IA comme Siri et Alexa ont démontré comment les préjugés humains peuvent s'infiltrer dans la technologie, qui est censée être impartiale.

Les législateurs américains s'inquiètent également des impacts potentiels de l'intelligence artificielle sur la sécurité nationale et l'éducation. En particulier, les responsables sont préoccupés par ChatGPT, un programme d'IA capable d'écrire rapidement des réponses à une grande variété de questions. Elle est immédiatement devenue l'application grand public à la croissance la plus rapide jamais enregistrée, attirant plus de 100 millions d'utilisateurs actifs par mois en quelques mois.

Appels à la responsabilité dans l'IA

Tous ces facteurs et bien d'autres soulèvent de nombreuses questions sur la responsabilité de l'intelligence artificielle. En avril, l'Administration nationale des télécommunications et de l'information, qui fait partie du Département du commerce, a appelé le public à participer aux mesures de responsabilité potentielles. L'agence a cité "l'intérêt réglementaire croissant" pour un "mécanisme de responsabilité" pour l'IA.

Plus précisément, les responsables veulent savoir s'ils pourraient mettre en place des mesures pour garantir "que les systèmes d'IA sont légaux, efficaces, éthiques, sûrs et dignes de confiance". L'administrateur de la NTIA, Alan Davidson, a déclaré à Reuters que les systèmes d'intelligence artificielle «responsables» peuvent offrir «d'énormes avantages…», mais «les entreprises et les consommateurs doivent pouvoir leur faire confiance.

Le président Joe Biden avait déclaré précédemment qu'il n'était pas clair si l'IA était dangereuse, ajoutant que les entreprises technologiques "ont la responsabilité... de s'assurer que leurs produits sont sûrs avant de les rendre publics".

Comment les modèles d'IA sont formés

Bien sûr, une intelligence artificielle ne peut être aussi bonne que les données utilisées pour la former. Le PDG de Twitter, Elon Musk, a menacé de poursuivre Microsoft après l'avoir accusé d'utiliser illégalement les données du réseau social pour former son modèle d'IA. D'une part, la menace de Musk est révélatrice de la revendication de propriété de Big Tech sur les données qu'elle a recueillies - généralement fournies gratuitement par leurs utilisateurs. Ces géants de la technologie font de la menthe en facturant à d'autres entreprises l'utilisation des données collectées, et c'est ce que Musk avait en tête pour Microsoft s'il utilisait les données de Twitter.

Selon CNBC, les experts en intelligence artificielle considèrent les réseaux sociaux comme de précieuses sources de données pour leurs modèles, car ils capturent les conversations dans un environnement informel. Les IA doivent recevoir des téraoctets de données à des fins de formation, et une grande partie de ces données est extraite de sites comme Twitter, Reddit et StackOverflow.

Bon nombre des premiers modèles d'IA ont été développés dans des universités et des laboratoires de recherche, généralement sans aucune attente de profit. Cependant, alors que les grandes entreprises technologiques comme Microsoft se lancent dans ces modèles d'IA en injectant de grandes quantités de capitaux, les groupes à l'origine de ces modèles d'IA commencent à rechercher des bénéfices.

En conséquence, les propriétaires des données sur lesquelles ces IA sont formées commencent à exiger un paiement pour accéder à leurs données. Par exemple, Reddit a déclaré en avril qu'il commencerait à facturer aux entreprises des modèles d'IA pour avoir accès à ses données à des fins de formation. D'autres sociétés, dont Universal Music Group et Getty Images, exigent un paiement pour que leurs données soient utilisées pour former des modèles d'intelligence artificielle.

Une question critique pour les modèles d'intelligence artificielle

Cependant, mis à part la nécessité pour les modèles d'IA de s'entraîner sur de grandes quantités de données, une chose qui n'est pas beaucoup discutée est de savoir si les réseaux sociaux sont vraiment les meilleures sources sur lesquelles former des modèles d'IA. Ce n'est un secret pour personne que les réseaux sociaux sont des repaires de désinformation et de mésinformation.

Les humains ne sont pas infaillibles, ils peuvent donc accidentellement publier des informations incorrectes ou partager des rumeurs, qui ne conviennent pas pour former des modèles d'IA car ils ne représentent pas des informations factuelles. De plus, nous revenons à la question des préjugés humains car les réseaux sociaux sont généralement remplis de messages biaisés.

Pire encore, certaines études ont indiqué que Facebook et d'autres réseaux sociaux réduisent activement au silence les voix conservatrices. Si cela continue, les modèles d'IA qui s'entraînent sur les réseaux sociaux auront un biais intrinsèquement libéral, simplement à cause des données sur lesquelles ils ont été formés.

Il a été démontré que les IA diffusaient de fausses informations

Même en mettant de côté la question de la politique et du libéral contre le conservateur, il n'y a aucun moyen de vérifier que les publications sur les réseaux sociaux utilisées pour former un modèle d'IA partagent des informations factuelles. Les réseaux sociaux sont un lieu pour exprimer des opinions, mais ce dont les IA ont besoin, ce sont des faits pour apprendre à identifier les informations vraies et fausses.

Par exemple, une étude menée à l'Université de Stanford a révélé que les IA ne peuvent pas toujours identifier avec précision les discours de haine. Même les humains ne peuvent souvent pas s'entendre sur cette question, de sorte qu'un modèle d'intelligence artificielle est intrinsèquement limité aux préjugés de la personne ou des personnes qui lui ont dit ce qui constitue un discours de haine.

Cependant, le problème de la mésinformation ou de la désinformation peut être un problème encore plus important. Par exemple, une étude a révélé que ChatGPT a tendance à créer de fausses sources anonymes lorsqu'il est chargé d'écrire un article de presse sur l'ancien maire de New York, Michael Bloomberg. En fait, ces soi-disant « sources anonymes » semblaient « embrouiller » Bloomberg pour « avoir utilisé sa richesse pour influencer la politique publique », selon NBC New York.

De plus en plus d'études qui démontrent ChatGPT et ses successeurs comme ChatGPT-4 diffuseront de fausses informations si on leur en donne la possibilité. Dans l'état actuel des choses, la popularité soudaine de cette IA souligne la nécessité d'une plus grande prise de conscience des lacunes de l'intelligence artificielle et d'une étude plus approfondie sur la façon de la former et éventuellement de la réglementer.