Garbage In, Garbage Out: i funzionari affrontano un compito apparentemente impossibile di regolamentare l'IA

Pubblicato: 2023-05-24

Mentre l'uso dell'intelligenza artificiale tramite piattaforme come Chat GPT sale alle stelle, i legislatori statunitensi si trovano di fronte ad alcune nuove domande. Proprio come i funzionari hanno dovuto considerare la responsabilità per i social network, dove la maggior parte del contenuto che appare è stato pubblicato dal pubblico in generale, così ora hanno a che fare con la responsabilità per le piattaforme di intelligenza artificiale.

Chi è responsabile di garantire che le IA forniscano informazioni corrette e non tossiche? Nessuno lo sa, almeno non ancora, ed è facile capire perché.

Il problema con l'intelligenza artificiale

Le IA diventano più intelligenti attraverso l'addestramento su sempre più set di dati e il modo più semplice per trovare enormi quantità di dati su cui addestrare un'IA è cercare online. Tuttavia, il problema è che non tutto ciò che viene pubblicato è costituito da informazioni fattuali, soprattutto quando si ha a che fare con i social media.

Alcuni dei contenuti pubblicati, sui social network o altrove, sono solo opinioni piuttosto che fatti. D'altra parte, alcuni di essi sono semplicemente sbagliati: o disinformazione come voci o, peggio ancora, disinformazione pubblicata deliberatamente con intenti dannosi.

Sfortunatamente, le IA non possono distinguere tra informazioni vere e false a meno che un essere umano non le informi che le informazioni sono false. Inoltre, molti studi su assistenti di intelligenza artificiale come Siri e Alexa hanno dimostrato come i pregiudizi umani possano insinuarsi nella tecnologia, che dovrebbe essere imparziale.

I legislatori statunitensi sono anche preoccupati per i potenziali impatti dell'intelligenza artificiale sulla sicurezza nazionale e sull'istruzione. In particolare, i funzionari sono preoccupati per ChatGPT, un programma di intelligenza artificiale in grado di scrivere rapidamente risposte a un'ampia varietà di domande. È diventata immediatamente l'applicazione consumer in più rapida crescita mai registrata, attirando oltre 100 milioni di utenti attivi mensili nel giro di pochi mesi.

Chiede responsabilità nell'IA

Tutti questi fattori e altri ancora sollevano molte domande sulla responsabilità per l'intelligenza artificiale. Ad aprile, l'amministrazione nazionale delle telecomunicazioni e dell'informazione, che fa parte del dipartimento del commercio, ha chiesto il contributo del pubblico su potenziali misure di responsabilità. L'agenzia ha citato il "crescente interesse normativo" in un "meccanismo di responsabilità" per l'IA.

Nello specifico, i funzionari vogliono sapere se possono essere adottate misure per garantire "che i sistemi di intelligenza artificiale siano legali, efficaci, etici, sicuri e altrimenti affidabili". L'amministratore dell'NTIA Alan Davidson ha detto a Reuters che i sistemi di intelligenza artificiale "responsabili" possono offrire "enormi vantaggi...", ma "le aziende e i consumatori devono potersi fidare di loro.

Il presidente Joe Biden aveva affermato in precedenza che non è chiaro se l'intelligenza artificiale sia pericolosa, aggiungendo che le aziende tecnologiche "hanno la responsabilità... di assicurarsi che i loro prodotti siano sicuri prima di renderli pubblici".

Come vengono addestrati i modelli AI

Naturalmente, un'intelligenza artificiale può essere valida solo quanto i dati utilizzati per addestrarla. Il CEO di Twitter Elon Musk ha minacciato di citare in giudizio Microsoft dopo averla accusata di utilizzare illegalmente i dati del social network per addestrare il suo modello di intelligenza artificiale. Da un lato, la minaccia di Musk è indicativa della rivendicazione di proprietà di Big Tech sui dati che ha raccolto, solitamente forniti gratuitamente dai propri utenti. Questi colossi tecnologici guadagnano denaro addebitando ad altre società l'utilizzo dei dati raccolti, e questo deve essere ciò che Musk aveva in mente per Microsoft se avesse utilizzato i dati di Twitter.

Secondo CNBC, gli esperti di intelligenza artificiale vedono i social network come preziose fonti di dati per i loro modelli perché catturano conversazioni avanti e indietro attraverso un ambiente informale. Le IA devono essere alimentate con terabyte di dati a scopo di formazione e gran parte di tali dati viene prelevata da siti come Twitter, Reddit e StackOverflow.

Molti dei primi modelli di intelligenza artificiale sono stati sviluppati nelle università e nei laboratori di ricerca, di solito senza alcuna aspettativa di profitto. Tuttavia, poiché le aziende Big Tech come Microsoft si spostano su questi modelli di intelligenza artificiale versando grandi quantità di capitale, i gruppi dietro questi modelli di intelligenza artificiale stanno iniziando a cercare profitti.

Di conseguenza, i proprietari dei dati su cui vengono addestrate queste IA stanno iniziando a chiedere il pagamento per l'accesso ai propri dati. Ad esempio, Reddit ha dichiarato ad aprile che avrebbe iniziato a far pagare alle aziende i modelli di intelligenza artificiale per ottenere l'accesso ai suoi dati a scopo di formazione. Altre società, tra cui Universal Music Group e Getty Images, chiedono il pagamento per i loro dati utilizzati per addestrare modelli di intelligenza artificiale.

Una domanda critica per i modelli di intelligenza artificiale

Tuttavia, mettendo da parte la necessità per i modelli di intelligenza artificiale di addestrarsi su grandi quantità di dati, una cosa che non viene discussa molto è se i social network siano davvero le migliori fonti su cui addestrare i modelli di intelligenza artificiale. Non è un segreto che i social network siano covi di disinformazione e disinformazione.

Gli esseri umani non sono infallibili, quindi potrebbero accidentalmente pubblicare informazioni errate o condividere voci, nessuna delle quali è adatta per addestrare modelli di intelligenza artificiale perché non rappresentano informazioni fattuali. Inoltre, torniamo alla questione del pregiudizio umano perché i social network sono in genere pieni di post di parte.

Quel che è peggio è che alcuni studi hanno indicato che Facebook e altri social network stanno attivamente mettendo a tacere le voci conservatrici. Se continua così, i modelli di intelligenza artificiale che si addestrano sui social network avranno un pregiudizio intrinsecamente liberale, semplicemente a causa dei dati su cui sono stati addestrati.

Le IA hanno dimostrato di diffondere informazioni false

Anche mettendo da parte la questione della politica e del liberale contro il conservatore, non c'è modo di verificare che i post sui social media utilizzati per addestrare un modello di intelligenza artificiale condividano informazioni fattuali. I social network sono un luogo per esprimere opinioni, ma ciò di cui le IA hanno bisogno sono i fatti in modo che possano imparare a identificare informazioni vere e false.

Ad esempio, uno studio condotto presso la Stanford University ha rivelato che le IA non sono sempre in grado di identificare con precisione l'incitamento all'odio. Anche gli esseri umani spesso non sono d'accordo su questo problema, quindi un modello di intelligenza artificiale è intrinsecamente limitato ai pregiudizi della persona o delle persone che lo hanno detto in cosa costituisce incitamento all'odio.

Tuttavia, il problema con la disinformazione o la disinformazione potrebbe essere un problema ancora più grande. Ad esempio, uno studio ha rilevato che ChatGPT tende a inventare fonti anonime fasulle quando viene incaricato di scrivere un articolo di notizie sull'ex sindaco di New York City Michael Bloomberg. In effetti, quelle cosiddette "fonti anonime" sembravano "infilzare" Bloomberg per "usare la sua ricchezza per influenzare l'ordine pubblico", secondo NBC New York.

Sempre più studi che dimostrano che ChatGPT e i suoi successori come ChatGPT-4 diffondono informazioni false se ne hanno la possibilità. Allo stato attuale delle cose, l'improvvisa popolarità di questa IA evidenzia la necessità di una maggiore consapevolezza delle carenze dell'intelligenza artificiale e di maggiori studi su come addestrarla e potenzialmente regolarla.