Garbage In, Garbage Out: oficialii se confruntă cu o sarcină aparent imposibilă de a reglementa AI

Publicat: 2023-05-24

Pe măsură ce utilizarea inteligenței artificiale prin intermediul platformelor precum Chat GPT crește vertiginos, parlamentarii americani se trezesc cu câteva întrebări noi. Așa cum oficialii au trebuit să ia în considerare responsabilitatea pentru rețelele sociale, unde cea mai mare parte a conținutului care apare a fost postat de publicul larg, așa se ocupă acum de responsabilitatea pentru platformele AI.

Cine este responsabil pentru a se asigura că AI-urile publică informații corecte, netoxice? Nimeni nu știe, cel puțin nu încă, și este ușor de înțeles de ce.

Problema cu inteligența artificială

AI-urile devin mai inteligente prin antrenament pe tot mai multe seturi de date, iar cel mai simplu mod de a găsi cantități enorme de date pentru a instrui un AI este să te uiți online. Cu toate acestea, problema este că nu tot ceea ce este postat este informații faptice, mai ales când ai de-a face cu rețelele sociale.

O parte din conținutul care este postat – pe rețelele sociale sau în altă parte – este doar o opinie, mai degrabă decât un fapt. Pe de altă parte, unele dintre ele sunt pur și simplu greșite: fie dezinformare, cum ar fi zvonuri, fie și mai rău, dezinformare postată în mod deliberat cu intenții rău intenționate.

Din păcate, AI-urile nu pot face diferența dintre informațiile adevărate și false decât dacă un om îi informează că informațiile sunt false. În plus, multe studii ale asistenților AI precum Siri și Alexa au demonstrat modul în care părtinirile umane se pot strecura în tehnologia, care ar trebui să fie imparțială.

Parlamentarii americani sunt, de asemenea, îngrijorați de potențialele impacturi ale inteligenței artificiale asupra securității naționale și a educației. În special, oficialii sunt îngrijorați de ChatGPT, un program AI capabil să scrie rapid răspunsuri la o mare varietate de întrebări. A devenit imediat aplicația pentru consumatori cu cea mai rapidă creștere înregistrată vreodată, atrăgând peste 100 de milioane de utilizatori activi lunar în câteva luni.

Solicită responsabilitate în IA

Toți acești factori și alții ridică multe întrebări cu privire la responsabilitatea pentru inteligența artificială. În aprilie, Administrația Națională de Telecomunicații și Informații, care face parte din Departamentul Comerțului, a cerut contribuția publicului cu privire la potențialele măsuri de responsabilitate. Agenția a citat „interes în creștere de reglementare” pentru un „mecanism de responsabilitate” pentru AI.

Mai exact, oficialii vor să știe dacă ar putea lua măsuri pentru a se asigura „că sistemele AI sunt legale, eficiente, etice, sigure și demne de încredere”. Administratorul NTIA, Alan Davidson, a declarat pentru Reuters că sistemele „responsabile” de inteligență artificială pot oferi „beneficii enorme…”, dar „companiile și consumatorii trebuie să poată avea încredere în ei.

Președintele Joe Biden a spus anterior că nu este clar dacă AI este periculoasă, adăugând că companiile de tehnologie „au responsabilitatea... să se asigure că produsele lor sunt în siguranță înainte de a le face publice”.

Cum sunt antrenate modelele AI

Desigur, o inteligență artificială poate fi la fel de bună ca și datele folosite pentru a o antrena. CEO-ul Twitter, Elon Musk, a amenințat că va da în judecată Microsoft după ce a acuzat-o că folosește ilegal datele rețelei de socializare pentru a-și antrena modelul AI. Pe de o parte, amenințarea lui Musk indică pretenția Big Tech de proprietate asupra datelor pe care le-a adunat - de obicei furnizate de utilizatorii lor gratuit. Acești giganți tehnologici fac minte taxând alte companii pentru utilizarea datelor colectate și asta trebuie să fie ceea ce Musk a avut în vedere pentru Microsoft dacă a folosit datele Twitter.

Potrivit CNBC, experții în inteligență artificială văd rețelele sociale ca surse valoroase de date pentru modelele lor, deoarece captează conversații înainte și înapoi printr-un mediu informal. AI-urile trebuie să fie alimentate cu terabytes de date în scopuri de instruire, iar multe dintre aceste date sunt răzuite de pe site-uri precum Twitter, Reddit și StackOverflow.

Multe dintre primele modele AI au fost dezvoltate în universități și laboratoare de cercetare, de obicei fără nicio așteptare de profit. Cu toate acestea, pe măsură ce companiile Big Tech, cum ar fi Microsoft, adoptă aceste modele AI, aducând cantități mari de capital, grupurile din spatele acestor modele AI încep să caute profituri.

Drept urmare, proprietarii datelor pe care aceste IA sunt instruite încep să ceară plata pentru accesul la datele lor. De exemplu, Reddit a declarat în aprilie că va începe să taxeze companiile pentru modelele AI pentru a primi acces la datele sale în scopuri de instruire. Alte companii, inclusiv Universal Music Group și Getty Images, cer plata pentru că datele lor sunt folosite pentru a antrena modele de inteligență artificială.

O întrebare critică pentru modelele de inteligență artificială

Cu toate acestea, lăsând deoparte nevoia ca modelele AI să se antreneze pe cantități mari de date, un lucru despre care nu se discută prea mult este dacă rețelele sociale sunt într-adevăr cele mai bune surse pe care să se antreneze modele AI. Nu este un secret pentru nimeni că rețelele de socializare sunt vizuini pentru dezinformare și dezinformare.

Oamenii nu sunt infailibili, așa că ar putea să posteze accidental informații incorecte sau să împărtășească zvonuri, niciunul dintre acestea nu este potrivit pentru antrenarea modelelor AI, deoarece nu reprezintă informații faptice. În plus, revenim la problema părtinirii umane, deoarece rețelele sociale sunt de obicei pline de postări părtinitoare.

Mai rău, unele studii au indicat că Facebook și alte rețele sociale reduc în mod activ la tăcere vocile conservatoare. Dacă acest lucru va continua, modelele AI care se antrenează pe rețelele sociale vor avea o părtinire inerent liberală, pur și simplu din cauza datelor pe care au fost instruiți.

S-a arătat că AI-uri răspândesc informații false

Chiar și lăsând deoparte problema politică și liberală versus conservatoare, nu există nicio modalitate de a verifica dacă postările de pe rețelele sociale folosite pentru a antrena un model de inteligență artificială partajează informații faptice. Rețelele de socializare sunt un loc pentru a-și exprima opiniile, dar ceea ce au nevoie de IA sunt fapte, astfel încât să învețe să identifice informații adevărate și false.

De exemplu, un studiu realizat la Universitatea Stanford a dezvăluit că IA nu poate identifica întotdeauna cu acuratețe discursurile instigatoare la ură. Chiar și oamenii de multe ori nu pot fi de acord cu această problemă, așa că un model de inteligență artificială se limitează în mod inerent la părtinirile persoanei sau ale persoanelor care i-au spus ceea ce constituie discursul instigator la ură.

Cu toate acestea, problema cu dezinformarea sau dezinformarea poate fi o problemă și mai mare. De exemplu, un studiu a constatat că ChatGPT tinde să inventeze surse anonime false atunci când este însărcinat să scrie un articol de știri despre fostul primar al orașului New York, Michael Bloomberg. De fapt, acele așa-numite „surse anonime” păreau să-l „fărășească” pe Bloomberg pentru că „își folosește averea pentru a influența politica publică”, potrivit NBC New York.

Din ce în ce mai multe studii care demonstrează ChatGPT și succesorii săi, cum ar fi ChatGPT-4, vor răspândi informații false dacă au ocazia să facă acest lucru. Așa cum stau lucrurile acum, popularitatea bruscă a acestei inteligențe artificiale evidențiază necesitatea unei mai mari conștientizări a deficiențelor inteligenței artificiale și a unui studiu mai amplu despre cum să o antrenezi și să o reglezi potențial.