Śmieci na wejściu, śmieci na wyjściu: Urzędnicy stoją przed pozornie niemożliwym zadaniem uregulowania sztucznej inteligencji

Opublikowany: 2023-05-24

Ponieważ wykorzystanie sztucznej inteligencji za pośrednictwem platform takich jak Chat GPT gwałtownie wzrasta, amerykańscy prawodawcy stają przed kilkoma nowymi pytaniami. Tak jak urzędnicy musieli wziąć pod uwagę odpowiedzialność za sieci społecznościowe, w których większość pojawiających się treści została opublikowana przez ogół społeczeństwa, tak teraz zajmują się odpowiedzialnością za platformy AI.

Kto jest odpowiedzialny za zapewnienie, że sztuczna inteligencja publikuje prawidłowe, nietoksyczne informacje? Nikt nie wie, przynajmniej jeszcze nie, i łatwo zrozumieć, dlaczego.

Problem ze sztuczną inteligencją

Sztuczna inteligencja staje się bardziej inteligentna dzięki szkoleniu na coraz większej liczbie zestawów danych, a najłatwiejszym sposobem na znalezienie ogromnych ilości danych do trenowania sztucznej inteligencji jest przeglądanie Internetu. Problem polega jednak na tym, że nie wszystko, co jest publikowane, to informacje oparte na faktach, zwłaszcza gdy masz do czynienia z mediami społecznościowymi.

Niektóre treści publikowane — w sieciach społecznościowych lub w innych miejscach — są raczej opiniami niż faktami. Z drugiej strony, niektóre z nich są po prostu błędne: albo dezinformacja, taka jak plotki, albo, co gorsza, dezinformacja opublikowana celowo w złych zamiarach.

Niestety, sztuczna inteligencja nie potrafi odróżnić informacji prawdziwych od fałszywych, chyba że człowiek poinformuje je, że informacja jest fałszywa. Ponadto wiele badań asystentów AI, takich jak Siri i Alexa, wykazało, w jaki sposób ludzkie uprzedzenia mogą wkraść się do technologii, która ma być bezstronna.

Prawodawcy amerykańscy są również zaniepokojeni potencjalnym wpływem sztucznej inteligencji na bezpieczeństwo narodowe i edukację. W szczególności urzędnicy są zaniepokojeni ChatGPT, programem AI zdolnym do szybkiego pisania odpowiedzi na różnorodne pytania. Natychmiast stała się najszybciej rozwijającą się aplikacją konsumencką w historii, przyciągając ponad 100 milionów aktywnych użytkowników miesięcznie w ciągu kilku miesięcy.

Wzywa do odpowiedzialności w AI

Wszystkie te i inne czynniki rodzą wiele pytań dotyczących odpowiedzialności za sztuczną inteligencję. W kwietniu Krajowa Administracja Telekomunikacji i Informacji, która jest częścią Departamentu Handlu, wezwała opinię publiczną do udziału w potencjalnych środkach rozliczalności. Agencja powołała się na „rosnące zainteresowanie regulacyjne” „mechanizmem odpowiedzialności” za sztuczną inteligencję.

W szczególności urzędnicy chcą wiedzieć, czy mogą zastosować jakiekolwiek środki w celu zapewnienia, że ​​„systemy sztucznej inteligencji są legalne, skuteczne, etyczne, bezpieczne i w inny sposób godne zaufania”. Administrator NTIA Alan Davidson powiedział Reuterowi, że „odpowiedzialne” systemy sztucznej inteligencji mogą oferować „ogromne korzyści…”, ale „firmy i konsumenci muszą mieć do nich zaufanie.

Prezydent Joe Biden powiedział wcześniej, że nie jest jasne, czy sztuczna inteligencja jest niebezpieczna, dodając, że firmy technologiczne „mają obowiązek… upewnić się, że ich produkty są bezpieczne, zanim zostaną upublicznione”.

Jak trenuje się modele AI

Oczywiście sztuczna inteligencja może być tylko tak dobra, jak dane użyte do jej szkolenia. Dyrektor generalny Twittera, Elon Musk, zagroził pozwem Microsoftowi po tym, jak oskarżył go o nielegalne wykorzystywanie danych z sieci społecznościowej do trenowania swojego modelu sztucznej inteligencji. Z jednej strony groźba Muska wskazuje na roszczenie Big Tech do posiadania zgromadzonych danych – zwykle dostarczanych bezpłatnie przez ich użytkowników. Te technologiczne giganty zarabiają pieniądze, obciążając inne firmy za wykorzystanie zebranych danych, i to musi być to, co Musk miał na myśli dla Microsoftu, gdyby korzystał z danych Twittera.

Według CNBC eksperci AI postrzegają sieci społecznościowe jako cenne źródła danych dla swoich modeli, ponieważ przechwytują rozmowy w obie strony w nieformalnym środowisku. Sztuczna inteligencja musi otrzymywać terabajty danych do celów szkoleniowych, a wiele z tych danych jest pobieranych z witryn takich jak Twitter, Reddit i StackOverflow.

Wiele z pierwszych modeli sztucznej inteligencji opracowano na uniwersytetach iw laboratoriach badawczych, zwykle bez żadnych oczekiwań co do zysków. Jednak w miarę jak firmy Big Tech, takie jak Microsoft, wprowadzają te modele AI, wlewając duże kwoty kapitału, grupy stojące za tymi modelami AI zaczynają szukać zysków.

W efekcie właściciele danych, na których te AI są szkolone, zaczynają żądać zapłaty za dostęp do swoich danych. Na przykład Reddit powiedział w kwietniu, że zacznie pobierać opłaty od firm za modele AI, aby uzyskać dostęp do swoich danych w celach szkoleniowych. Inne firmy, w tym Universal Music Group i Getty Images, żądają zapłaty za wykorzystanie ich danych do trenowania modeli sztucznej inteligencji.

Krytyczne pytanie dotyczące modeli sztucznej inteligencji

Jednak pomijając konieczność trenowania modeli AI na ogromnych ilościach danych, jedną rzeczą, o której nie dyskutuje się zbyt wiele, jest to, czy sieci społecznościowe są naprawdę najlepszymi źródłami do trenowania modeli AI. Nie jest tajemnicą, że sieci społecznościowe są siedliskiem dezinformacji i dezinformacji.

Ludzie nie są nieomylni, więc mogą przypadkowo opublikować niepoprawne informacje lub podzielić się plotkami, z których żadna nie nadaje się do szkolenia modeli AI, ponieważ nie przedstawiają one faktycznych informacji. Dodatkowo wracamy do kwestii ludzkich uprzedzeń, ponieważ sieci społecznościowe są zazwyczaj wypełnione stronniczymi postami.

Co gorsza, niektóre badania wykazały, że Facebook i inne sieci społecznościowe aktywnie uciszają konserwatywne głosy. Jeśli tak się stanie, modele sztucznej inteligencji, które trenują w sieciach społecznościowych, będą miały z natury liberalne nastawienie, po prostu ze względu na dane, na których zostały przeszkolone.

Sztuczna inteligencja rozpowszechnia fałszywe informacje

Nawet pomijając kwestię polityki i poglądów liberalnych i konserwatywnych, nie ma sposobu, aby zweryfikować, czy posty w mediach społecznościowych wykorzystywane do szkolenia modelu sztucznej inteligencji zawierają faktyczne informacje. Sieci społecznościowe to miejsce do wyrażania opinii, ale sztuczna inteligencja potrzebuje faktów, aby mogła nauczyć się identyfikować prawdziwe i fałszywe informacje.

Na przykład badanie przeprowadzone na Uniwersytecie Stanforda wykazało, że sztuczna inteligencja nie zawsze jest w stanie dokładnie zidentyfikować mowę nienawiści. Nawet ludzie często nie mogą dojść do porozumienia w tej kwestii, więc model sztucznej inteligencji jest z natury ograniczony do uprzedzeń osoby lub osób, które powiedziały mu, co stanowi mowę nienawiści.

Jednak problem z dezinformacją lub dezinformacją może być jeszcze większym problemem. Na przykład jedno z badań wykazało, że ChatGPT ma tendencję do wymyślania fałszywych anonimowych źródeł, gdy ma za zadanie napisać artykuł o byłym burmistrzu Nowego Jorku, Michaelu Bloombergu. W rzeczywistości te tak zwane „anonimowe źródła” wydawały się „przebijać” Bloomberga za „wykorzystywanie jego bogactwa do wpływania na politykę publiczną”, według NBC New York.

Coraz więcej badań, które pokazują, że ChatGPT i jego następcy, tacy jak ChatGPT-4, rozpowszechniają fałszywe informacje, jeśli mają taką możliwość. W obecnym stanie rzeczy nagła popularność tej sztucznej inteligencji podkreśla potrzebę większej świadomości wad sztucznej inteligencji i większych badań nad tym, jak ją trenować i potencjalnie regulować.