Sampah Masuk, Sampah Keluar: Pejabat Menghadapi Tugas Mengatur AI yang Tampaknya Mustahil

Diterbitkan: 2023-05-24

Karena penggunaan kecerdasan buatan melalui platform seperti Chat GPT meroket, anggota parlemen AS menghadapi beberapa pertanyaan baru. Sama seperti pejabat harus mempertimbangkan akuntabilitas untuk jejaring sosial, di mana sebagian besar konten yang muncul diposting oleh masyarakat umum, jadi mereka sekarang berurusan dengan akuntabilitas untuk platform AI.

Siapa yang bertanggung jawab untuk memastikan bahwa AI mengeluarkan informasi yang benar dan tidak beracun? Tidak ada yang tahu, setidaknya belum, dan mudah untuk mengetahui alasannya.

Masalah dengan Kecerdasan Buatan

AI menjadi lebih cerdas melalui pelatihan pada kumpulan data yang semakin banyak, dan cara termudah untuk menemukan sejumlah besar data untuk melatih AI adalah dengan melihat secara online. Namun, masalahnya tidak semua yang diposting adalah informasi faktual, terutama ketika Anda berurusan dengan media sosial.

Beberapa konten yang diposting — di jejaring sosial atau di tempat lain — hanyalah opini, bukan fakta. Di sisi lain, beberapa di antaranya benar-benar salah: informasi yang salah seperti rumor atau bahkan lebih buruk lagi, disinformasi yang diposting dengan sengaja dengan niat jahat.

Sayangnya, AI tidak dapat membedakan antara informasi yang benar dan yang salah kecuali jika manusia memberi tahu mereka bahwa informasi tersebut salah. Selain itu, banyak penelitian asisten AI seperti Siri dan Alexa telah menunjukkan bagaimana bias manusia dapat menyusup ke dalam teknologi, yang seharusnya tidak bias.

Anggota parlemen AS juga khawatir tentang dampak potensial dari kecerdasan buatan terhadap keamanan dan pendidikan nasional. Secara khusus, para pejabat mengkhawatirkan ChatGPT, sebuah program AI yang mampu dengan cepat menulis jawaban atas berbagai macam pertanyaan. Itu segera menjadi aplikasi konsumen dengan pertumbuhan tercepat yang pernah tercatat, menarik lebih dari 100 juta pengguna aktif bulanan dalam hitungan bulan.

Panggilan untuk Akuntabilitas dalam AI

Semua faktor ini dan lebih banyak lagi menimbulkan banyak pertanyaan tentang akuntabilitas kecerdasan buatan. Pada bulan April, Administrasi Telekomunikasi dan Informasi Nasional, yang merupakan bagian dari Departemen Perdagangan, meminta masukan publik tentang langkah-langkah akuntabilitas yang potensial. Badan tersebut mengutip “kepentingan peraturan yang berkembang” dalam “mekanisme akuntabilitas” untuk AI.

Secara khusus, pejabat ingin tahu apakah mereka dapat melakukan tindakan apa pun untuk memastikan "bahwa sistem AI itu legal, efektif, etis, aman, dan dapat dipercaya." Administrator NTIA Alan Davidson mengatakan kepada Reuters bahwa sistem kecerdasan buatan yang “bertanggung jawab” dapat menawarkan “manfaat yang sangat besar…,” tetapi “perusahaan dan konsumen harus dapat mempercayai mereka.

Presiden Joe Biden telah mengatakan sebelumnya bahwa tidak jelas apakah AI berbahaya, menambahkan bahwa perusahaan teknologi "memiliki tanggung jawab ... untuk memastikan produk mereka aman sebelum dipublikasikan."

Bagaimana Model AI Dilatih

Tentu saja, kecerdasan buatan hanya bisa sebaik data yang digunakan untuk melatihnya. CEO Twitter Elon Musk mengancam akan menuntut Microsoft setelah menuduhnya secara ilegal menggunakan data jaringan sosial untuk melatih model AI-nya. Di satu sisi, ancaman Musk menunjukkan klaim kepemilikan Big Tech atas data yang telah dikumpulkannya — biasanya disediakan oleh penggunanya secara gratis. Raksasa teknologi ini menghasilkan uang dengan menagih perusahaan lain untuk menggunakan data yang dikumpulkan, dan ini pasti yang dipikirkan Musk untuk Microsoft jika memang menggunakan data Twitter.

Menurut CNBC, pakar AI melihat jejaring sosial sebagai sumber data yang berharga untuk model mereka karena mereka menangkap percakapan bolak-balik melalui lingkungan informal. AI harus diberi terabyte data untuk tujuan pelatihan, dan sebagian besar data tersebut diambil dari situs seperti Twitter, Reddit, dan StackOverflow.

Banyak model AI pertama dikembangkan di universitas dan laboratorium penelitian, biasanya tanpa mengharapkan keuntungan. Namun, ketika perusahaan Teknologi Besar seperti Microsoft beralih ke model AI ini dengan menggelontorkan modal dalam jumlah besar, kelompok di belakang model AI ini mulai mencari keuntungan.

Akibatnya, pemilik data tempat AI dilatih ini mulai meminta pembayaran untuk akses ke data mereka. Misalnya, Reddit mengatakan pada bulan April bahwa mereka akan mulai menagih perusahaan untuk model AI untuk menerima akses ke datanya untuk tujuan pelatihan. Perusahaan lain, termasuk Universal Music Group dan Getty Images menuntut pembayaran untuk data mereka yang digunakan untuk melatih model kecerdasan buatan.

Pertanyaan Kritis untuk Model Kecerdasan Buatan

Namun, mengesampingkan kebutuhan model AI untuk melatih data dalam jumlah besar, satu hal yang tidak banyak dibahas adalah apakah jejaring sosial benar-benar sumber terbaik untuk melatih model AI. Bukan rahasia lagi bahwa jejaring sosial adalah sarang disinformasi dan misinformasi.

Manusia bukannya sempurna, jadi mereka mungkin secara tidak sengaja memposting informasi yang salah atau menyebarkan rumor, yang keduanya tidak cocok untuk melatih model AI karena tidak mewakili informasi faktual. Selain itu, kami kembali ke masalah bias manusia karena jejaring sosial biasanya dipenuhi dengan postingan yang bias.

Lebih buruk lagi, beberapa penelitian menunjukkan bahwa Facebook dan jejaring sosial lainnya secara aktif membungkam suara-suara konservatif. Jika ini berlanjut, model AI yang berlatih di jejaring sosial akan memiliki bias liberal yang inheren, hanya karena data pelatihannya.

AI Ditampilkan Menyebarkan Informasi Palsu

Bahkan mengesampingkan masalah politik dan liberal versus konservatif, tidak ada cara untuk memverifikasi bahwa postingan media sosial yang digunakan untuk melatih model AI membagikan informasi faktual. Jejaring sosial adalah tempat untuk mengungkapkan pendapat, tetapi yang dibutuhkan AI adalah fakta agar mereka dapat belajar mengidentifikasi informasi yang benar dan salah.

Misalnya, sebuah studi yang dilakukan di Universitas Stanford mengungkapkan bahwa AI tidak selalu dapat mengidentifikasi ujaran kebencian secara akurat. Bahkan manusia seringkali tidak setuju dengan masalah ini, jadi model kecerdasan buatan secara inheren terbatas pada bias orang atau orang yang memberi tahu apa yang dimaksud dengan ujaran kebencian.

Namun, masalah misinformasi atau disinformasi bisa menjadi masalah yang lebih besar. Misalnya, satu penelitian menemukan bahwa ChatGPT cenderung mengarang sumber anonim palsu saat ditugaskan menulis artikel berita tentang mantan Walikota New York City Michael Bloomberg. Faktanya, apa yang disebut "sumber anonim" itu tampaknya "menusuk" Bloomberg karena "menggunakan kekayaannya untuk mempengaruhi kebijakan publik," menurut NBC New York.

Semakin banyak penelitian yang mendemonstrasikan ChatGPT dan penerusnya seperti ChatGPT-4 akan menyebarkan informasi palsu jika diberi kesempatan untuk melakukannya. Seperti yang terjadi sekarang, popularitas AI yang tiba-tiba menyoroti perlunya kesadaran yang lebih besar tentang kekurangan kecerdasan buatan dan studi yang lebih besar tentang cara melatihnya dan berpotensi mengaturnya.