Çöp Giriyor, Çöp Dışarı Çıkıyor: Yetkililer Yapay Zekayı Düzenlemek Gibi Görünüşte İmkansız Bir Görevle Karşı Karşıya

Yayınlanan: 2023-05-24

Yapay zekanın Chat GPT gibi platformlar aracılığıyla kullanımı hızla artarken, ABD'li milletvekilleri kendilerini bazı yeni sorularla karşı karşıya buluyorlar. Tıpkı yetkililerin, görünen içeriğin çoğunun genel halk tarafından yayınlandığı sosyal ağlar için hesap verebilirliği göz önünde bulundurması gerektiği gibi, şimdi de yapay zeka platformları için hesap verebilirlikle uğraşıyorlar.

Yapay zekaların doğru, toksik olmayan bilgiler vermesini sağlamaktan kim sorumlu? En azından henüz kimse bilmiyor ve nedenini görmek kolay.

Yapay Zeka Sorunu

Yapay zekalar, giderek daha fazla veri kümesi üzerinde eğitim alarak daha akıllı hale gelir ve bir yapay zekayı eğitmek için çok büyük miktarda veri bulmanın en kolay yolu çevrimiçi bakmaktır. Bununla birlikte, sorun şu ki, özellikle sosyal medya ile uğraşırken, yayınlanan her şey gerçek bilgiler değildir.

Sosyal ağlarda veya başka yerlerde yayınlanan içeriğin bir kısmı gerçeklerden ziyade yalnızca fikirdir. Öte yandan, bazıları tamamen yanlış: ya söylentiler gibi yanlış bilgiler ya da daha da kötüsü, kasıtlı olarak kötü niyetle yayınlanan dezenformasyon.

Ne yazık ki, yapay zekalar, bir insan onlara bilginin yanlış olduğunu bildirmedikçe, doğru ve yanlış bilgi arasındaki farkı söyleyemez. Ek olarak, Siri ve Alexa gibi AI asistanları üzerinde yapılan birçok çalışma, insan önyargılarının, tarafsız olması gereken teknolojiye nasıl sızabileceğini göstermiştir.

ABD'li milletvekilleri ayrıca yapay zekanın ulusal güvenlik ve eğitim üzerindeki potansiyel etkilerinden endişe duyuyor. Yetkililer özellikle, çok çeşitli sorulara hızlı bir şekilde yanıt yazabilen bir yapay zeka programı olan ChatGPT konusunda endişeli. Hemen şimdiye kadar kaydedilen en hızlı büyüyen tüketici uygulaması oldu ve birkaç ay içinde aylık 100 milyondan fazla aktif kullanıcıyı kendine çekti.

AI'da Hesap Verebilirlik Çağrıları

Tüm bu faktörler ve daha fazlası, yapay zekanın hesap verebilirliği hakkında birçok soruyu gündeme getiriyor. Nisan ayında, Ticaret Departmanının bir parçası olan Ulusal Telekomünikasyon ve Bilgi İdaresi, potansiyel hesap verebilirlik önlemleri konusunda kamuoyundan görüş alınması çağrısında bulundu. Ajans, AI için bir "hesap verebilirlik mekanizmasına" "artan düzenleyici ilgiden" bahsetti.

Yetkililer özellikle, "AI sistemlerinin yasal, etkili, etik, güvenli ve diğer açılardan güvenilir olmasını" sağlamak için herhangi bir önlem alıp alamayacaklarını bilmek istiyor. NTIA Yöneticisi Alan Davidson, Reuters'e "sorumlu" yapay zeka sistemlerinin "muazzam faydalar" sunabileceğini, ancak "şirketlerin ve tüketicilerin onlara güvenebilmesi gerektiğini" söyledi.

Başkan Joe Biden daha önce yapay zekanın tehlikeli olup olmadığının belirsiz olduğunu söylemiş ve teknoloji şirketlerinin "ürünlerini halka açmadan önce... ürünlerinin güvenli olduğundan emin olma sorumluluğuna sahip olduğunu" eklemişti.

AI Modelleri Nasıl Eğitilir?

Elbette bir yapay zeka ancak onu eğitmek için kullanılan veriler kadar iyi olabilir. Twitter CEO'su Elon Musk, Microsoft'u AI modelini eğitmek için sosyal ağın verilerini yasa dışı bir şekilde kullanmakla suçladıktan sonra dava etmekle tehdit etti. Bir yandan Musk'ın tehdidi, Big Tech'in topladığı - genellikle kullanıcıları tarafından ücretsiz olarak sağlanan - veriler üzerinde sahiplik iddiasının göstergesidir. Bu teknoloji devleri, toplanan verileri kullanmak için diğer şirketlerden ücret alarak para kazanıyor ve Musk, Twitter'ın verilerini kullanmışsa, Microsoft için aklında bu olmalı.

CNBC'ye göre yapay zeka uzmanları, gayri resmi bir ortam aracılığıyla karşılıklı konuşmaları yakaladıkları için sosyal ağları modelleri için değerli veri kaynakları olarak görüyor. Yapay zekalara eğitim amacıyla terabaytlarca veri beslenmesi gerekir ve bu verilerin çoğu Twitter, Reddit ve StackOverflow gibi sitelerden alınır.

İlk AI modellerinin çoğu üniversitelerde ve araştırma laboratuvarlarında, genellikle herhangi bir kar beklentisi olmadan geliştirildi. Bununla birlikte, Microsoft gibi Büyük Teknoloji şirketleri büyük miktarlarda sermaye akıtarak bu AI modellerine geçtikçe, bu AI modellerinin arkasındaki gruplar kar aramaya başlıyor.

Sonuç olarak, bu yapay zekaların üzerinde eğitildiği verilerin sahipleri, verilerine erişim için ödeme talep etmeye başlıyor. Örneğin, Reddit Nisan ayında AI modellerinin eğitim amacıyla verilerine erişim elde etmesi için şirketlerden ücret almaya başlayacağını söyledi. Universal Music Group ve Getty Images dahil olmak üzere diğer şirketler, yapay zeka modellerini eğitmek için kullanılan verileri için ödeme talep ediyor.

Yapay Zeka Modelleri İçin Kritik Bir Soru

Bununla birlikte, AI modellerinin büyük miktarda veri üzerinde eğitim yapma ihtiyacını bir kenara bırakırsak, çok fazla tartışılmayan bir şey, sosyal ağların gerçekten AI modellerini eğitmek için en iyi kaynaklar olup olmadığıdır. Sosyal ağların dezenformasyon ve yanlış bilgilendirme için yoğun olduğu bir sır değil.

İnsanlar yanılmaz değildir, bu nedenle yanlışlıkla yanlış bilgiler yayınlayabilir veya söylentileri paylaşabilirler; bunların hiçbiri gerçek bilgileri temsil etmedikleri için yapay zeka modellerini eğitmek için uygun değildir. Ek olarak, sosyal ağlar tipik olarak önyargılı gönderilerle dolu olduğundan, insan önyargısı konusuna geri dönüyoruz.

Daha da kötüsü, bazı araştırmalar Facebook ve diğer sosyal ağların muhafazakar sesleri aktif olarak susturduğunu gösteriyor. Bu devam ederse, sosyal ağlar üzerinde eğitim veren yapay zeka modelleri, yalnızca üzerinde eğitildikleri veriler nedeniyle, doğası gereği liberal bir önyargıya sahip olacaktır.

Yanlış Bilgi Yaydığı Gösterilen Yapay Zekalar

Politika ve liberal ve muhafazakar konularını bir kenara bıraksak bile, bir AI modelini eğitmek için kullanılan sosyal medya gönderilerinin gerçek bilgileri paylaştığını doğrulamanın hiçbir yolu yoktur. Sosyal ağlar fikirleri ifade etmek için bir yerdir, ancak yapay zekaların ihtiyacı olan şey, doğru ve yanlış bilgileri ayırt etmeyi öğrenebilmeleri için gerçeklerdir.

Örneğin, Stanford Üniversitesi'nde yürütülen bir çalışma, yapay zekaların nefret söylemini her zaman doğru bir şekilde tanımlayamayacağını ortaya çıkardı. İnsanlar bile çoğu zaman bu konuda hemfikir olamazlar, bu nedenle bir yapay zeka modeli, doğası gereği ona nefret söylemi oluşturan kişi veya kişilerin önyargılarıyla sınırlıdır.

Bununla birlikte, yanlış bilgilendirme veya dezenformasyon sorunu daha da büyük bir sorun olabilir. Örneğin, bir çalışma, ChatGPT'nin eski New York Belediye Başkanı Michael Bloomberg hakkında bir haber makalesi yazma görevi verildiğinde sahte anonim kaynaklar oluşturma eğiliminde olduğunu buldu. Aslında, NBC New York'a göre, sözde "anonim kaynaklar" Bloomberg'i "servetini kamu politikasını etkilemek için kullanmakla" "çarptı" gibi görünüyordu.

ChatGPT'yi ve ChatGPT-4 gibi haleflerini gösteren daha fazla çalışma, eğer şans verilirse yanlış bilgi yayacaktır. Şu anki haliyle, bu yapay zekanın ani popülaritesi, yapay zekanın eksiklikleri konusunda daha fazla farkındalık ve onu nasıl eğiteceğimiz ve potansiyel olarak düzenleyeceğimiz konusunda daha fazla çalışma ihtiyacını vurguluyor.