دخول القمامة وإخراج القمامة: يواجه المسؤولون على ما يبدو مهمة مستحيلة تتمثل في تنظيم الذكاء الاصطناعي

نشرت: 2023-05-24

مع ارتفاع استخدام الذكاء الاصطناعي عبر منصات مثل Chat GPT ، يجد المشرعون الأمريكيون أنفسهم في مواجهة بعض الأسئلة الجديدة. تمامًا كما كان على المسؤولين النظر في المساءلة عن الشبكات الاجتماعية ، حيث تم نشر معظم المحتوى الذي يظهر من قبل عامة الناس ، فهم يتعاملون الآن مع المساءلة لمنصات الذكاء الاصطناعي.

من المسؤول عن التأكد من أن أنظمة الذكاء الاصطناعي تقدم معلومات صحيحة وغير سامة؟ لا أحد يعرف ، على الأقل حتى الآن ، ومن السهل معرفة السبب.

مشكلة الذكاء الاصطناعي

تصبح أنظمة الذكاء الاصطناعي أكثر ذكاءً من خلال التدريب على المزيد والمزيد من مجموعات البيانات ، وأسهل طريقة للعثور على كميات هائلة من البيانات لتدريب الذكاء الاصطناعي عليها هي البحث عبر الإنترنت. ومع ذلك ، تكمن المشكلة في أنه ليس كل ما يتم نشره هو معلومات واقعية ، خاصة عندما تتعامل مع وسائل التواصل الاجتماعي.

بعض المحتوى الذي يتم نشره - على الشبكات الاجتماعية أو في أي مكان آخر - هو مجرد رأي وليس حقيقة. من ناحية أخرى ، فإن بعضها خاطئ تمامًا: إما معلومات مضللة مثل الشائعات أو الأسوأ من ذلك ، نشر معلومات مضللة عمدًا بنية خبيثة.

لسوء الحظ ، لا تستطيع أنظمة الذكاء الاصطناعي التمييز بين المعلومات الصحيحة والخاطئة ما لم يخبرهم الإنسان بأن المعلومات خاطئة. بالإضافة إلى ذلك ، أظهرت العديد من الدراسات التي أجريت على مساعدين للذكاء الاصطناعي مثل Siri و Alexa كيف يمكن للتحيزات البشرية أن تتسلل إلى التكنولوجيا التي من المفترض أن تكون غير متحيزة.

كما يشعر المشرعون الأمريكيون بالقلق إزاء الآثار المحتملة للذكاء الاصطناعي على الأمن القومي والتعليم. على وجه الخصوص ، يشعر المسؤولون بالقلق بشأن ChatGPT ، وهو برنامج ذكاء اصطناعي قادر على كتابة إجابات سريعة لمجموعة متنوعة من الأسئلة. أصبح على الفور تطبيق المستهلك الأسرع نموًا على الإطلاق ، حيث جذب أكثر من 100 مليون مستخدم نشط شهريًا في غضون أشهر.

يدعو إلى المساءلة في الذكاء الاصطناعي

كل هذه العوامل وغيرها تثير العديد من الأسئلة حول المساءلة عن الذكاء الاصطناعي. في أبريل ، دعت الإدارة الوطنية للاتصالات والمعلومات ، وهي جزء من وزارة التجارة ، إلى المساهمة العامة بشأن تدابير المساءلة المحتملة. وأشارت الوكالة إلى "الاهتمام التنظيمي المتزايد" بـ "آلية المساءلة" للذكاء الاصطناعي.

على وجه التحديد ، يريد المسؤولون معرفة ما إذا كان بإمكانهم اتخاذ أي تدابير لضمان "أن أنظمة الذكاء الاصطناعي قانونية وفعالة وأخلاقية وآمنة وجديرة بالثقة." قال مدير NTIA ، آلان ديفيدسون ، لرويترز إن أنظمة الذكاء الاصطناعي "المسؤولة" قد تقدم "فوائد هائلة ..." ، لكن "الشركات والمستهلكين بحاجة إلى أن يكونوا قادرين على الوثوق بها.

قال الرئيس جو بايدن سابقًا إنه من غير الواضح ما إذا كان الذكاء الاصطناعي خطيرًا ، مضيفًا أن شركات التكنولوجيا "تتحمل مسؤولية ... التأكد من أن منتجاتها آمنة قبل الإعلان عنها".

كيف يتم تدريب نماذج الذكاء الاصطناعي

بالطبع ، يمكن للذكاء الاصطناعي أن يكون جيدًا فقط مثل البيانات المستخدمة في تدريبه. هدد الرئيس التنفيذي لشركة Twitter Elon Musk بمقاضاة Microsoft بعد اتهامها باستخدام بيانات الشبكة الاجتماعية بشكل غير قانوني لتدريب نموذج الذكاء الاصطناعي الخاص بها. من ناحية أخرى ، يشير تهديد ماسك إلى ادعاء شركة Big Tech بملكية البيانات التي جمعتها - والتي عادةً ما يقدمها مستخدموها مجانًا. تصنع هذه الشركات التقنية العملاقة نقودًا عن طريق فرض رسوم على شركات أخرى لاستخدام البيانات التي تم جمعها ، ويجب أن يكون هذا هو ما كان يدور في ذهن ماسك لشركة Microsoft إذا استخدمت بيانات Twitter.

وفقًا لـ CNBC ، يرى خبراء الذكاء الاصطناعي الشبكات الاجتماعية كمصادر قيّمة للبيانات لنماذجهم لأنها تلتقط المحادثات ذهابًا وإيابًا عبر بيئة غير رسمية. يجب تغذية أنظمة الذكاء الاصطناعي التي تيرابايت من البيانات لأغراض التدريب ، ويتم استخراج الكثير من هذه البيانات من مواقع مثل Twitter و Reddit و StackOverflow.

تم تطوير العديد من نماذج الذكاء الاصطناعي الأولى في الجامعات ومختبرات الأبحاث ، وعادةً ما يكون ذلك بدون أي توقعات للأرباح. ومع ذلك ، مع انتقال شركات التكنولوجيا الكبيرة مثل Microsoft إلى نماذج الذكاء الاصطناعي هذه من خلال ضخ كميات كبيرة من رأس المال ، بدأت المجموعات التي تقف وراء نماذج الذكاء الاصطناعي هذه في البحث عن الأرباح.

نتيجة لذلك ، بدأ مالكو البيانات التي يتم تدريب أنظمة الذكاء الاصطناعي عليها في المطالبة بالدفع مقابل الوصول إلى بياناتهم. على سبيل المثال ، قال Reddit في أبريل إنه سيبدأ في فرض رسوم على الشركات مقابل نماذج الذكاء الاصطناعي لتلقي الوصول إلى بياناتها لأغراض التدريب. تطالب شركات أخرى ، بما في ذلك Universal Music Group و Getty Images ، بالدفع مقابل استخدام بياناتها لتدريب نماذج الذكاء الاصطناعي.

سؤال حاسم لنماذج الذكاء الاصطناعي

ومع ذلك ، وبغض النظر عن الحاجة إلى تدريب نماذج الذكاء الاصطناعي على كميات هائلة من البيانات ، فإن الشيء الوحيد الذي لم تتم مناقشته كثيرًا هو ما إذا كانت الشبكات الاجتماعية هي بالفعل أفضل المصادر التي يمكن من خلالها تدريب نماذج الذكاء الاصطناعي. ليس سراً أن الشبكات الاجتماعية هي أوكار للمعلومات المضللة والتضليل.

البشر ليسوا معصومين من الخطأ ، لذلك قد ينشرون عن طريق الخطأ معلومات غير صحيحة أو يشاركون الشائعات ، وكلاهما غير مناسب لتدريب نماذج الذكاء الاصطناعي لأنهم لا يمثلون معلومات واقعية. بالإضافة إلى ذلك ، نعود إلى قضية التحيز البشري لأن الشبكات الاجتماعية عادة ما تمتلئ بالمشاركات المتحيزة.

والأسوأ من ذلك أن بعض الدراسات أشارت إلى أن Facebook والشبكات الاجتماعية الأخرى تعمل بنشاط على إسكات الأصوات المحافظة. إذا استمر ذلك ، فإن نماذج الذكاء الاصطناعي التي تتدرب على الشبكات الاجتماعية سيكون لها تحيز ليبرالي بطبيعته ، وذلك ببساطة بسبب البيانات التي تم تدريبها عليها.

تظهر أنظمة الذكاء الاصطناعي لنشر معلومات خاطئة

حتى لو وضعنا جانباً قضية السياسة والليبرالية مقابل المحافظة ، فلا توجد طريقة للتحقق من أن منشورات وسائل التواصل الاجتماعي المستخدمة لتدريب نموذج الذكاء الاصطناعي تشارك المعلومات الواقعية. الشبكات الاجتماعية هي مكان للتعبير عن الآراء ، ولكن ما تحتاجه أنظمة الذكاء الاصطناعي هو الحقائق حتى يتمكنوا من التعرف على المعلومات الصحيحة والكاذبة.

على سبيل المثال ، كشفت دراسة أجريت في جامعة ستانفورد أن الذكاء الاصطناعي لا يمكنه دائمًا تحديد خطاب الكراهية بدقة. حتى البشر في كثير من الأحيان لا يتفقون على هذه المسألة ، لذا فإن نموذج الذكاء الاصطناعي يقتصر بطبيعته على تحيزات الشخص أو الأشخاص الذين أخبروه بما يشكل خطاب الكراهية.

ومع ذلك ، قد تكون مشكلة المعلومات الخاطئة أو المعلومات المضللة مشكلة أكبر. على سبيل المثال ، وجدت إحدى الدراسات أن ChatGPT يميل إلى اختلاق مصادر مجهولة زائفة عند تكليفه بكتابة مقال إخباري عن عمدة مدينة نيويورك السابق مايكل بلومبرج. في الواقع ، يبدو أن تلك "المصادر المجهولة" المزعومة "تحرف" بلومبرج "لاستخدام ثروته للتأثير على السياسة العامة" ، وفقًا لشبكة إن بي سي نيويورك.

المزيد والمزيد من الدراسات التي تثبت ChatGPT وخلفائها مثل ChatGPT-4 ستنشر معلومات خاطئة إذا أتيحت لها الفرصة للقيام بذلك. كما هو الحال الآن ، فإن الشعبية المفاجئة لهذا الذكاء الاصطناعي تسلط الضوء على الحاجة إلى زيادة الوعي بأوجه القصور في الذكاء الاصطناعي ودراسة أكبر حول كيفية تدريبه وتنظيمه.