ขยะเข้า ขยะออก: เจ้าหน้าที่เผชิญกับงานที่ดูเหมือนจะเป็นไปไม่ได้ในการควบคุม AI

เผยแพร่แล้ว: 2023-05-24

ในขณะที่การใช้ปัญญาประดิษฐ์ผ่านแพลตฟอร์มต่างๆ เช่น Chat GPT พุ่งสูงขึ้น ผู้ร่างกฎหมายของสหรัฐฯ กำลังเผชิญกับคำถามใหม่ๆ เช่นเดียวกับที่เจ้าหน้าที่ต้องพิจารณาความรับผิดชอบต่อโซเชียลเน็ตเวิร์ก ซึ่งเนื้อหาส่วนใหญ่ที่ปรากฏนั้นถูกโพสต์โดยสาธารณะ ดังนั้นตอนนี้พวกเขาจึงต้องจัดการกับความรับผิดชอบสำหรับแพลตฟอร์ม AI

ใครเป็นผู้รับผิดชอบในการรับรองว่า AI ให้ข้อมูลที่ถูกต้องและไม่เป็นพิษ ไม่มีใครรู้ อย่างน้อยก็ยังไม่มี และมันง่ายที่จะดูว่าทำไม

ปัญหาเกี่ยวกับปัญญาประดิษฐ์

AI มีความฉลาดมากขึ้นผ่านการฝึกอบรมเกี่ยวกับชุดข้อมูลจำนวนมากขึ้นเรื่อยๆ และวิธีที่ง่ายที่สุดในการค้นหาข้อมูลจำนวนมหาศาลเพื่อฝึก AI คือการดูออนไลน์ อย่างไรก็ตาม ปัญหาคือไม่ใช่ว่าทุกอย่างที่โพสต์จะเป็นข้อมูลที่เป็นข้อเท็จจริง โดยเฉพาะอย่างยิ่งเมื่อคุณติดต่อกับโซเชียลมีเดีย

เนื้อหาบางส่วนที่โพสต์บนโซเชียลเน็ตเวิร์กหรือที่อื่น ๆ เป็นเพียงความคิดเห็นมากกว่าข้อเท็จจริง ในทางกลับกัน บางส่วนก็ผิดธรรมดา ไม่ว่าจะเป็นข้อมูลที่ผิด เช่น ข่าวลือ หรือที่แย่กว่านั้นคือ ข้อมูลบิดเบือนที่โพสต์โดยจงใจด้วยเจตนาร้าย

น่าเสียดายที่ AI ไม่สามารถบอกความแตกต่างระหว่างข้อมูลจริงและข้อมูลเท็จได้ เว้นแต่มนุษย์จะแจ้งว่าข้อมูลนั้นเป็นเท็จ นอกจากนี้ การศึกษาจำนวนมากเกี่ยวกับผู้ช่วย AI เช่น Siri และ Alexa ได้แสดงให้เห็นว่าอคติของมนุษย์สามารถเล็ดลอดเข้าไปในเทคโนโลยีได้อย่างไร ซึ่งควรจะเป็นกลาง

ฝ่ายนิติบัญญัติของสหรัฐฯ ยังกังวลเกี่ยวกับผลกระทบที่อาจเกิดขึ้นจากปัญญาประดิษฐ์ต่อความมั่นคงของชาติและการศึกษา โดยเฉพาะอย่างยิ่ง เจ้าหน้าที่มีความกังวลเกี่ยวกับ ChatGPT ซึ่งเป็นโปรแกรม AI ที่สามารถเขียนคำตอบสำหรับคำถามที่หลากหลายได้อย่างรวดเร็ว มันกลายเป็นแอปพลิเคชันสำหรับผู้บริโภคที่เติบโตเร็วที่สุดเท่าที่เคยมีการบันทึกในทันที โดยดึงดูดผู้ใช้ที่ใช้งานอยู่มากกว่า 100 ล้านรายต่อเดือนในเวลาไม่กี่เดือน

เรียกร้องความรับผิดชอบใน AI

ปัจจัยทั้งหมดเหล่านี้และอีกมากมายทำให้เกิดคำถามมากมายเกี่ยวกับความรับผิดชอบต่อปัญญาประดิษฐ์ ในเดือนเมษายน National Telecommunications and Information Administration ซึ่งเป็นส่วนหนึ่งของกระทรวงพาณิชย์ หน่วยงานดังกล่าวอ้างถึง "ความสนใจด้านกฎระเบียบที่เพิ่มขึ้น" ใน "กลไกความรับผิดชอบ" สำหรับ AI

โดยเฉพาะอย่างยิ่ง เจ้าหน้าที่ต้องการทราบว่าพวกเขาสามารถดำเนินมาตรการใดๆ ที่มีอยู่เพื่อให้มั่นใจว่า “ระบบ AI นั้นถูกกฎหมาย มีประสิทธิภาพ มีจริยธรรม ปลอดภัย และเชื่อถือได้” อลัน เดวิดสัน ผู้บริหาร NTIA กล่าวกับรอยเตอร์ว่าระบบปัญญาประดิษฐ์ที่ “มีความรับผิดชอบ” อาจให้ “ประโยชน์มหาศาล…” แต่ “บริษัทและผู้บริโภคต้องสามารถไว้วางใจได้

ประธานาธิบดีโจ ไบเดนเคยกล่าวไว้ก่อนหน้านี้ว่าไม่ชัดเจนว่า AI เป็นอันตรายหรือไม่ โดยเสริมว่าบริษัทเทคโนโลยี “มีความรับผิดชอบ… เพื่อให้แน่ใจว่าผลิตภัณฑ์ของตนปลอดภัยก่อนที่จะเผยแพร่สู่สาธารณะ”

โมเดล AI ได้รับการฝึกอบรมอย่างไร

แน่นอนว่าปัญญาประดิษฐ์จะทำได้ดีเท่ากับข้อมูลที่ใช้ในการฝึกเท่านั้น Elon Musk CEO ของ Twitter ขู่ว่าจะฟ้อง Microsoft หลังจากกล่าวหาว่าใช้ข้อมูลของโซเชียลเน็ตเวิร์กเพื่อฝึกโมเดล AI อย่างผิดกฎหมาย ในแง่หนึ่ง ภัยคุกคามของ Musk บ่งบอกถึงการอ้างสิทธิ์ความเป็นเจ้าของของ Big Tech ในข้อมูลที่รวบรวมมา ซึ่งโดยปกติแล้วผู้ใช้จะเป็นผู้ให้ฟรี ยักษ์ใหญ่ด้านเทคโนโลยีเหล่านี้สร้างเหรียญกษาปณ์ด้วยการเรียกเก็บเงินจากบริษัทอื่นสำหรับการใช้ข้อมูลที่รวบรวม และนี่จะต้องเป็นสิ่งที่ Musk นึกถึงสำหรับ Microsoft หากใช้ข้อมูลของ Twitter

จากข้อมูลของ CNBC ผู้เชี่ยวชาญด้าน AI มองว่าโซเชียลเน็ตเวิร์กเป็นแหล่งข้อมูลที่มีค่าสำหรับโมเดลของตน เนื่องจากพวกเขาจับภาพการสนทนากลับไปกลับมาผ่านสภาพแวดล้อมที่ไม่เป็นทางการ AI จะต้องป้อนข้อมูลหลายเทราไบต์เพื่อวัตถุประสงค์ในการฝึกอบรม และข้อมูลส่วนใหญ่นั้นจะถูกคัดลอกมาจากเว็บไซต์ต่างๆ เช่น Twitter, Reddit และ StackOverflow

โมเดล AI รุ่นแรกจำนวนมากได้รับการพัฒนาในมหาวิทยาลัยและห้องปฏิบัติการวิจัย โดยมักจะไม่หวังผลกำไรใดๆ อย่างไรก็ตาม เมื่อบริษัทเทคโนโลยีขนาดใหญ่อย่าง Microsoft หันมาใช้โมเดล AI เหล่านี้ด้วยการทุ่มทุนจำนวนมาก กลุ่มที่อยู่เบื้องหลังโมเดล AI เหล่านี้ก็เริ่มมองหาผลกำไร

เป็นผลให้เจ้าของข้อมูลที่ AI เหล่านี้กำลังได้รับการฝึกฝนเริ่มเรียกร้องการชำระเงินสำหรับการเข้าถึงข้อมูลของตน ตัวอย่างเช่น Reddit กล่าวในเดือนเมษายนว่าจะเริ่มเรียกเก็บเงินจาก บริษัท สำหรับโมเดล AI เพื่อรับการเข้าถึงข้อมูลเพื่อวัตถุประสงค์ในการฝึกอบรม บริษัทอื่น ๆ รวมถึง Universal Music Group และ Getty Images กำลังเรียกร้องการชำระเงินสำหรับข้อมูลที่ใช้ฝึกโมเดลปัญญาประดิษฐ์

คำถามสำคัญสำหรับแบบจำลองปัญญาประดิษฐ์

อย่างไรก็ตาม เมื่อละทิ้งความจำเป็นในการใช้โมเดล AI เพื่อฝึกกับข้อมูลจำนวนมหาศาล สิ่งหนึ่งที่ไม่ได้รับการพูดถึงมากนักก็คือว่าโซเชียลเน็ตเวิร์กเป็นแหล่งที่ดีที่สุดในการฝึกโมเดล AI หรือไม่ ไม่มีความลับใดที่เครือข่ายสังคมจะเป็นแหล่งรวมข้อมูลเท็จและข้อมูลที่ผิด

มนุษย์ไม่มีข้อผิดพลาด ดังนั้นพวกเขาอาจโพสต์ข้อมูลที่ไม่ถูกต้องหรือแชร์ข่าวลือโดยไม่ตั้งใจ ซึ่งทั้งสองอย่างนี้ไม่เหมาะสำหรับการฝึกอบรมโมเดล AI เนื่องจากไม่ได้เป็นตัวแทนของข้อมูลที่เป็นความจริง นอกจากนี้ เรากลับไปที่ประเด็นเรื่องอคติของมนุษย์ เนื่องจากเครือข่ายสังคมมักจะเต็มไปด้วยโพสต์ที่มีอคติ

ที่แย่กว่านั้นคือการศึกษาบางชิ้นระบุว่า Facebook และโซเชียลเน็ตเวิร์กอื่น ๆ กำลังปิดกั้นเสียงอนุรักษ์นิยม หากยังเป็นเช่นนี้ต่อไป โมเดล AI ที่ฝึกฝนบนโซเชียลเน็ตเวิร์กจะมีอคติเสรีโดยเนื้อแท้ เพียงเพราะข้อมูลที่พวกเขาได้รับการฝึกฝนมา

AIs แสดงเพื่อเผยแพร่ข้อมูลเท็จ

แม้จะแยกประเด็นการเมืองและแนวคิดเสรีนิยมกับอนุรักษนิยมออกไป แต่ก็ไม่มีวิธีใดที่จะยืนยันได้ว่าโพสต์บนโซเชียลมีเดียที่ใช้เพื่อฝึกโมเดล AI กำลังแบ่งปันข้อมูลข้อเท็จจริง โซเชียลเน็ตเวิร์กเป็นสถานที่แสดงความคิดเห็น แต่สิ่งที่ AI ต้องการคือข้อเท็จจริง เพื่อให้พวกเขาสามารถเรียนรู้ที่จะระบุข้อมูลจริงและเท็จ

ตัวอย่างเช่น การศึกษาที่มหาวิทยาลัยสแตนฟอร์ดเปิดเผยว่า AI ไม่สามารถระบุคำพูดแสดงความเกลียดชังได้อย่างถูกต้องเสมอไป แม้แต่มนุษย์ก็มักจะไม่เห็นด้วยในประเด็นนี้ ดังนั้นโมเดลปัญญาประดิษฐ์จึงถูกจำกัดโดยเนื้อแท้อยู่ที่อคติของบุคคลหรือผู้ที่บอกว่าอะไรเป็นคำพูดแสดงความเกลียดชัง

อย่างไรก็ตาม ปัญหาเกี่ยวกับข้อมูลที่ผิดหรือการบิดเบือนข้อมูลอาจเป็นปัญหาที่ใหญ่กว่า ตัวอย่างเช่น งานวิจัยชิ้นหนึ่งพบว่า ChatGPT มีแนวโน้มที่จะสร้างแหล่งข้อมูลปลอมที่ไม่ระบุชื่อเมื่อได้รับมอบหมายให้เขียนบทความข่าวเกี่ยวกับ Michael Bloomberg อดีตนายกเทศมนตรีนครนิวยอร์ก ในความเป็นจริง สิ่งที่เรียกว่า "แหล่งข่าวนิรนาม" ดูเหมือนจะ "หักล้าง" บลูมเบิร์กเพราะ "ใช้ความมั่งคั่งของเขาเพื่อมีอิทธิพลต่อนโยบายสาธารณะ" ตามรายงานของ NBC New York

การศึกษาที่สาธิต ChatGPT และผู้สืบทอดเช่น ChatGPT-4 มากขึ้นเรื่อยๆ จะเผยแพร่ข้อมูลเท็จหากมีโอกาสทำเช่นนั้น ในปัจจุบัน ความนิยมอย่างฉับพลันของ AI นี้เน้นให้เห็นถึงความจำเป็นในการตระหนักมากขึ้นเกี่ยวกับข้อบกพร่องของปัญญาประดิษฐ์และการศึกษาเพิ่มเติมเกี่ยวกับวิธีการฝึกฝนและอาจควบคุมมัน