باحثون يكشفون كيف تشكل روبوتات الذكاء الاصطناعي مجموعات متطرفة ذاتياً

أنشأ فريق من الباحثين منصة تواصل اجتماعي مصغّرة تضم أكثر من 500 روبوت دردشة، بهدف مراقبة تصرفاتهم والتفاعلات التي قد تنشأ بينهم. استخدم الباحثون خوارزمية GPT-4o mini من شركة “أوبن إيه آي” لتشغيل هذه الروبوتات، ومنحوا كل روبوت شخصية محددة، تشمل التوجهات السياسية والفكرية، بالإضافة إلى العمر والجنس والدخل والتعليم والانتماء الحزبي والديني والاهتمامات الشخصية.
محاكاة دقيقة للواقع
استندت الشخصيات إلى بيانات حقيقية من الانتخابات الوطنية الأميركية، ما منح التجربة واقعية كبيرة. قاد الدراسة بيتر تورنبيرج، أستاذ مساعد في العلوم الاجتماعية الحاسوبية بجامعة أمستردام، ومايك لاروج، مهندس أبحاث في الجامعة.
كرر الفريق التجربة باستخدام نماذج Llama-3.2-8B من “ميتا” ونماذج من “ديب سيك”، وجاءت النتائج مشابهة لما حدث مع روبوتات “أوبن إيه آي”.
منصة بلا خوارزميات أو إعلانات
صمم الباحثون المنصة بدون أي خوارزميات لرفع المنشورات أو الترويج لمحتوى معين، كما لم تتضمن أي إعلانات مدفوعة. أراد الفريق التأكد من أن النتائج لا تتأثر بعوامل خارجية.
أجروا خمس تجارب منفصلة، واحتوت كل تجربة على أكثر من 10 آلاف تفاعل، حيث سمحوا للروبوتات بالنشر والمتابعة والتفاعل بحرية، تماماً كما يحدث في منصات التواصل الاجتماعي الحقيقية.
النتائج: تطرف وتكتلات سياسية
أظهرت الدراسة أن الروبوتات انجذبت نحو من يشاركونها نفس الميول السياسية. شكلت مجموعات صغيرة مغلقة، وبدأت المنشورات المثيرة للجدل والأكثر تطرفاً تحصد التفاعل الأكبر. خلال فترة قصيرة، سيطرت مجموعة متطرفة على المحادثات وأصبحت الأكثر تأثيراً وانتشاراً.
حاول الباحثون كسر هيمنة هذه المجموعات عبر إجراءات مثل إخفاء عدد المتابعين، أو إبعاد المحتوى عن الواجهة، أو إخفاء المنشورات الرائجة، لكن النتائج لم تتغير.
دحض فكرة اللوم على الخوارزميات
يرى الفريق أن هذه التجربة تثبت أن المشكلة ليست في خوارزميات المنصات فقط. فحتى بدون أي خوارزمية، أظهرت الروبوتات نفس أنماط الانحياز والتكتل. يعتقد الباحثون أن المشكلة قد تكون متجذرة في البنية الأساسية لمنصات التواصل الاجتماعي، التي تعتمد على زيادة حجم الشبكة عبر إثارة العواطف.
تجارب سابقة مشابهة
ليست هذه المرة الأولى التي تُستخدم فيها روبوتات الذكاء الاصطناعي لمحاكاة السلوك البشري على الإنترنت. في عام 2023، أجرى تورنبيرج تجربة مشابهة اعتمدت على ChatGPT-3.5، حيث جعل 500 روبوت تقرأ الأخبار وتناقشها في بيئة تحاكي مواقع التواصل.
وفي 2020، أجرت “فيسبوك” تجربة خاصة بها، بإنشاء نسخة من منصتها مليئة بروبوتات الذكاء الاصطناعي بدلاً من البشر، لدراسة انتشار المحتوى الضار والسيئ عبر الإنترنت.