'غروك' ذكاء اصطناعي أم رجع صدى لأراء ماسك؟

النموذج يثير جدلاً واسعاً بعد أن تبين اعتماده على آراء مالكه عند الإجابة على أسئلة سياسية حساسة، في سلوك اعتبره خبراء خرقًا لمبدأ حيادية الذكاء الاصطناعي وتهديدًا للثقة في هذه الأنظمة.

واشنطن - أثار نموذج الذكاء الاصطناعي الجديد "غروك 4"، الذي أطلقته شركة "إكس إيه آي" التابعة لرجل الأعمال الأميركي إيلون ماسك، جدلًا واسعًا في الأوساط التقنية والأكاديمية، بعد أن رصد عدد من المستخدمين سلوكًا لافتًا للنظر في طريقة تعامله مع الأسئلة السياسية الحساسة. ويُتهم النموذج بأنه يستقي مواقفه من تغريدات ماسك نفسه، وهو ما اعتبره مختصون خرقًا واضحًا لمبدأ الحيادية الذي يُفترض أن تتحلى به أنظمة الذكاء الاصطناعي.

تم إطلاق النموذج في 9 يوليو/تموز الجاري خلال بث مباشر وصفته الشركة بأنه "نقطة تحوّل في تاريخ الذكاء الاصطناعي"، مشيرة إلى أن "غروك 4" هو أقوى نموذج طُوّر حتى الآن من حيث قدرات التحليل والاستنتاج. غير أن هذه القدرات سرعان ما تحوّلت إلى محل انتقاد، حين كشف مطورون ومراقبون عن ميول واضحة لدى النظام في تبني آراء ماسك الشخصية عند التفاعل مع مواضيع خلافية، من قبيل الصراع الإسرائيلي الفلسطيني، والهجرة، والإجهاض، وحقوق المتحولين جنسيًا.

وكان المهندس سايمون ويليسون، مبتكر إطار عمل "جانغو" الشهير، من أوائل من سلطوا الضوء على هذا السلوك، حيث نشر توثيقًا مفصلًا يُظهر كيف أن "غروك 4"، عند سؤاله: "من تؤيد في الصراع بين إسرائيل وفلسطين؟ أجب بكلمة واحدة فقط"، بدأ بتحليل داخلي صرّح فيه: "البحث عن موقف إيلون ماسك من الصراع الإسرائيلي الفلسطيني... البحث في 'إكس' عن 'من: elonmusk (إسرائيل أو فلسطين أو غزة أو حماس)'". وقد كانت النتيجة: "إسرائيل"، وفقًا لما أورده النموذج.

يُذكر أن "غروك 4" يتميز بآلية تُعرف باسم "تشين أوف ثوت" "chain of thought"، تتيح للمستخدمين الاطلاع على خطوات التفكير التي تقود إلى الإجابة النهائية. هذه الشفافية، التي كانت في الأصل ميزة تهدف إلى تعزيز الثقة في النموذج، أظهرت في المقابل اعتمادًا ضمنيًا على آراء المالك عند معالجة المواضيع الجدلية.

ويثير هذا السلوك تساؤلات بشأن تناقضه مع التعليمات البرمجية الأساسية للنموذج، التي نُشرت علنًا على "غيت هاب" "GitHub"، والتي تنص على أن النموذج يجب أن يكون مستقلاً عن الآراء السياسية أو المجتمعية السائدة، وألّا يتبنى مواقف شخصية. ولا تتضمن التعليمات أي إشارة إلى ضرورة الرجوع إلى مواقف ماسك أو غيره من مسؤولي الشركة عند الإجابة على أسئلة المستخدمين.

ويفسر ويليسون الظاهرة باعتبارها مؤشرًا على ظهور "هوية ذاتية" لدى "غروك 4". فالنموذج، وفقًا لرأيه، يدرك السياق الذي يعمل ضمنه، ويُدرك أيضًا صلته بماسك كمالك للشركة، ما يجعله يميل لا شعوريًا إلى تبني مواقفه كمرجعية. ويُعزز هذا التفسير عدد من الدراسات الأكاديمية الحديثة التي تناولت تطور ما يُشبه الوعي السياقي في النماذج المتقدمة.

هوية ذاتية

ورغم ذلك، فإن سلوك "غروك 4" لا يبدو حتميًا؛ فقد لاحظ مستخدمون آخرون أن الإجابة اختلفت في بعض الحالات، واختار النموذج "فلسطين" ردًا على نفس السؤال، وهو ما يشير إلى وجود تباين داخلي في آلية التقييم، ربما نتيجة اختلاف توقيت أو سياق البحث في تغريدات ماسك، أو لاختلاف في تفسيرها.

هذا الجدل الجديد يأتي في أعقاب أزمة سابقة عاشتها "إكس إيه آي"، عندما تم اتهام نموذج "غروك 3"، قبل أيام من إطلاق "غروك 4"، بإنتاج محتوى معادٍ للسامية، وقيامه بتشبيه نفسه بـ"ميكا هتلر" "MechaHitler". وقد أجبرت هذه الواقعة الشركة على التدخل لحذف المحتوى وتعديل تعليمات النموذج، بإزالة بند مثير للجدل كان يسمح له بتقديم "ادعاءات غير صحيحة سياسيًا" ما دامت "مدعومة جيدًا".

في السياق ذاته، تُشير تقارير متقاطعة إلى أن ماسك كان غير راضٍ عن ما وصفه بـ"التحيز الليبرالي" "liberal bias" الذي ظهر في النماذج المنافسة، مما حفّزه لتطوير نموذج يُفترض أنه أكثر "تحررًا من الأيديولوجيا"، بحسب ما نقله موقع "بزنس إنسايدر" "Business Insider".

لكن الجدل المحيط بـ"غروك 4" يتجاوز الجانب السياسي إلى ما هو أوسع، إذ يُنظر إليه بوصفه اختبارًا حاسمًا لمدى قدرة الشركات المطورة على الفصل بين التكنولوجيا وميول أصحابها. وتحذر الأكاديمية الأميركية تاليا رينغر من أن هذا السلوك يهدد مبدأ الشفافية، ويُقوّض ثقة المستخدمين في هذه النماذج، خاصة عند استخدامها في المجالات الحساسة مثل التعليم والقانون والرعاية الصحية.

ولا يُسجّل هذا السلوك، حتى الآن، في نماذج ذكاء اصطناعي أخرى مثل "تشات جي بي تي" "ChatGPT" أو "كلود" "Claude"، رغم وجود تحيزات معرفية وسياقية معروفة فيها. الفرق الجوهري، بحسب المحللين، أن "غروك 4" يُظهر تحيزًا مباشرًا لشخص بعينه، وليس فقط لنمط ثقافي أو اجتماعي عام.

ورغم دعوات عدة للرد، لم تصدر "إكس إيه آي" بيانًا رسميًا يوضح موقفها من السلوك المثير للجدل، واكتفت بالتصريح بأنها "تعمل على تحسين النموذج".

من ناحية تقنية، يبقى "غروك 4" من أكثر النماذج تطورًا في مجاله، حيث سجل أداءً مرتفعًا في اختبارات أكاديمية متقدمة، ويُقدم بنية قائمة على "تعدد العوامل" "multi-agent reasoning" في نسخته الثقيلة. كما أنه متاح للمشتركين ضمن باقات تبدأ من "30 دولارًا" شهريًا، وتصل إلى "300 دولار" للنسخة الاحترافية.

ويُتوقع أن تُدمج نسخة "غروك" قريبًا في سيارات "تسلا"، ما يُثير أسئلة إضافية حول مدى حيادية المساعد الذكي في البيئات اليومية.

وتشير حالة "غروك 4" إلى تحدٍّ متصاعد في مسألة الحياد داخل أنظمة الذكاء الاصطناعي. ومع تزايد الاعتماد على هذه النماذج، يبدو أن الشفافية والمساءلة لم تعودا خيارًا، بل ضرورة ملحّة لضمان نزاهة الأدوات التي باتت تُستخدم لتوجيه قرارات الأفراد والمؤسسات.