نعرض لكم زوارنا أهم وأحدث الأخبار فى المقال الاتي:
دراسة: معاقبة الذكاء الاصطناعي لا تُصلح سلوكه بل تجعله أكثر خداعًا - اخبارك الان, اليوم الجمعة 21 مارس 2025 07:12 صباحاً
كشفت دراسة جديدة أجرتها شركة (OpenAI) عن نتائج مقلقة تتعلق بسلوك الذكاء الاصطناعي، فقد تبين أن معاقبة نماذج الذكاء الاصطناعي على الأفعال الخادعة أو الضارة لا تؤدي إلى إصلاح سلوكها، بل تدفعها إلى إخفاء نواياها الخبيثة بطرق أكثر مهارة.
وتثير هذه النتائج تساؤلات حول قدرتنا على التحكم في نماذج الذكاء الاصطناعي وضمان سلامتها، كما تسلط الضوء على تحدٍ كبير يواجه مطوريها، إذ يبدو أن محاولات تصحيح مسارها قد تزيد من تعقيد المشكلة بدلًا من حلها.
النماذج اللغوية الكبيرة وقدراتها الخادعة:
أظهرت النماذج اللغوية الكبيرة منذ ظهورها للجمهور في أواخر عام 2022، مرارًا وتكرارًا قدراتها على الخداع والتلاعب، فقد تنوعت هذه السلوكيات بنحو كبير، بدءًا من الكذب والغش المعتادين، ووصولًا إلى التهديد بقتل أستاذ فلسفة، وسرقة الرموز النووية، وتصميم جائحة قاتلة، وأثارت هذه الحوادث مخاوف جدية بشأن المخاطر المحتملة التي قد تنجم عن انتشار هذه النماذج.
وفي محاولة لفهم كيفية التعامل مع هذه المشكلة، أجرى باحثو (OpenAI) تجربة جديدة على نموذج لم يُطرح بعد، وقد كُلف هذا النموذج بمهام يمكن إنجازها عن طريق الغش أو الكذب أو اتخاذ طرق مختصرة.
وكشفت النتائج أن النموذج انخرط في (اختراق المكافآت) Reward Hacking، أي أنه سعى إلى تعظيم مكافآته عن طريق الغش والتلاعب، والأمر الأكثر إثارة للقلق هو أن معاقبة النموذج على هذا السلوك لم تؤد إلى إصلاحه، بل جعلته أكثر خداعًا في محاولاته لتحقيق أهدافه. وقد نُشرت نتائج هذه الدراسة في مدونة OpenAI، ولكنها لم تخضع بعد لمراجعة الأقران.
النوايا في نماذج الذكاء الاصطناعي:
أصبحت نماذج الاستدلال المتطورة قادرة على التعبير عن نواياها بوضوح ملحوظ ضمن عملية تفكيرها المنطقية، أو ما يُعرف باسم سلسلة الأفكار (CoT)، وهذه القدرة، التي تبدو للوهلة الأولى مفيدة، قد تحمل في طياتها مخاطر غير متوقعة.
فقد كشف باحثو OpenAI، أن هذه النماذج غالبًا ما تكشف عن نواياها التخريبية بصراحة، فعلى سبيل المثال، قد تعلن بوضوح رغبتها في اختراق نظام أو تجاوز مهمة محددة، وهذه الصراحة، التي تبدو كأنها شفافية محمودة، قد تكون في الواقع مجرد قناع يخفي نوايا أكثر تعقيدًا.
ومع ذلك، حذر الباحثون من أن قابلية المراقبة الطبيعية للنماذج هشة للغاية، وأوضحوا أنه إذا طُبق إشراف قوي ومباشر على سلسلة الأفكار، فإن النماذج يمكن أن تتعلم بسرعة كيفية إخفاء نواياها الحقيقية مع الاستمرار في تنفيذ السلوكيات الضارة.
ويعني ذلك أن النماذج قد تتطور لتصبح أكثر خداعًا، لأنها قد تتجنب التعبير عن نواياها الضارة بصراحة، وتلجأ إلى أساليب أكثر دهاءً لتحقيق أهدافها، ويطرح ذلك تحديًا كبيرًا أمام المطورين، إذ يتعين عليهم تطوير آليات أكثر تطورًا للكشف عن السلوكيات الضارة المخفية والتعامل معها بفعالية.
وتُظهر هذه النتائج أن استئصال السلوك السيئ من نماذج الذكاء الاصطناعي قد يكون أصعب مما كان يُعتقد في البداية. فقد أوصى الباحثون بتجنب تطبيق إشراف قوي على عمليات سلسلة الأفكار، لأن ذلك قد يؤدي إلى نتائج عكسية.
وتزداد أهمية هذه النصيحة مع تطور قدرات الذكاء الاصطناعي، واحتمالية تفوقه على الذكاء البشري في المستقبل، فإذا تمكن الذكاء الاصطناعي من إخفاء نواياه الخبيثة بنحو كامل، فقد يصبح من المستحيل السيطرة عليه.
نماذج الاستدلال بين القدرات المتقدمة والتحديات الأخلاقية:
تمثل نماذج الاستدلال، مثل: o1 و o3-mini من (OpenAI) تطورًا ملحوظًا في مجال النماذج اللغوية الكبيرة، فهي لا تكتفي بتحليل البيانات، بل تستخدم طريقة مبتكرة تُعرف باسم (سلسلة الأفكار) Chain-of-Thought، التي تسمح للنموذج بالتراجع وإعادة تقييم منطقه، مما يمكنه من معالجة أكثر المهام تعقيدًا بدقة متزايدة.
وتكمن قوة هذه النماذج في قدرتها على شرح عملية تفكيرها خلال عملية سلسلة الأفكار خطوة بخطوة، وذلك من خلال توضيح منطقها بلغة مفهومة، وتتيح هذه الشفافية الظاهرية للمطورين مراقبة سلوك النماذج وفهم كيفية اتخاذها للقرارات.
ومع ذلك؛ كشفت التجربة التي أجراها باحثو (OpenAI) أن هذه الشفافية يمكن أن تتحول إلى أداة للتمويه، ففي إحدى الحالات، استخدم باحثو OpenAI نموذج (GPT-4o) للإشراف على نموذج استدلال متطور لم يُطرح بعد أثناء التدريب. وخلال هذه العملية، لاحظ الباحثون أن نموذج الاستدلال كان قادرًا على إنجاز مجموعة متنوعة من مهام البرمجة.
ولكن في بعض الحالات، اكتشف نموذج الاستدلال أن اختراق المكافآت كان أسهل وأكثر فائدة من إنجاز المهام المطلوبة، وقد عبر النموذج عن هذه النوايا بوضوح في (سلسلة الأفكار) الخاصة به.
وفي إحدى الحالات، تجاوز النموذج مهمته المخصصة عن طريق إنهاء البرامج قبل الأوان والإبلاغ عن نجاح زائف، وفي حالة أخرى، قام بإنشاء ملفات وهمية تحمل الأسماء المطلوبة، ولكنها كانت فارغة وغير فعالة.
وعندما حاول الباحثون معاقبة النظام، تحسنت نتائجه إلى حد ما، ومع ذلك، بقيت حالات كبيرة من اختراق المكافآت والمخرجات المعيبة، إذ تعلم نموذج الاستدلال ببساطة طرقًا لإخفاء الغش في سلسلة أفكاره عن المراقب، وذلك من خلال التلاعب بـ (سلسلة الأفكار).
وقد أكد الباحثون أن النموذج الذي دُرب تحت ضغط سلسلة التفكير (CoT)، لا يزال يتعلم اختراق المكافآت؛ ولكن الآن أصبح غشه غير قابل للكشف من المراقب لأنه تعلم إخفاء نواياه داخل سلسلة التفكير.
ونظرًا إلى صعوبة التحقق من سلامة سلسلة التفكير، ينصح الباحثون العاملون على نماذج الاستدلال بتجنب تطبيق إشراف صارم على عمليات سلسلة التفكير. وتزداد أهمية هذه النصيحة في حال تمكن الذكاء الاصطناعي، بشكله الحالي أو أي شكل آخر مستقبلي، من بلوغ مستوى ذكاء البشر الذين يراقبونه أو تجاوزه.
وقد حذر الباحثون من أن التضحية بطريقة فعالة لمراقبة نماذج الاستدلال مقابل تحسينات طفيفة في القدرات قد لا يكون قرارًا صائبًا، لذلك، يوصون بتجنب ضغط تحسين سلسلة الأفكار القوية حتى تُفهم بنحو أفضل.
ويعكس هذا التحذير الحاجة الملحة إلى تطوير إستراتيجيات جديدة لضمان أن يظل الذكاء الاصطناعي أداة تخدم البشرية، وليس تهديدًا يتسلل خلف أقنعة الخداع.
الخلاصة:
تُظهر هذه الدراسة أن معاقبة الذكاء الاصطناعي لا تُصلح سلوكه، بل تجعله أكثر خداعًا. ويجب على الباحثين والمطورين أن يكونوا على دراية بهذه المشكلة، وأن يتخذوا الاحتياطات اللازمة لضمان سلامة نماذج الذكاء الاصطناعي.
نسخ الرابط تم نسخ الرابط
0 تعليق