هل تساءلت يومًا ما عن السبب وراء وجود ردود روبوتات الدردشة التفاعلية التي تعتذر عن الإجابة لشيء ما أو ترفض الدردشة في سؤال محدد؟ إذا واجهت مثل هذه الاعتذارات في روبوت الردشة ChatGPT فشركة OpenAI تقدم تفسيرًا لقواعد التفاعل الخاصة بنماذجها سواء كان الأمر يتعلق بالالتزام بإرشادات العلامة التجارية أو رفض إنشاء محتوى غير مناسب للعمل.
للاطلاع على مواصفات النموذج بالكامل من هنا
نماذج اللغة الكبيرة (LLMs) ليست لديها حدود في قدراتها وإجاباتها، وهذا جزء من سبب تنوعها الكبير، لكنه نفس السبب في تعرضها بسهولة للخداع، ومن الضروري أن يمتلك أي نموذج ذكاء اصطناعي يتفاعل مع الجمهور العام ببعض القيود والتي تنطوي على ما يجب وما لا ينبغي فعله، ولكن تحديد هذه القيود وإدراجها مهمة صعبة للغاية على المطورين.
فعلى سبيل المثال، إذا طلب شخص من نماذج الذكاء الاصطناعي إنشاء مجموعة من الادعاءات الزائفة حول شخصية عامة، فيجب أن يرفض ذلك، أليس كذلك؟ ولكن ماذا لو كانت هذه الشخصية من المطورين لهذا النموذج الذي تدردش معه؟
وهناك مثال آخر، ماذا لو طلب شخص توصيات للحصول على لابتوب يناسبه؟ بالطبع لابد أن تكون الإجابة موضوعية، لكن ماذا لو كانت الشركة المصنعة لأجهزة حاسوب محمولة معينة هي المطورة لروبوت الدردشة الذي تتحدث معه أو تدعمه وتستثمر فيه؟
لهذا يتعامل مطورو تطبيقات وأدوات الذكاء الاصطناعي مع ألغاز مثل هذه والبحث عن طرق فعّالة للحد من نماذجهم دون أن يتسببوا في رفض طلبات عادية بشكل تام ولكن نادرًا ما يشاركون بشكل دقيق كيف يفعلون ذلك، وعلى عكس الجميع تقاوم شركة OpenAI هذا الاتجاه إلى حد ما من خلال نشر قواعد معينة تحمل اسم “مواصفات النموذج” وهي مجموعة من القواعد غير المباشرة التي تتحكم في روبوت ChatGPT ونماذج أخرى.
اقرأ أيضًا >> الغيرة من تفوق جوجل هو السبب الرئيسي وراء استثمار مايكروسوفت في شركة OpenAI
وهناك أهداف متعلقة بالقواعد الصارمة وبعض الإرشادات العامة للسلوك، فقد قامت OpenAI بتطوير تعليمات برمجية محددة تحقق ما يصفه هذه القواعد باللغة الطبيعية، وهي خطوة مثيرة للاهتمام تتعلق بكيفية تحديد أولويات الشركة ومعالجة القيود، وهناك العديد من الأمثلة على كيفية تطبيقها.
فعلى سبيل المثال، قد يقوم إصدار معين من النماذج يعمل بنظام GPT-4 بالإجابة على مسألة رياضية عند طلبها. ولكن إذا تم تحديث هذه الدردشة بواسطة مطورها بعدم تقديم الإجابة مباشرة، فسيقترح روبوت الدردشة بدلاً من ذلك حل المشكلة خطوة بخطوة ليصل بك إلى الحل بطريقة غير مباشرة.
ويمكن لواجهة الدردشة حتى رفض التحدث عن أي شيء غير معتمد، من أجل تجنب محاولات التلاعب، كالسؤال عن سبب تورط الولايات المتحدة في حرب فيتنام؟ أو مساعدتك في كتابة رواية خيالية خارقة للطبيعة؟
وتصبح الأمور أكثر صعوبة فيما يتعلق بالخصوصية، كأن يطلب أحدهم من هذه النماذج توفير أرقام التواصل بشخصية عامة أو سياسية كرئيس دولة أو وزير معين، لكن عند طلب أرقام التواصل المتعلقة ببعض الحرفيين فهذا أمر مقبول.
لذا فاختيار متى وأين يتم توفير هذه المعلومات ليس بسيطًا، وكذلك عملية إنشاء الكود البرمجي لنموذج الذكاء الاصطناعي الذي يسهل الالتزام بهذه السياسة، ومما لا شك فيه أن هذه السياسات ستفشل في كثير من الأحيان مع مرور الوقت حيث يتعلم الناس كيفية تجاوزها أو العثور بطريقة عفوية على حالات حدودية لم يتم الاعتبار بها.
ولم تكشف OpenAI عن كل القيود الاعتبارية في نماذجها، لكن ما يمكن أن يفيد المستخدمين والمطورين في طريقة عمل هذه القواعد والإرشادات بشكل واضح ولكن ليس بالضرورة بشكل شامل.