مع التبني السريع للذكاء الاصطناعي التوليدي، أصبح من الصعب بشكل متزايد التمييز بين ما هو حقيقي وما هو مزيّف من الصور والفيديوهات وكذلك النصوص، وأصبحت أدوات الذكاء الاصطناعي في ذروتها ويمكنها توليد نتائج متطورة بناءً على المدخلات.
وبالرغم من وجود معركة مستمرة بين الناشرين والشركات التي تقف وراء هذه الأدوات الذكية بشأن قضايا انتهاك حقوق الطبع والنشر، فقد اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأنه من المستحيل إنشاء أدوات مثل ChatGPT بدون استخدام محتوى محمي بحقوق الطبع والنشر، لأن قانون حقوق الطبع والنشر لا يحظر استخدام المحتوى لتدريب نماذج الذكاء الاصطناعي.
وقد أشارت دراسة أجراها باحثو أمازون AWS إلى أن 57% من المحتوى المنشور على الإنترنت يتم توليده بواسطة الذكاء الاصطناعي أو ترجمته باستخدام خوارزمية ذكاء اصطناعي، ويدعي الباحثون من جامعة كامبريدج وأكسفورد أن العدد المتزايد من المحتوى المولد بواسطة الذكاء الاصطناعي والاعتماد المفرط على نفس المحتوى يمكن أن يؤدي إلى نتيجة واحدة فقط وهي الوصول إلى جودة منخفضة عند البحث.
ووفقًا للدراسة، فإن ردود الذكاء الاصطناعي على الاستفسارات تتدهور في القيمة والدقة بعد كل محاولة، وفقًا للدكتور إيليا شوميلوف من جامعة أكسفورد الذي قال:
“من المدهش مدى سرعة حدوث انهيار النموذج ومدى صعوبته في التعقب. في البداية، يؤثر على البيانات الأقلية (البيانات التي تمثل بشكل سيئ) ثم يؤثر على تنوع المخرجات ويتقلص التباين. وأحيانًا، تلاحظ تحسينًا طفيفًا للبيانات الرئيسية، مما يخفي تدهور الأداء في بيانات الأقلية. انهيار النموذج يمكن أن يكون له عواقب خطيرة.”
اقرأ أيضًا >> مسؤول بمايكروسوفت: الذكاء الاصطناعي يجب أن يطلب المساعدة عند الحاجة
ووفقًا للباحثين، فإن تدهور جودة الردود من قبل روبوتات الدردشة هو نتيجة لدورة مفرطة من المحتوى المولد بواسطة الذكاء الاصطناعي لأنها في الأساس تعتمد على المعلومات الموجودة على الإنترنت للتدريب. وبالتالي، إذا كانت المعلومات على الإنترنت مولدة بواسطة الذكاء الاصطناعي وغير دقيقة، فإن عملية التدريب تصبح غير فعالة، مما يؤدي إلى توليد إجابات خاطئة ومعلومات مضللة.
وقرر الباحثون التعمق أكثر في محاولة للكشف عن السبب الجذري للمشكلة. منذ البداية، يمكن أن يُعزى ذلك إلى زيادة في المقالات المولدة بواسطة الذكاء الاصطناعي التي يتم نشرها على الإنترنت بدون التحقق من الحقائق، وبالفعل استخدم الفريق ويكي مدعوم بالذكاء الاصطناعي للتوصل إلى استنتاجاته، وقاموا بتدريب الأداة باستخدام مخرجاتها. وقد لاحظ الفريق على الفور انخفاضًا في جودة المعلومات التي تولدها الأداة.
وتسلط الدراسة الضوء أيضًا على أمثلة كثيرة منها أن أداة الذكاء الاصطناعي استبعدت سلالات نادرة من الكلاب من نطاق معرفتها بعد تكرار مجموعات البيانات، على الرغم من تدريبها على مكتبة واسعة من المعلومات حول سلالات الكلاب منذ البداية، وبناءً على ذلك، من المحتمل أن تتدهور جودة نتائج البحث مع انتشار الذكاء الاصطناعي ونشر المحتوى المولد بواسطة الذكاء الاصطناعي على الإنترنت.