اعترفت شركة جوجل مؤخرًا بأن أداة AI Overviews الخاصة بها والتي تستخدم الذكاء الاصطناعي للرد على استفسارات البحث، تحتاج إلى تحسين، وعلى الرغم من أن عملاق البحث قد اختبر الميزة الجديدة بشكل مكثف قبل إطلاقها منذ أسبوعين، فقد اعترفت بأن التكنولوجيا تنتج بعض المراجعات الغريبة والخاطئة.
وبينما كانت العديد من الأمثلة بسيطة، كانت نتائج البحث الأخرى خطيرة بشكل محتمل، فعندما سألته وكالة أسوشيتد برس “Associated Press” الأسبوع الماضي عن الفطر البري الصالح للأكل، قدمت جوجل ملخصًا طويلاً تم إنشاؤه بواسطة الذكاء الاصطناعي وكان في الغالب صحيحًا من الناحية التقنية، لكن الكثير من المعلومات كانت مفقودة والتي تحدثت عن كونها ممرضة أو قاتلة، وذلك وفقًا لما قالته ماري كاثرين أيمي، أستاذة علم الفطريات وعلم النبات في جامعة بوردو، التي قامت بمراجعة ردود جوجل على مثل هذه الاستفسارات.
وعلى سبيل المثال، كانت المعلومات حول الفطر المعروف باسم “بافبولز” صحيحة إلى حد ما، لكنها قالت إن مراجعة جوجل شددت في البحث على تميز هذا النوع من الفطر بلحم أبيض صلب، وهي صفة موجودة في العديد من أنواع الفطر القاتلة الشبيهة بفطر بافبولز.
Google AI overview suggests adding glue to get cheese to stick to pizza, and it turns out the source is an 11 year old Reddit comment from user F*cksmith 😂 pic.twitter.com/uDPAbsAKeO
— Peter Yang (@petergyang) May 23, 2024
وفي مثال آخر تمت مشاركته على نطاق واسع، سأل الباحث في مجال الذكاء الاصطناعي أداة جوجل عن عدد المسلمين الذين تولوا رئاسة الولايات المتحدة، وردت الأداة بثقة مؤكدة أن الولايات المتحدة كان لها رئيس مسلم واحد فقط وهو باراك حسين أوباما، لكنه في الحقيقة غير كذلك.
اقرأ أيضًا: شركة OpenAI تدرب نموذجًا جديدًا للذكاء الاصطناعي ليكون خلفًا لـ GPT-4
ويعد التراجع عن هذه الأداة أحدث مثال على تسرع شركة تقنية في إطلاق منتج يعتمد على الذكاء الاصطناعي بهدف التمركز كقائد في هذا المجال الذي يحظى بمتابعة دقيقة، ونظرًا لأن أداة AI Overviews من جوجل كانت تنتج أحيانًا ردودًا غير مفيدة على الاستفسارات، فإن الشركة تعمل على تقليل استخدامها مع الاستمرار في إجراء التحسينات، كما ذكرت رئيسة قسم البحث في جوجل، ليز ريد، في منشور رسمي بمدونة الشركة.
حيث قالت ريد:
“بعض المراجعات التي تعتمد على الذكاء الاصطناعي كانت غريبة أو غير دقيقة أو غير مفيدة بالتأكيد. وعلى الرغم من أن هذه النتائج كانت عادة لاستفسارات لا يقوم بها الناس بشكل شائع، فقد أبرزت بعض المجالات المحددة التي نحتاج إلى تحسينها”.
وأضافت ريد قائلة:
“في عدد قليل من الحالات، رأينا أن أداة AI Overviews تفسر لغة صفحات الويب بشكل خاطئ وتقدم معلومات غير دقيقة. عملنا بسرعة لمعالجة هذه القضايا، إما من خلال تحسين خوارزمياتنا أو من خلال العمليات المعتمدة لإزالة الردود التي لا تتوافق مع سياساتنا”.
وفي الوقت الحالي، تعمل الشركة على تقليل المراجعات التي ينتجها الذكاء الاصطناعي من خلال إضافة “قيود تشغيلية على الاستفسارات التي لم تكن فيها AI Overviews مفيدة بالقدر الكافي.” وتقول جوجل أيضًا إنها تحاول عدم عرض AI Overviews للموضوعات الإخبارية الصعبة “حيث تكون الدقة وحداثة المعلومات مهمة”.