يمثل الذكاء العام الاصطناعي (AGI)، الذي يشار إليه غالبًا بـ “الذكاء الاصطناعي القوي”، أو “الذكاء الاصطناعي الكامل”، أو “الذكاء الاصطناعي على مستوى الإنسان”، قفزة كبيرة مستقبلية في مجال الذكاء الاصطناعي. على عكس الذكاء الاصطناعي الضيق، الذي يُصمم لمهام محددة، مثل اكتشاف عيوب المنتج، أو تلخيص الأخبار، أو إنشاء موقع ويب لك، سيكون الذكاء العام الاصطناعي قادرًا على أداء مجموعة واسعة من المهام المعرفية على مستوى الإنسان أو أعلى. وأثناء مخاطبته الصحافة هذا الأسبوع في مؤتمر GTC الذي تعقده شركة إنفيديا سنويًا، بدا الرئيس التنفيذي جنسن هوانغ وكأنه ملّ من مناقشة هذا الموضوع – ليس أقله لأنه يجد نفسه مُساء فهمه كثيرًا، كما يقول.
تكرار السؤال منطقي: الفكرة تطرح أسئلة وجودية حول دور الإنسانية وسيطرتها على مستقبل قد تتفوق فيه الآلات على البشر في التفكير والتعلم والأداء في كل مجال تقريبًا. تكمن جوهر هذه المخاوف في غموض عمليات اتخاذ القرار والأهداف الخاصة بالذكاء الاصطناعي العام، والتي قد لا تتماشى مع القيم أو الأولويات البشرية (مفهوم تم استكشافه بعمق في الخيال العلمي منذ الأربعينيات على الأقل). هناك قلق من أنه بمجرد وصول الذكاء العام الاصطناعي إلى مستوى معين من الاستقلالية والقدرة، قد يصبح من المستحيل احتواؤه أو السيطرة عليه، مما يؤدي إلى سيناريوهات لا يمكن التنبؤ بأفعالها أو التراجع عنها.
عندما يطلب الصحافة المثيرة للجدل تحديد إطار زمني، غالبًا ما تحاول استدراج محترفي الذكاء الاصطناعي إلى وضع جدول زمني لنهاية الإنسانية، أو على الأقل الوضع الراهن. من الطبيعي أن مدراء تنفيذيين في مجال الذكاء الاصطناعي ليسوا دائمًا حريصين على معالجة هذا الموضوع.
شاهد: ما هو الذكاء العام الاصطناعي – AGI
ومع ذلك، قضى هوانغ بعض الوقت في إخبار الصحافة بما يعتقده حول الموضوع. يعتمد التنبؤ بمتى سنرى ذكاء اصطناعي عام مقبول على كيفية تعريفك للذكاء العام الاصطناعي، كما يجادل هوانغ، ويستشهد ببعض الأمثلة: حتى مع تعقيدات المناطق الزمنية، تعرف متى يحدث العام الجديد ويبدأ عام 2025. إذا كنت تقود إلى مركز مؤتمرات سان خوسيه (حيث يُعقد مؤتمر GTC هذا العام)، فعادةً ما تعرف أنك وصلت عندما ترى لافتات GTC الضخمة. النقطة الأساسية هي أننا يمكن أن نتفق على كيفية قياس وصولك، سواء كان زمنيًا أو جغرافيًا، إلى المكان الذي كنت تأمل في الذهاب إليه.
“إذا حددنا الذكاء العام الاصطناعي على أنه شيء محدد جدًا، مجموعة من الاختبارات حيث يمكن لبرنامج أن يؤديها بشكل جيد جدًا، أو ربما بنسبة 8٪ أفضل من معظم الناس، أعتقد أننا سنصل إلى هناك خلال 5 سنوات”، يوضح هوانغ. ويقترح أن الاختبارات يمكن أن تكون اختبار القانون، اختبارات المنطق، اختبارات الاقتصاد، أو ربما القدرة على اجتياز امتحان ما قبل الطب. ما لم يتمكن السائل من تحديد بشكل دقيق ما يعنيه الذكاء الاصطناعي العام في سياق السؤال، فهو غير مستعد لتقديم تنبؤ. من العدل أن نقول ذلك.
هلوسة الذكاء الاصطناعي قابلة للحل
في جلسة الأسئلة والأجوبة يوم الثلاثاء، سُئل هوانغ عن كيفية التعامل مع هلوسات الذكاء الاصطناعي – الميل لبعض الذكاءات الاصطناعية لإنشاء إجابات تبدو منطقية ولكنها ليست مستندة إلى الحقيقة. بدا واضحًا الإحباط على وجهه من السؤال، واقترح أن الهلوسات قابلة للحل بسهولة – من خلال التأكد من أن الإجابات مدروسة جيدًا.
“أضف قاعدة: يجب البحث عن الإجابة لكل سؤال”، يقول هوانغ، مشيرًا إلى هذه الممارسة باسم “الإنتاج المعزز بالاسترجاع”، وهو يصف نهجًا مشابهًا جدًا لمحو الأمية الإعلامية الأساسية: فحص المصدر والسياق. قارن الحقائق الموجودة في المصدر بالحقائق المعروفة، وإذا كانت الإجابة غير دقيقة من الناحية الواقعية – حتى لو كانت جزئيًا – فتجاهل المصدر بالكامل وانتقل إلى الذي يليه. “ينبغي للذكاء الاصطناعي ألا يجيب فقط؛ ينبغي أن يبحث أولًا لتحديد أي الإجابات هي الأفضل.”
للإجابات الحرجة، مثل النصائح الصحية أو ما شابه، يقترح الرئيس التنفيذي لشركة إنفيديا أن الطريقة المثلى قد تكون ربما التحقق من مصادر متعددة ومصادر معروفة للحقيقة. بالطبع، يعني هذا أن المولد الذي يقوم بإنشاء إجابة يحتاج إلى أن يكون لديه الخيار لقول، “لا أعرف إجابة سؤالك”، أو “لا أستطيع الوصول إلى إجماع حول ما هي الإجابة الصحيحة لهذا السؤال”، أو حتى شيء مثل “مرحبًا، لم يحدث حدث “السوبر بول” بعد، لذلك لا أعرف من فاز.”