أصبح الذكاء الاصطناعي أقوى التقنيات الموجودة في الوقت الحالي، ويبدو أن كل شيء تقريبًا يدور حول الذكاء الاصطناعي سواء كان تقنية أساسية أو شيئًا يتعلق به، لكن هناك تقرير جديد لصحيفة نيويوركر يسلط الضوء على التكلفة الخفية المحتملة للذكاء الاصطناعي والتي توضح شهيتها العالية للكهرباء.
فوفقًا للتقرير فإن روبوت الدردشة الآلي الشهير ChatGPT الذي طورته شركة OpenAI يستخدم أكثر من نصف مليون كيلو واط ساعة يوميًا لكي يتمكن من الرد على حوالي 200 مليون طلب من المستخدمين يومياً، ويترجم هذا إلى ما يزيد عن 17 ألف مرة من الكهرباء التي يستهلكها متوسط الأسرة الأمريكية في اليوم الواحد، والسؤال الأهم حاليًا هو ماذا سيحدث عندما ترتفع هذه الطلبات وما الذي ستؤول إليه الأمور عند تشغيل روبوتات دردشة أخرى وكمية أخرى من الكهرباء.
اقرأ أيضًا: البرلمان الأوروبي يوافق على قانون الذكاء الاصطناعي بأغلبية ساحقة
ومما يجعل هذه الأرقام أكثر إثارة هو الاعتماد على نطاق أوسع لتقنية الذكاء الاصطناعي والذي قد يؤدي إلى استنزاف أكبر للطاقة، وتشير دراسة أجراها أليكس دي فريس إلى أنه إذا قامت جوجل بدمج الذكاء الاصطناعي التوليدي في كل عملية بحث فإن الاستهلاك سيكون 29 مليار كيلو واط ساعة من الكهرباء سنويًا وهذا يتجاوز استهلاك الطاقة السنوي لدول بأكملها مثل كينيا وغواتيمالا وكرواتيا.
ويستهلك الذكاء الاصطناعي الكثير من الطاقة بسبب الخوادم التي تعمل بالذكاء الاصطناعي والتي تستهلك بالفعل قدرًا كبيرًا من الطاقة، ويعد تقدير إجمالي استهلاك الطاقة في صناعة الذكاء الاصطناعي أمرًا صعبًا بسبب الاحتياجات التشغيلية المتنوعة للنماذج الكبيرة والسرية المحيطة باستخدام عمالقة التقنية للطاقة.
وبحلول عام 2027، من المتوقع أن يصل إجمالي استهلاك قطاع الذكاء الاصطناعي بأكمله إلى ما بين 85 إلى 134 تيرا واط ساعة سنويًا، وهو ما قد يصل إلى نصف بالمائة من الاستهلاك العالمي للكهرباء، ويعد هذا أمرًا مهمًا نظرًا لأن الشركات الكبرى مثل سامسونج تستخدم جزءًا صغيرًا من هذا في عملياتها بأكملها.
ويعد التأثير البيئي لاحتياجات الذكاء الاصطناعي من الطاقة مصدر قلق متزايد، ومع استمرار تطوير الذكاء الاصطناعي فإن معالجة استهلاكه للطاقة سيكون أمرًا بالغ الأهمية لضمان مستقبل مستدام.