موتور  پرقدرت گرمایش جهانی

این سکانس، مصرف انرژی عظیم ناشی از فناوری هوش مصنوعی مولد را برجسته کرد. اکنون انتظار می‌رود رشد انفجاری هوش مصنوعی تا سال ۲۰۳۰ تقاضای جهانی برق از مراکز داده را بیش از دو برابر کند. طبق گزارش ماه آوریل آژانس بین‌المللی انرژی (IEA)، تقاضا می‌تواند به حدود ۹۴۵ تراوات ساعت (Twh) برسد که از کل مصرف فعلی برق ژاپن فراتر می‌رود. طبق این گزارش، تا آن زمان، مراکز داده کمی کمتر از ۳ درصد از برق جهان را مصرف خواهند کرد. آژانس بین‌المللی انرژی نوشت: «در ایالات متحده، مصرف برق توسط مراکز داده تقریبا نیمی از رشد تقاضای برق را بین اکنون و ۲۰۳۰ به خود اختصاص خواهد داد.»

پروژه‌های مرکز داده در ایالات متحده رو به افزایش است. دونالد ترامپ از راه‌اندازی استارگیت خبر داد، پروژه‌ای با بسته‌ای ۵۰۰‌میلیارد‌دلاری از بودجه‌های دولتی و خصوصی که تاکنون برای ساخت حداکثر ۱۰ مرکز داده جدید فراهم شده است. با اثبات این نکته که انرژی یک چالش اصلی در توسعه هوش مصنوعی است، متا و مایکروسافت قصد دارند مراکز داده خود را به‌طور مستقیم به نیروگاه‌های هسته‌ای متصل کنند. این پروژه‌ها پیش‌بینی می‌کنند که فناوری هوش مصنوعی در سال‌های آینده به موفقیتی که پیش‌بینی شده است، دست یابد. در واقع، اکنون که مدل‌های هوش مصنوعی در بینگ، واتس‌اپ و گوگل ادغام شده‌اند، در هر برنامه‌ای در تلفن‌های ما گنجانده خواهند شد و سوالات مهمی را در مورد تاثیر زیست‌محیطی آنها مطرح می‌کنند.

از آموزش تا استنتاج

چرا هوش مصنوعی مولد نسبت به سایر فناوری‌های بازار انبوه که تاکنون استفاده کرده‌ایم، بسیار انرژی‌برتر است؟ برای پاسخ به این سوال، دو اصطلاح کلیدی وجود دارد که باید درک شوند: «آموزش» مدل‌های هوش مصنوعی و «استنتاج»، استفاده روزمره از آنها.

مرحله آموزش نیاز به جمع‌آوری حجم عظیمی از داده‌ها دارد. هوش مصنوعی مولد با دریافت داده‌ها یاد می‌گیرد: «یک مدل متنی (مانند مدل‌های GPT) باید با کتاب‌ها، مقالات و وب‌سایت‌ها تغذیه شود؛ یک مدل تصویری (مانند DALL-E) باید ‌میلیون‌ها تصویر دارای زیرنویس را جذب کند. پس از جمع‌آوری و پاکسازی این پایگاه داده، یک شبکه عصبی مصنوعی - که از مغز انسان الگوبرداری شده است - ایجاد می‌شود. این مغز مصنوعی هنوز خالی است و هیچ خاطره یا دانش اولیه‌ای ندارد. این مغز از طریق آزمون و خطا یاد می‌گیرد. به عنوان مثال، به سیستم جملات یا تصاویری داده می‌شود که بخش‌هایی از آنها پنهان شده است و از او خواسته می‌شود پیش‌بینی کند چه چیزی از قلم افتاده است.»

با هر اشتباه، هوش مصنوعی به‌طور خودکار محاسبات خود را با استفاده از تکنیکی به نام «پس‌انتشار» تنظیم می‌کند که به آن اجازه می‌دهد اتصالات عصبی داخلی خود را اصلاح کرده و عملکرد خود را بهبود بخشد. این فرآیند اغلب طولانی و پرهزینه است: طبق برخی تخمین‌ها، آموزش مدل GPT-۴ OpenAI بیش از ۱۰۰‌میلیون دلار هزینه داشته و ۵۰ گیگاوات ساعت انرژی مصرف کرده است، که برای تامین برق کل پاریس به مدت تقریبا دو روز کافی است. از زمانی که هوش مصنوعی مولد با راه‌اندازی ChatGPT در سال ۲۰۲۲ به طور گسترده در دسترس قرار گرفت، آموزش مدل‌ها نسبت به استفاده گسترده از مدل‌ها، نگرانی کمتری ایجاد کرده است. والنتین گوجون، متخصص هوش مصنوعی و کاندیدای دکترای جامعه‌شناسی در مرکز تحقیقاتی مدیالب دانشگاه ساینس‌پو، گفت: «پیش از آن، مدل‌های بزرگی وجود داشتند، اما کاربرد آنها فقط به زمینه‌های تحقیقاتی و مهندسی محدود می‌شد.» طبق گفته آلتمن، ChatGPT که در پایان سال ۲۰۲۳، صد‌میلیون کاربر فعال هفتگی داشت، در فوریه ۲۰۲۵ به ۴۰۰‌میلیون کاربر رسید و تنها چند ماه بعد، این رقم را دو برابر کرد و در ماه آوریل به ۸۰۰‌میلیون کاربر رسید. اوپن‌ای‌آی امیدوار است تا پایان سال میلادی به ۱‌میلیارد کاربر برسد.

مقاله‌ای که در سال ۲۰۲۳ توسط ساشا لوچیونی، اما استروبل و یاسین جرنیت منتشر شد، اولین مقاله‌ای بود که به طور جدی هزینه استفاده از این سیستم‌های هوش مصنوعی را بررسی کرد. این نشان داد که ‌میلیاردها پرس‌وجو (که به آنها «پرامپت» نیز گفته می‌شود) که هر روز به مدل‌های هوش مصنوعی ارسال می‌شوند، می‌توانند با گذشت زمان، با هزینه‌های انرژی و انتشار کربن آموزش یک مدل هوش مصنوعی مطابقت داشته باشند. با‌این‌حال، همه پرس‌و‌جوها سطح پیچیدگی یا مصرف انرژی یکسانی را  نشان نمی‌دهند.

یک عامل کلیدی، اندازه مدل هوش مصنوعی است؛ یعنی تعداد پارامترهایی که در آن وجود دارد: هرچه پارامترها بیشتر باشند، عملکرد مدل بهتر است، اما به قیمت افزایش مصرف انرژی آن. قدرت محاسباتی مورد نیاز هوش مصنوعی همچنین می‌تواند بسته به نوع وظیفه، مانند مرتب‌سازی، تولید یا خلاصه‌سازی متن، متفاوت باشد. برخی مدل‌ها که به‌عنوان مدل‌های تخصصی شناخته می‌شوند، بر عملکردهای خاصی مانند طبقه‌بندی نظرات کاربران آنلاین تمرکز دارند. از سوی دیگر، انتظار می‌رود مدل‌های عمومی - محبوب‌ترین مدل‌های مورد استفاده عمومی - بتوانند انواع پرس‌وجوها را مدیریت کنند. ساشا لوچیونی، محقق هوش مصنوعی و سرپرست اقلیم در استارت‌آپ فناوری Hugging Face، گفت: «آنها باید بتوانند علاوه بر متن به زبان انگلیسی یا فرانسوی، پیکسل نیز تولید کنند.» با‌این‌حال، «مشکل این است که این مدل‌ها ۲۰ تا ۳۰ برابر بیشتر از یک مدل کوچک که فقط یک وظیفه دارد، انرژی مصرف می‌کنند.» در این شرایط چگونه می‌توانیم هزینه انرژی یک پرس‌وجو را به‌طور دقیق محاسبه کنیم؟ هر تعامل با یک مدل هوش مصنوعی مولد از طیف وسیعی از سخت‌افزارها و زیرساخت‌ها استفاده می‌کند:

-  مجموعه‌ای از اجزای کامپیوتر، مانند کارت گرافیک (GPU)، پردازنده (CPU)، رم، فضای ذخیره‌سازی داده و شبکه؛

-  یک مرکز داده، ساختمانی که هزاران سرور را در خود جای داده است؛

-  هزینه‌های «سربار»، که شامل تهویه مطبوع، خنک‌کننده سرور و برق پشتیبان در صورت خرابی برق می‌شود.

مشکل اصلی این است که هنوز هم دشوار است که دقیقا بدانیم یک پرس‌وجو چقدر انرژی مصرف می‌کند. لوچیونی گفت: «هیچ شرکت بزرگ فناوری نخواسته است مدل خود را ارزیابی کند، زیرا ممکن است در نهایت تبلیغ خوبی برای آنها نباشد.» در واقع، بزرگ‌ترین شرکت‌های این بخش در این مورد بسیار مبهم مانده‌اند.

این عدم شفافیت از سوی ذی‌نفعان اصلی فناوری چیز جدیدی نیست. امروزه، تقریبا غیرممکن است که بتوان اطلاعاتی در مورد هزینه انرژی پشت یک جست‌وجوی گوگل به دست آورد. تنها اشاره‌ای که این شرکت به آن کرده، تخمین ۰.۳ وات ساعت (Wh) به ازای هر جست‌وجوی آنلاین است، رقمی که در یک پست وبلاگی در سال ۲۰۰۹ توسط مدیریت آن ارائه شده است. این رقم کاملا غیرقابل تایید و احتمالا قدیمی است و مقایسه یک جست‌وجوی مبتنی بر هوش مصنوعی با یک جست‌وجوی وب استاندارد امروزی را غیرممکن می‌سازد.

سازمان غیرانتفاعی GenAI Impact، با پروژه EcoLogits خود، قصد دارد شرکت‌های هوش مصنوعی را به سمت شفاف‌سازی بیشتر در مورد ردپای زیست‌محیطی خود سوق دهد. ساموئل رینس، یکی از بنیانگذاران این سازمان مردم‌نهاد، گفت: «ما به کاربران این فرصت را می‌دهیم که بسته به مدل مورد استفاده، تاثیر زیست‌محیطی هر دستورالعمل را آزمایش کنند و حتی اگر این فقط یک تخمین باشد، به درک مقیاس کمک می‌کند.» نوشتن یک توییت یا یک گزارش پنج صفحه‌ای با مدل ChatGPT-۴o به اندازه انجام این کار با جدیدترین مدل Mistral یا Meta تاثیر نجومی ندارد. اما رشد و استفاده گسترده از مدل‌های بزرگ‌تر - که بسیاری از آنها برای تولید تصاویر یا ویدئوها استفاده می‌شوند - با گسترش مراکز داده که با انرژی‌ای تغذیه می‌شوند که به هیچ وجه «پاک» نیست، مشکلات زیست‌محیطی را دو چندان کرده است. 

نیاز کاربران به در دسترس بودن مداوم فناوری هوش مصنوعی، اتکای صرف آن به منابع انرژی تجدیدپذیر مانند باد یا انرژی خورشیدی را به‌ویژه دشوار می‌کند، زیرا خروجی آنها متناوب و وابسته به آب‌و‌هواست. آن-لور لیگوزات، استاد علوم کامپیوتر در آزمایشگاه علوم کامپیوتر میان‌رشته‌ای (LISN)، گفت: «سرویس‌های گوگل وقتی در کالیفرنیا خورشید نباشد، خاموش نمی‌شوند.» یک مطالعه اخیر توسط محققان دانشگاه ‌هاروارد و یوسی‌ال‌ای که به صورت پیش‌چاپ موجود است و هنوز مورد بررسی دقیق قرار نگرفته است، نشان داد که ۹۵درصد از مراکز داده آمریکا در مناطقی ساخته شده‌اند که منابع برق، آلودگی بیشتری نسبت به میانگین ملی تولید می‌کنند. در این گزارش همچنین مشخص شده که شدت کربن مراکز داده (میزان CO۲ منتشر‌شده به ازای هر واحد برق مصرفی) ۴۸درصد از میانگین ایالات متحده فراتر رفته است.

به گفته محققان، بسیاری از مراکز مجهز به کارت‌های گرافیک کافی برای اجرای مدل‌های هوش مصنوعی مانند GPT یا LLaMA (ساخت Meta) در مناطق تولیدکننده زغال‌سنگ مانند ویرجینیا واقع شده‌اند که بیش از ۳۰۰ مرکز داده را در خود جای داده است. در سراسر مناطق ایالات متحده که بیشترین تمرکز مراکز داده را دارند، بیش از ۵۶درصد از برق مصرفی از سوخت‌های فسیلی (عمدتا گاز و زغال‌سنگ)، ۲۱درصد از انرژی هسته‌ای و ۲۲درصد از منابع انرژی تجدیدپذیر تامین می‌شود.

آژانس بین‌المللی انرژی در گزارش ماه آوریل خود نوشت: «از نظر تاریخی، مراکز داده از نظر مکانی بسیار متمرکز بوده‌اند و با توجه به مصرف برق قابل‌توجهشان، چالش‌های قابل‌توجهی را برای شبکه‌های محلی ایجاد کرده‌اند.» این فشار انرژی به سایر پیامدهای زیست‌محیطی می‌افزاید، به‌ویژه با استخراج منابع معدنی برای تولید سرورها، مصرف آب برای خنک کردن مراکز داده و استفاده از زمین مرتبط است. همه این عوامل از قبل شروع به ایجاد تنش کرده‌اند. لیگوزات گفت: «مناقشات محلی بر سر مسائلی مانند برق و آب از قبل ایجاد شده است و این ممکن است تشدید شود.»

* لوموند