موتور پرقدرت گرمایش جهانی

این سکانس، مصرف انرژی عظیم ناشی از فناوری هوش مصنوعی مولد را برجسته کرد. اکنون انتظار میرود رشد انفجاری هوش مصنوعی تا سال ۲۰۳۰ تقاضای جهانی برق از مراکز داده را بیش از دو برابر کند. طبق گزارش ماه آوریل آژانس بینالمللی انرژی (IEA)، تقاضا میتواند به حدود ۹۴۵ تراوات ساعت (Twh) برسد که از کل مصرف فعلی برق ژاپن فراتر میرود. طبق این گزارش، تا آن زمان، مراکز داده کمی کمتر از ۳ درصد از برق جهان را مصرف خواهند کرد. آژانس بینالمللی انرژی نوشت: «در ایالات متحده، مصرف برق توسط مراکز داده تقریبا نیمی از رشد تقاضای برق را بین اکنون و ۲۰۳۰ به خود اختصاص خواهد داد.»
پروژههای مرکز داده در ایالات متحده رو به افزایش است. دونالد ترامپ از راهاندازی استارگیت خبر داد، پروژهای با بستهای ۵۰۰میلیارددلاری از بودجههای دولتی و خصوصی که تاکنون برای ساخت حداکثر ۱۰ مرکز داده جدید فراهم شده است. با اثبات این نکته که انرژی یک چالش اصلی در توسعه هوش مصنوعی است، متا و مایکروسافت قصد دارند مراکز داده خود را بهطور مستقیم به نیروگاههای هستهای متصل کنند. این پروژهها پیشبینی میکنند که فناوری هوش مصنوعی در سالهای آینده به موفقیتی که پیشبینی شده است، دست یابد. در واقع، اکنون که مدلهای هوش مصنوعی در بینگ، واتساپ و گوگل ادغام شدهاند، در هر برنامهای در تلفنهای ما گنجانده خواهند شد و سوالات مهمی را در مورد تاثیر زیستمحیطی آنها مطرح میکنند.
از آموزش تا استنتاج
چرا هوش مصنوعی مولد نسبت به سایر فناوریهای بازار انبوه که تاکنون استفاده کردهایم، بسیار انرژیبرتر است؟ برای پاسخ به این سوال، دو اصطلاح کلیدی وجود دارد که باید درک شوند: «آموزش» مدلهای هوش مصنوعی و «استنتاج»، استفاده روزمره از آنها.
مرحله آموزش نیاز به جمعآوری حجم عظیمی از دادهها دارد. هوش مصنوعی مولد با دریافت دادهها یاد میگیرد: «یک مدل متنی (مانند مدلهای GPT) باید با کتابها، مقالات و وبسایتها تغذیه شود؛ یک مدل تصویری (مانند DALL-E) باید میلیونها تصویر دارای زیرنویس را جذب کند. پس از جمعآوری و پاکسازی این پایگاه داده، یک شبکه عصبی مصنوعی - که از مغز انسان الگوبرداری شده است - ایجاد میشود. این مغز مصنوعی هنوز خالی است و هیچ خاطره یا دانش اولیهای ندارد. این مغز از طریق آزمون و خطا یاد میگیرد. به عنوان مثال، به سیستم جملات یا تصاویری داده میشود که بخشهایی از آنها پنهان شده است و از او خواسته میشود پیشبینی کند چه چیزی از قلم افتاده است.»
با هر اشتباه، هوش مصنوعی بهطور خودکار محاسبات خود را با استفاده از تکنیکی به نام «پسانتشار» تنظیم میکند که به آن اجازه میدهد اتصالات عصبی داخلی خود را اصلاح کرده و عملکرد خود را بهبود بخشد. این فرآیند اغلب طولانی و پرهزینه است: طبق برخی تخمینها، آموزش مدل GPT-۴ OpenAI بیش از ۱۰۰میلیون دلار هزینه داشته و ۵۰ گیگاوات ساعت انرژی مصرف کرده است، که برای تامین برق کل پاریس به مدت تقریبا دو روز کافی است. از زمانی که هوش مصنوعی مولد با راهاندازی ChatGPT در سال ۲۰۲۲ به طور گسترده در دسترس قرار گرفت، آموزش مدلها نسبت به استفاده گسترده از مدلها، نگرانی کمتری ایجاد کرده است. والنتین گوجون، متخصص هوش مصنوعی و کاندیدای دکترای جامعهشناسی در مرکز تحقیقاتی مدیالب دانشگاه ساینسپو، گفت: «پیش از آن، مدلهای بزرگی وجود داشتند، اما کاربرد آنها فقط به زمینههای تحقیقاتی و مهندسی محدود میشد.» طبق گفته آلتمن، ChatGPT که در پایان سال ۲۰۲۳، صدمیلیون کاربر فعال هفتگی داشت، در فوریه ۲۰۲۵ به ۴۰۰میلیون کاربر رسید و تنها چند ماه بعد، این رقم را دو برابر کرد و در ماه آوریل به ۸۰۰میلیون کاربر رسید. اوپنایآی امیدوار است تا پایان سال میلادی به ۱میلیارد کاربر برسد.
مقالهای که در سال ۲۰۲۳ توسط ساشا لوچیونی، اما استروبل و یاسین جرنیت منتشر شد، اولین مقالهای بود که به طور جدی هزینه استفاده از این سیستمهای هوش مصنوعی را بررسی کرد. این نشان داد که میلیاردها پرسوجو (که به آنها «پرامپت» نیز گفته میشود) که هر روز به مدلهای هوش مصنوعی ارسال میشوند، میتوانند با گذشت زمان، با هزینههای انرژی و انتشار کربن آموزش یک مدل هوش مصنوعی مطابقت داشته باشند. بااینحال، همه پرسوجوها سطح پیچیدگی یا مصرف انرژی یکسانی را نشان نمیدهند.
یک عامل کلیدی، اندازه مدل هوش مصنوعی است؛ یعنی تعداد پارامترهایی که در آن وجود دارد: هرچه پارامترها بیشتر باشند، عملکرد مدل بهتر است، اما به قیمت افزایش مصرف انرژی آن. قدرت محاسباتی مورد نیاز هوش مصنوعی همچنین میتواند بسته به نوع وظیفه، مانند مرتبسازی، تولید یا خلاصهسازی متن، متفاوت باشد. برخی مدلها که بهعنوان مدلهای تخصصی شناخته میشوند، بر عملکردهای خاصی مانند طبقهبندی نظرات کاربران آنلاین تمرکز دارند. از سوی دیگر، انتظار میرود مدلهای عمومی - محبوبترین مدلهای مورد استفاده عمومی - بتوانند انواع پرسوجوها را مدیریت کنند. ساشا لوچیونی، محقق هوش مصنوعی و سرپرست اقلیم در استارتآپ فناوری Hugging Face، گفت: «آنها باید بتوانند علاوه بر متن به زبان انگلیسی یا فرانسوی، پیکسل نیز تولید کنند.» بااینحال، «مشکل این است که این مدلها ۲۰ تا ۳۰ برابر بیشتر از یک مدل کوچک که فقط یک وظیفه دارد، انرژی مصرف میکنند.» در این شرایط چگونه میتوانیم هزینه انرژی یک پرسوجو را بهطور دقیق محاسبه کنیم؟ هر تعامل با یک مدل هوش مصنوعی مولد از طیف وسیعی از سختافزارها و زیرساختها استفاده میکند:
- مجموعهای از اجزای کامپیوتر، مانند کارت گرافیک (GPU)، پردازنده (CPU)، رم، فضای ذخیرهسازی داده و شبکه؛
- یک مرکز داده، ساختمانی که هزاران سرور را در خود جای داده است؛
- هزینههای «سربار»، که شامل تهویه مطبوع، خنککننده سرور و برق پشتیبان در صورت خرابی برق میشود.
مشکل اصلی این است که هنوز هم دشوار است که دقیقا بدانیم یک پرسوجو چقدر انرژی مصرف میکند. لوچیونی گفت: «هیچ شرکت بزرگ فناوری نخواسته است مدل خود را ارزیابی کند، زیرا ممکن است در نهایت تبلیغ خوبی برای آنها نباشد.» در واقع، بزرگترین شرکتهای این بخش در این مورد بسیار مبهم ماندهاند.
این عدم شفافیت از سوی ذینفعان اصلی فناوری چیز جدیدی نیست. امروزه، تقریبا غیرممکن است که بتوان اطلاعاتی در مورد هزینه انرژی پشت یک جستوجوی گوگل به دست آورد. تنها اشارهای که این شرکت به آن کرده، تخمین ۰.۳ وات ساعت (Wh) به ازای هر جستوجوی آنلاین است، رقمی که در یک پست وبلاگی در سال ۲۰۰۹ توسط مدیریت آن ارائه شده است. این رقم کاملا غیرقابل تایید و احتمالا قدیمی است و مقایسه یک جستوجوی مبتنی بر هوش مصنوعی با یک جستوجوی وب استاندارد امروزی را غیرممکن میسازد.
سازمان غیرانتفاعی GenAI Impact، با پروژه EcoLogits خود، قصد دارد شرکتهای هوش مصنوعی را به سمت شفافسازی بیشتر در مورد ردپای زیستمحیطی خود سوق دهد. ساموئل رینس، یکی از بنیانگذاران این سازمان مردمنهاد، گفت: «ما به کاربران این فرصت را میدهیم که بسته به مدل مورد استفاده، تاثیر زیستمحیطی هر دستورالعمل را آزمایش کنند و حتی اگر این فقط یک تخمین باشد، به درک مقیاس کمک میکند.» نوشتن یک توییت یا یک گزارش پنج صفحهای با مدل ChatGPT-۴o به اندازه انجام این کار با جدیدترین مدل Mistral یا Meta تاثیر نجومی ندارد. اما رشد و استفاده گسترده از مدلهای بزرگتر - که بسیاری از آنها برای تولید تصاویر یا ویدئوها استفاده میشوند - با گسترش مراکز داده که با انرژیای تغذیه میشوند که به هیچ وجه «پاک» نیست، مشکلات زیستمحیطی را دو چندان کرده است.
نیاز کاربران به در دسترس بودن مداوم فناوری هوش مصنوعی، اتکای صرف آن به منابع انرژی تجدیدپذیر مانند باد یا انرژی خورشیدی را بهویژه دشوار میکند، زیرا خروجی آنها متناوب و وابسته به آبوهواست. آن-لور لیگوزات، استاد علوم کامپیوتر در آزمایشگاه علوم کامپیوتر میانرشتهای (LISN)، گفت: «سرویسهای گوگل وقتی در کالیفرنیا خورشید نباشد، خاموش نمیشوند.» یک مطالعه اخیر توسط محققان دانشگاه هاروارد و یوسیالای که به صورت پیشچاپ موجود است و هنوز مورد بررسی دقیق قرار نگرفته است، نشان داد که ۹۵درصد از مراکز داده آمریکا در مناطقی ساخته شدهاند که منابع برق، آلودگی بیشتری نسبت به میانگین ملی تولید میکنند. در این گزارش همچنین مشخص شده که شدت کربن مراکز داده (میزان CO۲ منتشرشده به ازای هر واحد برق مصرفی) ۴۸درصد از میانگین ایالات متحده فراتر رفته است.
به گفته محققان، بسیاری از مراکز مجهز به کارتهای گرافیک کافی برای اجرای مدلهای هوش مصنوعی مانند GPT یا LLaMA (ساخت Meta) در مناطق تولیدکننده زغالسنگ مانند ویرجینیا واقع شدهاند که بیش از ۳۰۰ مرکز داده را در خود جای داده است. در سراسر مناطق ایالات متحده که بیشترین تمرکز مراکز داده را دارند، بیش از ۵۶درصد از برق مصرفی از سوختهای فسیلی (عمدتا گاز و زغالسنگ)، ۲۱درصد از انرژی هستهای و ۲۲درصد از منابع انرژی تجدیدپذیر تامین میشود.
آژانس بینالمللی انرژی در گزارش ماه آوریل خود نوشت: «از نظر تاریخی، مراکز داده از نظر مکانی بسیار متمرکز بودهاند و با توجه به مصرف برق قابلتوجهشان، چالشهای قابلتوجهی را برای شبکههای محلی ایجاد کردهاند.» این فشار انرژی به سایر پیامدهای زیستمحیطی میافزاید، بهویژه با استخراج منابع معدنی برای تولید سرورها، مصرف آب برای خنک کردن مراکز داده و استفاده از زمین مرتبط است. همه این عوامل از قبل شروع به ایجاد تنش کردهاند. لیگوزات گفت: «مناقشات محلی بر سر مسائلی مانند برق و آب از قبل ایجاد شده است و این ممکن است تشدید شود.»
* لوموند