Живлення моделей штучного інтелекту потребує величезної кількості енергії. Новий аналіз демонструє, наскільки великою може стати ця проблема.
Кожна онлайн-взаємодія опирається на каркас інформації, що зберігається на віддалених серверах, а ці машини, складені разом у дата-центрах по всьому світу, потребують багато енергії. За даними Міжнародного енергетичного агентства, на даний момент дата-центри у всьому світі споживають близько 1-1,5% світового споживання електроенергії. А постійно зростаючий бум на технології штучного інтелекту може значно збільшити це число, і швидко.
Останні кілька місяців дослідники б’ють на сполох щодо величезних потреб штучного інтелекту в енергії. Але рецензований аналіз, опублікований цього тижня в Joule, є одним з перших, хто кількісно оцінює попит, який швидко матеріалізується. Продовження поточних тенденцій у сфері можливостей та впровадження штучного інтелекту має призвести до того, що NVIDIA буде постачати 1,5 мільйона серверних блоків штучного інтелекту на рік до 2027 року. Ці 1,5 мільйона серверів, що працюють на повну потужність, споживатимуть щорічно щонайменше 85,4 терават-годин електроенергії — більше, ніж деякі країни світу споживають за аналогічний період, згідно з відкритими даними.
Аналіз був проведений Алексом де Врісом, науковим співробітником центрального банку Нідерландів та аспірантом Вільного університету Амстердама, де він вивчає енергетичні витрати нових технологій. Раніше пан де Вріс набув популярності, сповістивши про величезні енергетичні витрати на видобуток та транзакції криптовалют. Тепер він звернув свою увагу на останню технічну моду. Журнал Scientific American поговорив з ним про дивовижний апетит штучного інтелекту до електроенергії.
Чому ви вважаєте, що важливо досліджувати споживання енергії штучним інтелектом?
Тому що штучний інтелект є енергоємним. Я навів один приклад цього у своїй науковій статті: я підкреслив, що якби ви повністю перетворили пошукову систему Google на щось на кшталт ChatGPT, і всі б її так використовували – тобто замість дев’яти мільярдів звичайних пошуків на день у вас було б дев’ять мільярдів взаємодій з чат-ботом – то споживання енергії Google різко зросло б. Google знадобилося б стільки ж енергії, скільки споживає ціла Ірландія, тільки для роботи своєї пошукової системи.
Звісно, так не станеться, бо Google також довелося б інвестувати $100 мільярдів у обладнання, щоб це стало можливим. І навіть якби [компанія] мала гроші на такі інвестиції, ланцюг поставок не зміг би негайно доставити всі ці сервери. Але я все одно вважаю корисним проілюструвати, що якщо ви збираєтеся використовувати генеративний штучний інтелект у програмах [наприклад, у пошуковій системі], це може зробити кожну онлайн-взаємодію набагато більш ресурсоємною.
Я думаю, що корисно принаймні брати до уваги питання стійкості, коли ми говоримо про ризики штучного інтелекту. Коли ми говоримо про потенційну небезпеку помилок, невідомості «чорного ящика» або упередження дискримінації штучного інтелекту, ми повинні також включати стійкість як фактор ризику. Сподіваюся, що моя стаття принаймні заохотить думати в цьому напрямку. Якщо ми збираємося використовувати штучний інтелект, чи це допоможе? Чи можемо ми зробити це відповідально? Чи справді нам потрібно використовувати цю технологію насамперед? Чого хоче і потребує кінцевий користувач, і як нам найкраще йому допомогти? Якщо штучний інтелект є частиною цього рішення, добре, продовжуйте. Але якщо ні, то не впроваджуйте його.
Які частини процесів ШІ використовують всю цю енергію?
Зазвичай у роботі ШІ є дві основні фази:
- Фаза навчання: на цьому етапі модель налаштовується і самостійно навчається потрібній поведінці.
- Фаза висновків: тут модель запускається в роботу і їй подаються запити, на які вона має генерувати оригінальні відповіді.
Обидві фази є дуже енергоємними, і ми не до кінця розуміємо співвідношення енерговитрат між ними. Раніше в Google баланс становив 60% на фазу висновків і 40% на навчання. Але з появою ChatGPT ця пропорція змінилася – навчання ChatGPT вимагає порівняно мало енергії порівняно з використанням самої моделі.
Багато залежить від різних факторів, наприклад, від кількості даних, включених у ці моделі. Великі мови, на яких базується ChatGPT, відомі тим, що використовують величезні набори даних і мають мільярди параметрів. Звісно, збільшення розміру цих моделей призводить до зростання їхніх потреб у потужності, але це також дозволяє компаніям робити їх більш надійними.
Які ще змінні потрібно враховувати, коли йдеться про енергоспоживання ШІ?
У моїй статті не розглядається охолодження, але якби були відповідні дані, я б обов’язково їх включив. Великою невідомою є місце розташування цих серверів. Це дуже важливо, адже якщо вони знаходяться у Google, то додаткові витрати енергії на охолодження становитимуть близько 10%. Але у середньому глобальні дата-центри збільшують вартість енергії на 50% лише для того, щоб охолоджувати машини. Є також дата-центри, які показують ще гірші результати.
Також важливий тип використовуваного обладнання. Нові сервери більш ефективні, ніж старі. Також має значення, для чого буде використовуватися технологія ШІ. Чим складніше запит і чим довше сервери працюють над його виконанням, тим більше енергії споживається.
У своїй оцінці ви описуєте кілька різних сценаріїв споживання енергії, від найгіршого до найкращого. Який з них є найбільш імовірним?
У найгіршому сценарії, якщо ми вирішимо робити все за допомогою ШІ, то кожен дата-центр фактично відчує десятикратне збільшення споживання енергії. Це призведе до масового зростання світового споживання електроенергії, оскільки дата-центри, не включаючи майнінг криптовалют, вже споживають близько 1% світової електроенергії. Але, знову ж таки, це не станеться – це абсолютно нереалістично. Це корисний приклад, який ілюструє, що ШІ є дуже енергоємним.
На протилежному кінці спектру є ідея нульового зростання. Дехто каже, що зростання попиту буде повністю компенсовано підвищенням ефективності, але це дуже оптимістичний погляд, який не враховує того, що ми знаємо про попит і ефективність. Щоразу, коли велика нова технологія робить процес більш ефективним, це фактично призводить до збільшення попиту на все, що виробляється. Підвищення ефективності стимулює попит, тому підвищення ефективності не призводить до реальної економії енергії.
Який, на мою думку, найбільш вірогідний шлях розвитку? Я думаю, що відповідь полягає в тому, що споживання електроенергії, пов’язане з ШІ, зросте. Спочатку це зростання буде дещо повільним. Але існує можливість, що через кілька років воно прискориться зі збільшенням виробництва серверів. Знання цього дає нам трохи часу на роздуми про те, що ми робимо.
Які додаткові дослідження чи інші кроки можуть бути потрібні?
Нам потрібні дані більш високої якості. Нам потрібно знати, де розташовані ці сервери. Нам потрібно знати джерело самої енергії. Що насправді хвилює щодо впливу на навколишнє середовище, так це викиди вуглецю. Енергоспоживання – це одна справа, але чи походить воно з відновлюваних джерел? Чи з викопного палива?
Можливо, регулятори мають вимагати від розробників ШІ розкриття інформації про використання енергії, оскільки наразі доступно дуже мало інформації. Провести цей аналіз було дуже складно – всі, хто зараз намагається працювати над ШІ, стикаються з тими ж проблемами, коли інформація обмежена. Я думаю, що більша прозорість допоможе. І якщо ця прозорість не з’являється природним шляхом, що поки що не так, то ми повинні подумати про те, як її трохи підштовхнути.