На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Хайтек+

23 подписчика

Свежие комментарии

  • Егор Горшков
    А почему бы и да, как говорится.Храните биткоины ...
  • Цуркан Арк
    Сказки, на три недели, а потом полгода жечь щепу?В Финляндии подкл...
  • Иван Вакула
    В России после распада СССР и стараниями либеральной власти образование перевели на западные методики, что из этого п...Различия в успева...

ChatGPT получает 2,5 млрд запросов в день и вскоре будет работать на 1 млн GPU

По данным Axios, ChatGPT сейчас обрабатывает более 2,5 млрд запросов в день, из них 330 млн — от пользователей в США. В год это более 900 млрд запросов. Хотя это пока меньше, чем 5 трлн поисковых запросов в Google, темпы роста ChatGPT впечатляют: только за три месяца активная аудитория сервиса выросла с 300 до 500 млн человек в неделю.

Обслуживание такого количества пользователей требует огромных ресурсов. Сэм Альтман в своём посте на X заявил, что компания готовится ввести в эксплуатацию более 1 млн GPU до конца 2025 года. Это в пять раз больше, чем у конкурента — xAI Илона Маска, чья новая модель Grok 4 работает примерно на 200 тыс. процессоров Nvidia H100. Но и этого Альтману мало. Он добавил: «Очень горжусь командой... но теперь им лучше поработать над тем, как в 100 раз больше, лол». За этой «шуткой» стоит вполне реальное стремление — обеспечить техническую базу для создания общего искусственного интеллекта (AGI).

Цель в 100 млн GPU пока выглядит утопичной. При нынешних ценах одна только закупка такого количества чипов обойдётся примерно в $3 трлн — почти как годовой ВВП Великобритании. К тому же, ни один производитель, включая Nvidia, не сможет обеспечить такие объёмы в обозримом будущем. Также остаются нерешенными вопросы энергоснабжения, охлаждения и размещения такого оборудования.

В феврале Альтман признал, что запуск GPT‑4.5 пришлось задержать, потому что у компании «буквально не осталось графических процессоров». Это стало тревожным сигналом, особенно на фоне дефицита чипов Nvidia, и с тех пор OpenAI сделала ставку на расширение инфраструктуры.

Сейчас компания строит огромный дата-центр в Техасе, который уже потребляет 300 МВт — достаточно, чтобы обеспечить энергией средний город. А к 2026 году планируется выйти на уровень 1 ГВт. Инфраструктура такого масштаба вызывает тревогу у сетевых операторов. Они предупреждают, что для стабильной работы объекта понадобится срочная и дорогая модернизация энергосистемы — настолько сложная, что с ней не смогут справиться даже государственные службы. Параллельно OpenAI расширяет сотрудничество с Microsoft, Oracle, тестирует ускорители TPU от Google и, по слухам, разрабатывает собственные ИИ-чипы.

Слова Альтмана — явное свидетельство того, как стремительно развивается индустрия. Год назад 10 000 графических процессоров звучали как огромное преимущество, а теперь миллион кажется лишь очередным шагом к чему-то гораздо большему. Развитие инфраструктуры для OpenAI — это не просто ускорение обучения или более плавное внедрение моделей, это способ закрепить долгосрочное лидерство в отрасли, где вычислительные мощности остаются главным узким местом.

 

Ссылка на первоисточник
наверх
Новости СМИ2