Глава Anthropic рассказал, что ИИ-модели стоимостью $1 млрд уже в разработке, модели за $100 млрд не за горами

Генеральный директор Anthropic Дарио Амодей заявил в подкасте In Good Company, что разрабатываемые сегодня ИИ-модели могут стоить до $1 млрд для обучения. Текущие модели, такие как ChatGPT-4o, стоят около $100 млн, но он ожидает, что стоимость обучения этих моделей вырастет до $10 млрд или даже $100 млрд уже через три года.

Амодей упомянул эти цифры, обсуждая развитие ИИ от генеративного искусственного интеллекта (как ChatGPT) до искусственного общего интеллекта (AGI). Он сказал, что не будет единой точки, где мы внезапно достигнем AGI. Вместо этого, это будет постепенное развитие, где модели будут основываться на достижениях предыдущих моделей, подобно тому, как учится ребенок.

https://www.youtube.com/watch?v=xm6jNMSFT7g

Если модели ИИ становятся в десять раз мощнее каждый год, мы можем рационально ожидать, что оборудование, необходимое для их обучения, также будет как минимум в десять раз мощнее. Таким образом, железо может стать крупнейшим фактором затрат в обучении ИИ. В 2023 году сообщалось, что ChatGPT требует более 30 000 GPU, а Сэм Альтман подтвердил, что обучение ChatGPT-4 стоило $100 млн.

В прошлом году более 3,8 миллиона GPU были поставлены в дата-центры. С учетом того, что новейший ИИ-чип Nvidia B200 стоит около $30 000-$40 000, мы можем предположить, что оценка Дарио в миллиард долларов соответствует 2024 году. Если прогресс в исследованиях моделей/квантизации будет расти нынешними темпами, то можно ожидать, что требования к железу будут соответствовать, если только более эффективные технологии, такие как ИИ-чип Sohu, не станут более распространенными.

При этом экспоненциальный рост уже наблюдается. Илон Маск хочет приобрести 300 000 ИИ-чипов B200, в то время как OpenAI и Microsoft, по сообщениям, планируют дата-центр ИИ за $100 млрд. При таком спросе мы можем увидеть, как поставки GPU для дата-центров в следующем году вырастут до 38 миллионов, если Nvidia и другие поставщики смогут удовлетворить потребности рынка.

Однако, помимо поставок самого железа, эти ИИ-компании должны беспокоиться также о электроснабжении и связанной инфраструктуре. Общее расчетное энергопотребление всех GPU для дата-центров, проданных только в прошлом году, может обеспечить электроэнергией 1,3 миллиона домов. Если требования к энергопотреблению дата-центров продолжат расти, то возможно, что мы можем столкнуться с нехваткой экономически выгодного электричества. По этой причине многие технологические компании, включая Microsoft, теперь рассматривают возможность использования модульной ядерной энергии для своих дата-центров.

Больше статей на Shazoo
Тэги:

17 комментария

Вообще-то, у меня, человека пользующегося нейросетями, но не имеющего никакого отношения к их "кухни", создаётся ощущение какого-то тупика, нейросети усложняются на порядок, их обучение удорожается на порядок, а выхлопа почти и нет, тот же ChatGPT-4go отвечает почти как ChatGPT-3,5 (2021 года)... Тот же SD 3 оказался полной шляпой в сухую проигрывает SD1.5...

1

@Skykila,Проблема в том что им добавили ограничения(ради безопасности) и они слишком сильно влияют на результат. У них было два варианта первый это нынешний. Пытаются уменьшить влияния ограничителей на общую производительность ,а второй доступ к ботам только проверенным людям и возможно без конфиденциальности полной. Уверен "нужные люди" пользуются уже вторым вариантом .Я бы и сам предпочел второй вариант но к сожалению у нас нету "экзамена на владение ИИ" как с оружием например

2

@Smartme,

,проблема в том что им добавили ограничения(ради безопасности) и они слишком сильно влияют на результат.

Тем более тупик.

0

@Skykila, "Спасибо" таким мерзким представителям человечества которые замедляют наш прогресс

0

@Smartme, А вы знаете, я с вами не согласен, ограничения добавленные в модели не позволят получить ответ на, скажем так, скользкие темы, но почему ChatGPT-4go хуже переводит с японского? Или почему он же слабо разбирается в истории (даже хуже ChatGPT-3,5) или почему SD 3 такая шляпа?

0

@Skykila, Я не помню точное название статьи которую читал но ограничение на скользкие темы как то виляет на все остальное и учёные до конца не понимают почему

0

@Skykila, У меня такой вот опыт приключился. Сначала майкры добавили Бинг в свой браузер и он был очень крут. Мне понравилось с ним работать больше чем с обычным GPT, сильно помогал по делам. Затем, спустя несколько месяцев и обнов, что-то там перешаманили, убрали творческую версию и оставили "сбалансированную", которая работает тупо как поисковик и раз за разом, на любой вопрос, постит один и тот же тупорылый ответ, который к запросу не имеет никакого отношения. Мол, дай список "топ 10 футбольных клубов 20 века" - "футбол это очень популярная игра, она появилась в ......" - если хотите узнать больше о футболе нажмите 1, мать его так :D В общем, работать с этим больше невозможно и пришлось обратно в GPT бежать.

1

@GimliGnom, Совершенно согласен, и кстати, с bing был такой же опыт.

1

@Skykila,

тот же ChatGPT-4go отвечает почти как ChatGPT-3,5

Дальше можно не читать

0

@Lazer, ну так и не читайте, я никого не неволю.

0

По итогу рост нейросетей щас вступит в конфликт с попыткой перейти на зеленую энергию.

1

Если ИИ хочет, чтобы ему скармливали все больше и больше мощностей, пускай придумывает новые дешевые источники энергии, это в его же интересах :)
не подсказывать ему что можно использовать энергию человеческого тела

1

@Fortuna, куры 42 градуса если шо не так придирчивы к питанию быстро размножаются.

0

@c0oin, :)) первыми в расход пустят кур.

0

@Fortuna, Тем более что ИИ уже большой, пусть сам "зарабатывает"

1

Давайте мне лям баксов и можете меня обучать сколько влезет. Я обучусь, обещаю

0
Войдите на сайт чтобы оставлять комментарии.