XUC
второе пришествие
- Регистрация
- 3 Сен 2006
- Сообщения
- 869
- Реакции
- 569
- Автор темы
- #1
Mistral AI и NVIDIA представили корпоративную ИИ-модель Mistral NeMo 12B со «здравым смыслом» и «мировыми знаниями»
Корпорация NVIDIA и французская компания Mistral AI анонсировали большую языковую модель (LLM) Mistral NeMo 12B, специально разработанную для решения различных задач корпоративного уровня — чат-боты, обобщение данных, работа с программным кодом и пр.
Mistral NeMo 12B насчитывает 12 млрд параметров и использует контекстное окно в 128 тыс. токенов. Для инференса применяется формат данных FP8, что, как утверждается, позволяет уменьшить размер требуемой памяти и ускорить развёртывание без какого-либо снижения точности ответов.
Источник изображения: pixabay.com
При обучении модели была задействована библиотека Megatron-LM, являющаяся частью платформы NVIDIA NeMo. При этом использовались 3072 ускорителя NVIDIA H100 на базе DGX Cloud. Утверждается, что Mistral NeMo 12B отлично справляется с многоходовыми диалогами, математическими задачами, программированием и пр. Модель обладает «здравым смыслом» и «мировыми знаниями». В целом, говорится о точной и надёжной работе применительно к широкому спектру приложений.
Модель выпущена под лицензией Apache 2.0 и предлагается в виде NIM-контейнера. На внедрение LLM, по словам создателей, требуются считанные минуты, а не дни. Для запуска модели достаточно одного ускорителя NVIDIA L40S, GeForce RTX 4090 или RTX 4500. Среди ключевых преимуществ развёртывания посредством NIM названы высокая эффективность, низкая стоимость вычислений, безопасность и конфиденциальность.
Источник Для просмотра ссылки Войдиили Зарегистрируйся
Илон Маск собрался обучить мощнейший ИИ к декабрю, для чего запустил самый мощный в мире ИИ-кластер со 100 тыс. Nvidia H100
Американский бизнесмен Илон Маск (Elon Musk) в своём аккаунте в социальной сети X заявил о запуске его ИИ-стартапом xAI «самого мощного в мире кластера для обучения ИИ». Данная система, по словам Маска, обеспечит «значительное преимущество в обучении самого мощного в мире ИИ по всем показателям к декабрю этого года».
Источник изображения: xAI / X
«Система со 100 тыс. H100 с жидкостным охлаждением на единой RDMA-шине стала самым мощным кластером для обучения ИИ в мире», — отметил Маск в своём сообщении. Участвовал ли бизнесмен лично в запуске ИИ-суперкомпьютера, неизвестно, но на опубликованном снимке видно, что как минимум он общался с инженерами xAI во время подключения оборудования.
Ранее в этом году СМИ писали о стремлении Маска запустить так называемую «гигафабрику для вычислений», которая представляет собой гигантский дата-центр с самым производительным в мире ИИ-суперкомпьютером, к осени 2025 года. Начало формирования кластера для обучения ИИ потребовало закупки огромного количества ускорителей Nvidia H100. Похоже, что у бизнесмена не хватило терпения, чтобы дождаться выхода ускорителей H200, не говоря уже о будущих моделях B100 и B200 поколения Blackwell, которые, как ожидается, будут выпущены до конца этого года.
Позднее Маск написал, что ИИ-суперкомпьютер будет задействован для обучения самого мощного по всем показателям ИИ. Вероятно, речь идёт об алгоритме Grok 3, этап обучения которого должен закончиться к концу этого года. Любопытно, что расположенный в дата-центре в Мемфисе ИИ-суперкомпьютер, по всей видимости, значительно превосходит аналоги. К примеру, суперкомпьютер Frontier построен на базе 27 888 ускорителей AMD, в Aurora используется 60 тыс. ускорителей Intel, а в Microsoft Eagle — 14 400 ускорителей H100 от Nvidia.
Источник: Для просмотра ссылки Войдиили Зарегистрируйся
OpenAI переманила вице-президента Microsoft по исследованиям в области генеративного ИИ
15.10.2024 [11:29], Павел Котов
Microsoft сообщила, что её вице-президент по исследованиям в области искусственного интеллекта Себастьен Бубек (Sebastien Bubeck) покинет компанию и начнёт работать в OpenAI. Его должность на новом месте работы пока неизвестна, передаёт Reuters.
Источник изображения: BoliviaInteligente / unsplash.com
«Себастьен решил уйти из Microsoft, чтобы продолжить свою работу по созданию AGI (сильного искусственного интеллекта)», — заявил представитель Microsoft и добавил, что компания ожидает продолжить отношения с OpenAI через работу Бубека. Сам специалист комментариев о смене места работы не предоставил.
Большинство соавторов Бубека по исследовательскому проекту большой языковой модели Phi, которая меньше аналогичных, продолжают работать в Microsoft и намереваются далее разрабатывать данные системы ИИ. В последние месяцы OpenAI столкнулась с массовым уходом специалистов — в сентябре компания лишилась главного технического директора Миры Мурати (Mira Murati). Гендиректор OpenAI Сэм Альтман (Sam Altman) заявил, что между массовым исходом сотрудников из компании и её грядущей реструктуризацией отсутствует какая-либо связь.
Источник Для просмотра ссылки Войдиили Зарегистрируйся
Корпорация NVIDIA и французская компания Mistral AI анонсировали большую языковую модель (LLM) Mistral NeMo 12B, специально разработанную для решения различных задач корпоративного уровня — чат-боты, обобщение данных, работа с программным кодом и пр.
Mistral NeMo 12B насчитывает 12 млрд параметров и использует контекстное окно в 128 тыс. токенов. Для инференса применяется формат данных FP8, что, как утверждается, позволяет уменьшить размер требуемой памяти и ускорить развёртывание без какого-либо снижения точности ответов.
Источник изображения: pixabay.com
При обучении модели была задействована библиотека Megatron-LM, являющаяся частью платформы NVIDIA NeMo. При этом использовались 3072 ускорителя NVIDIA H100 на базе DGX Cloud. Утверждается, что Mistral NeMo 12B отлично справляется с многоходовыми диалогами, математическими задачами, программированием и пр. Модель обладает «здравым смыслом» и «мировыми знаниями». В целом, говорится о точной и надёжной работе применительно к широкому спектру приложений.
Модель выпущена под лицензией Apache 2.0 и предлагается в виде NIM-контейнера. На внедрение LLM, по словам создателей, требуются считанные минуты, а не дни. Для запуска модели достаточно одного ускорителя NVIDIA L40S, GeForce RTX 4090 или RTX 4500. Среди ключевых преимуществ развёртывания посредством NIM названы высокая эффективность, низкая стоимость вычислений, безопасность и конфиденциальность.
Источник Для просмотра ссылки Войди
Илон Маск собрался обучить мощнейший ИИ к декабрю, для чего запустил самый мощный в мире ИИ-кластер со 100 тыс. Nvidia H100
Американский бизнесмен Илон Маск (Elon Musk) в своём аккаунте в социальной сети X заявил о запуске его ИИ-стартапом xAI «самого мощного в мире кластера для обучения ИИ». Данная система, по словам Маска, обеспечит «значительное преимущество в обучении самого мощного в мире ИИ по всем показателям к декабрю этого года».
Источник изображения: xAI / X
«Система со 100 тыс. H100 с жидкостным охлаждением на единой RDMA-шине стала самым мощным кластером для обучения ИИ в мире», — отметил Маск в своём сообщении. Участвовал ли бизнесмен лично в запуске ИИ-суперкомпьютера, неизвестно, но на опубликованном снимке видно, что как минимум он общался с инженерами xAI во время подключения оборудования.
Ранее в этом году СМИ писали о стремлении Маска запустить так называемую «гигафабрику для вычислений», которая представляет собой гигантский дата-центр с самым производительным в мире ИИ-суперкомпьютером, к осени 2025 года. Начало формирования кластера для обучения ИИ потребовало закупки огромного количества ускорителей Nvidia H100. Похоже, что у бизнесмена не хватило терпения, чтобы дождаться выхода ускорителей H200, не говоря уже о будущих моделях B100 и B200 поколения Blackwell, которые, как ожидается, будут выпущены до конца этого года.
Позднее Маск написал, что ИИ-суперкомпьютер будет задействован для обучения самого мощного по всем показателям ИИ. Вероятно, речь идёт об алгоритме Grok 3, этап обучения которого должен закончиться к концу этого года. Любопытно, что расположенный в дата-центре в Мемфисе ИИ-суперкомпьютер, по всей видимости, значительно превосходит аналоги. К примеру, суперкомпьютер Frontier построен на базе 27 888 ускорителей AMD, в Aurora используется 60 тыс. ускорителей Intel, а в Microsoft Eagle — 14 400 ускорителей H100 от Nvidia.
Источник: Для просмотра ссылки Войди
OpenAI переманила вице-президента Microsoft по исследованиям в области генеративного ИИ
15.10.2024 [11:29], Павел Котов
Microsoft сообщила, что её вице-президент по исследованиям в области искусственного интеллекта Себастьен Бубек (Sebastien Bubeck) покинет компанию и начнёт работать в OpenAI. Его должность на новом месте работы пока неизвестна, передаёт Reuters.
Источник изображения: BoliviaInteligente / unsplash.com
«Себастьен решил уйти из Microsoft, чтобы продолжить свою работу по созданию AGI (сильного искусственного интеллекта)», — заявил представитель Microsoft и добавил, что компания ожидает продолжить отношения с OpenAI через работу Бубека. Сам специалист комментариев о смене места работы не предоставил.
Большинство соавторов Бубека по исследовательскому проекту большой языковой модели Phi, которая меньше аналогичных, продолжают работать в Microsoft и намереваются далее разрабатывать данные системы ИИ. В последние месяцы OpenAI столкнулась с массовым уходом специалистов — в сентябре компания лишилась главного технического директора Миры Мурати (Mira Murati). Гендиректор OpenAI Сэм Альтман (Sam Altman) заявил, что между массовым исходом сотрудников из компании и её грядущей реструктуризацией отсутствует какая-либо связь.
Источник Для просмотра ссылки Войди