Привет, это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий.Неделя вышла насыщенной: гибридная 120B модель от NVIDIA, Claude нашёл 22 дыры в Firefox, а ChatGPT и Gemini интегрировались в Excel и Google Docs. Голливуд заставил ByteDance убрать видеомодель, а ЕС запретил дипфейки после скандала с Grok.Всё самое важное — в одном месте. Поехали! Читать дайджест →
120 миллиардов параметров, контекст 256K токенов, агентное поведение — и все это на одной видеокарте. Мы подключили Nemotron 3 Super к Luxms BI и неделю тестировали на реальных аналитических задачах. В этой статье — что получилось, где модель справляется, а где пока нет.Главный вопрос, на который мы хотели ответить – можно ли сегодня решать реальные аналитические задачи на одной GPU там, где обычно требуется кластер. Читать далее
Nemotron-H реализует гибридную архитектуру Mamba-Transformer, где большая часть слоёв – это слои SSM (Structured State-Space Model) Mamba-2, а небольшая доля – классические слои самовнимания (self-attention) трансформера, чередующиеся с полносвязными слоями (FFN). Структура модели продумана таким образом, чтобы…
Привет, Хабр! Сегодня хочу поделиться опытом подбора «идеальной» локальной модели для повседневной работы: от быстрой помощи в кодинге до глубоких рассуждений в физике и биологии.Мой домашний сетап: NUC 64GB + RTX 3090 (24GB) через Thunderbolt + Windows 11 + WSL2. Мне нужна была модель, которая станет основным помощником: быстро набросать скрипт для Proxmox, объяснить научный термин или вытащить данные из кучи документов (RAG)… Почему Nemotron-Cascade-2