Долгое время меня мучал вопрос - возможно ли запустить ИИшку у себя на телефоне, и если да, то какую. Я уверен, что об этом думали многие, но не понимали смысла, зачем тратить время на такого рода занятия. Что ж, я не выдержал и сделал мини-приложение, которое запускает Qwen / Gemma модель и общается с вами без доступа в интернет - прямо на смартфоне. Читать далее
Gemma 3 12B — мощная ИИ-модель с 12 миллиардами параметров, которая не требует серверов или облака. Работает прямо на Mac без лишних настроек. Внутри — инструкция по установке, настройке и запуску Gemma 3 12B на macOS с LM Studio. Читать далее
Буду честен. Я перестал следить за Gemma после второй версии. Не потому что она была плохой — просто она никогда не воспринималась как серьёзный конкурент китайским гигантам открытого ИИ: DeepSeek, Qwen — моделям, которые разработчики действительно разворачивали в продакшене. Gemma была…
Как поднять локальную LLM за 5 минут ????Хотите свой ChatGPT, который работает локально и не требует интернета? В статье показываю, как развернуть Ollama + OpenWebUI в Docker: • Ollama — инструмент для запуска локальных LLM (LLaMA, Mistral, Gemma и др.) • LLaMA — серия открытых языковых моделей от Meta • OpenWebUI —…