Привет, Хабр.В этой статье о том, как без написания кода поставить себе локально и использовать LLM без подключения к сети. Для меня это удобный способ использования в самолёте или in the middle of nowhere. Заранее выгрузив себе нужные файлы, можно делать анализ бесед саппорта с клиентами, или получить саммарайз отзывов из стора на приложение, или оценить резюме/тестовое задание кандидата... Читать далее
3 дня борьбы с ROCm, RX580 и Ollama: как я запустил LLM на домашней видеокартеЯ попытался запустить LLM inference на старой AMD RX580 через ROCm и Ollama в Kubernetes. GPU определялся, VRAM занималась, контейнеры запускались — но inference падал с ошибками hipMemGetInfo, а иногда просто выдавал бессмысленный текст.В статье
В этой статье мы подробно разбираем Ollama — инструмент для локального запуска больших языковых моделей (LLM). Вы узнаете, как установить программу, выбрать подходящую модель, понять форматы и квантование, настроить систему под своё железо и работать как через CLI, так и через API. Практические советы, примеры конфигураций и рекомендации по VRAM помогут вам максимально эффективно использовать Ollama для диалогов, генерации текста, кода и других задач. Читать далее
Привет, Хабр!Как без единой строчки кода сделать чат-бот с доступом в сеть, или сервис для генерации изображений, анализа файлов, как встроить это всё в свой проект... Об этом и не только в обзоре Flowise. Читать далее