Недавно вышла коллекция моделей от Alibaba - Qwen3-VL:https://huggingface.co/collections/Qwen/qwen3-vl-68d2a7c1b8a8afce4ebd2dbe Запустим эту модель на Ubuntu
Команда Alibaba Cloud выпустила Qwen3-ASR-Toolkit — открытый инструмент для транскрипции аудио- и видеофайлов любой длительности. Решение построено на базе модели Qwen3-ASR (ранее Qwen3-ASR-Flash) и устраняет ключевую проблему большинства API для распознавания речи — ограничение по длительности файла. Читать далее
Генератор отзывов о ресторане:Собрано почти 16 000 положительных отзывов от ресторанов с оценкой выше 4,7 (из 5), расположенных в Москве с https://yandex.ru/maps. Использованная модель — Qwen3-4B Qwen3 как поддерживающий русский язык. Для обучения модели в течение двух эпох использовалась библиотека Unsloth с LoRA. В результате был выбран LoRA 32-го ранга и обучено 66 млн параметров. Теперь модель может дать хороший новый обзор:Целью было понять, как можно начать проект с нуля. Читать далее
Я давно слежу за развитием локальных LLM, но всегда упирался в одно и то же — либо модель маленькая и качество не устраивает, либо большая и не влезает в видеопамять. Всё изменилось когда я наткнулся на статью про MoE-модели и параметр -cmoe в llama.cpp.Расскажу как я запустил Qwen3.6 35B-A3B на RTX 4070 12GB с 32GB RAM, настроил его как AI-ассистент для реального проекта в opencode, и почему теперь эта модель у меня работает постоянно. Читать далее