Проблемы качества базы данных LLM[1] и необучаемости LLM в силу ограничения размеров контекстного окна сводятся к одной проблеме никак с LLM не связанной – оценке доверия к публикациям и их авторам вообще. Вторая проблема – LLM не умеет решать простые логические задачи легко решаемые
Вы когда-нибудь сталкивались с оценкой продукта по количеству закоммиченных строк кода в месяц? Или задавались вопросом, как оценить качество продукта в целом? Если да, эта статья будет для вас актуальна. Меня зовут Арина Гончаренко, я DevOps-инженер в Lamoda Tech. Расскажу, что такое DORA-метрики и как они могут помочь оценить качество проекта. Спойлер: в конце материала проанализируем три реальных кейса внедрения DORA-метрик в проекты Lamoda. Читать далее ????
Представьте модели LLM размером до более чем 100 миллиардов параметров, каждая из которых мощнее предыдущей. Среди них есть гиганты: Mistral (7 миллиардов), Mixtral (8x7 миллиардов), Llama (70 миллиардов) и колоссальная Falcon (180 миллиардов). Однако существуют и модели наподобие Phi1, Phi1.5 и Falcon 1B,…
Системы дополненной генерации (RAG) были разработаны для улучшения качества ответа крупной языковой модели (LLM). Когда пользователь отправляет запрос, система RAG извлекает релевантную информацию из векторной базы данных и передает ее в LLM в качестве контекста. Затем LLM использует этот контекст для генерации ответа для пользователя. Этот процесс значительно улучшает качество ответов LLM с меньшим количеством «галлюцинаций». Читать далее