Недавно Anthropic возмущалась фактом дистилляции Claude разработчиками китайских LLM, при этом в качестве доказательства приводился мониторинг аккаунтов Claude, отслеживалась их история и связь с китайскими инженерами.Мне стало интересно, возможно ли, имея только чат с LLM, понять…
Всем привет! Меня зовут Миша, я руковожу центром R&D Big Data в МТС Диджитал. В прошлый раз делился с вами подборкой книг по базам данных. Сегодня хочу обсудить, как дистилляция влияет на индустрию ИИ.Крупнейшие компании в области ИИ, включая OpenAI, Microsoft и Meta, используют технологию…
Проблемы качества базы данных LLM[1] и необучаемости LLM в силу ограничения размеров контекстного окна сводятся к одной проблеме никак с LLM не связанной – оценке доверия к публикациям и их авторам вообще. Вторая проблема – LLM не умеет решать простые логические задачи легко решаемые
Описаны ключевых методологии создания Reasoning LLM: масштабирование во время инференса, чистое обучение с подкреплением, комбинация SFT + RL и дистилляция.Это практическое руководство поможет выбрать оптимальную стратегию разработки, опираясь на имеющиеся ресурсы. Читать далее