На днях вышла новая статья "Beyond Context: Large Language Models Failure to Grasp Users Intent", которая задаёт новые тренды академического кликбейт названия публикаций. По сути авторы заявляют, что модели не понимают глобального интента пользователя. Они делают глубокое исследование, которое это…
Во время инференса LLM не выполняется побочных эффектов, вместо этого генерируется последовательность токенов, которые можно интерпретировать как намерение вызвать инструмент. Это напоминает мне ту часть шаблона transactional outbox, в которой намерение сущности (entity) отправить запрос…
Проблемы качества базы данных LLM[1] и необучаемости LLM в силу ограничения размеров контекстного окна сводятся к одной проблеме никак с LLM не связанной – оценке доверия к публикациям и их авторам вообще. Вторая проблема – LLM не умеет решать простые логические задачи легко решаемые
Предположение о том, что в основе работы LLM лежат нарративная функция и голографическая природа, можно подтвердить элементарными промптами.Когда вы задаете вопрос LLM, вы получаете не ответ на него, а наиболее вероятное и логичное, с точки зрения модели, продолжение вашего вопроса. LLM не понимает, чего вы хотите. Она получает историю на вход и отдает продолжение этой истории на выходе. Читать далее