Мой счет за Google API взлетел до €51 из-за контекста LLM. Эта статья раскрывает, почему "память" моделей так дорога, как работает механизм Внимания, и предлагает 5 хаков для управления контекстом. Узнайте, почему будущее за Инженерией Контекста, а не за промптами. Читать далее
Предположение о том, что в основе работы LLM лежат нарративная функция и голографическая природа, можно подтвердить элементарными промптами.Когда вы задаете вопрос LLM, вы получаете не ответ на него, а наиболее вероятное и логичное, с точки зрения модели, продолжение вашего вопроса. LLM не понимает, чего вы хотите. Она получает историю на вход и отдает продолжение этой истории на выходе. Читать далее
Понимание естественного языка является AI полной задачей. Одним из аспектов такого понимания является понимание контекста. В данной статье я объясню, какие виды контекста выделяет наша психика, как она работает с одним из видов контекста, и как мы этот процесс воссоздаем в нашей
Делюсь методологией артефактно-ориентированной разработки с AI-ассистентами. Метод решает проблему ограничений контекста в LLM через двустороннюю синхронизацию проекта и сжатых артефактов. Эксперимент на реальном проекте (портфолио с нуля, 36 файлов) показал: 18× меньше файлов для загрузки, 30× ускорение подготовки контекста, 100% воспроизводимость. Читать далее