Как известно, у больших языковых моделей (LLM) существуют ограничения по размеру контекстного окна. При постановке вопроса часто невозможно вставить весь исходный текст, что требует объединения кода из разных файлов в одном месте.В связи с этим я разработал скрипт, который…
Тип: картридж; Тип фильтра: магистральный; Способы очистки: очистка углем, механическая очистка; Функции: очистка от свободного хлора; Количество степеней очистки: 1; Максимальная температура воды: 40 °C; Типоразмер корпуса: 10 Big Blue; Тип воды: холодная; Сменный модуль для фильтра Гейзер CBC10-10BB 1шт (27118) Тип картридж Тип фильтра магистральный Способы очистки очистка углем, механическая очистка Функции очистка от […]
Проблема — в часы пик не справляется сетевой интерфейс с передаваемым объёмом данных. Из доступных вариантов решения был выбран сжатие хранимых данных tl;dr: экономия памяти >100% и сети >50%. Речь пойдёт о плагине для predis, который автоматически сжимает данные перед отправкой в redis. Читать дальше →
Проблемы качества базы данных LLM[1] и необучаемости LLM в силу ограничения размеров контекстного окна сводятся к одной проблеме никак с LLM не связанной – оценке доверия к публикациям и их авторам вообще. Вторая проблема – LLM не умеет решать простые логические задачи легко решаемые