Кейс по оптимизации затрат на Claude API в проекте по автоматизации поиска работы. AI анализировал вакансии и генерировал сопроводительные письма. При 100 пользователях затраты достигали $180/месяц. Решение: Prompt Caching от Anthropic. Экономия 52% ($0.51 → $0.245 за batch из 50 вакансий). Теперь можно делать в 2 раза больше AI-вызовов с тем же бюджетом.Кому полезно: всем, кто работает с LLM API и хочет оптимизировать затраты. Читать далее
Команда AI for Devs подготовила перевод и разбор статьи о Prompt Caching — технологии, которая делает входные токены LLM в разы дешевле и заметно снижает задержки. Внутри — подробное объяснение, что именно кэшируют OpenAI и Anthropic, как KV-кэш связан с attention в трансформерах и почему это не имеет ничего общего с повторным использованием ответов. Читать далее
С выходом Claude Cowork в обсуждениях стало много упрощений: его часто подают как "Claude Code, только удобнее и для офисных задач". Это частично верно, Cowork действительно приносит агентные возможности Claude Code в приложение на ПК для задач вне программирования. Но в обзорах часто замалчивают…
Я использовал новый функционал от Claude - Claude Cowork.Claude Cowork - это новый агентский режим от Anthropic, доступный в приложении Claude Desktop, который сейчас доступен только на macOS по подписке.Я попросил его сгенерировать план изучения Go. В статье разбираю особенности и ограничения. Разочароваться в ИИ