Почему ChatGPT врет вам в лицо (и как OpenAI наконец объяснила, откуда берутся галлюцинации ИИ)Статья по горячим следам сенсационного исследования OpenAI от 4 сентября 2025Ваша модель только что выдала вам три разных неверных даты рождения одного человека. В десятом туре подсчета букв в…
Современные языковые модели, такие как ChatGPT, Claude, Gemini, Grok и так далее, способны генерировать тексты, которые часто кажутся уверенными, логичными и достойными доверия. Однако за этим часто скрывается одна из главных проблем нейросетей — галлюцинации. Галлюцинации — это уверенные,
Недавно провели стрим, где собрались специалисты, у которых ИИ не в презентациях, а в production. Провели разговор про галлюцинации моделей и про будущее разработки с ИИ. Ниже основные мысли — получился материал про три уровня работы с ИИ (вайб-кодинг, ИИ-ассистированная разработка и промышленный конвейер), про экономику вопроса и про то, почему галлюцинации — это не приговор, а управляемый риск. Читать далее
В этой статье посмотрим как можно влиять на так называемые «галлюцинации» ChatGPT.А что такое эти «галлюцинации»? По сути это придумывание фактов нейронной сетью, ну или просто — враньё. Управление «галлюцинациями» позволит получать то что мы хотим, ну или по крайней мере улучшит вероятность получения правдивого ответа. Читать далее