Существует очевидная проблема: интернет переполнен дезинформацией, а большинство крупных языковых моделей обучаются на огромном количестве текстов, полученных из интернета.В идеале, если бы объём точной информации был значительно больше, то для лжи не осталось бы места. Но так
Проблемы качества базы данных LLM[1] и необучаемости LLM в силу ограничения размеров контекстного окна сводятся к одной проблеме никак с LLM не связанной – оценке доверия к публикациям и их авторам вообще. Вторая проблема – LLM не умеет решать простые логические задачи легко решаемые
Сможем ли мы когда-нибудь доверять искусственному интеллекту? Несмотря на впечатляющий прогресс языковых моделей, они по-прежнему страдают от серьезной «болезни» — так называемых галлюцинаций, когда ИИ выдает ложную или бессмысленную информацию. В одном из недавних исследований выдвигается предположение, что эта проблема — не временный сбой, а фундаментальная особенность работы нейросетей. Если это действительно так, нам придется пересмотреть подход к ИИ. Читать далее
Меньше всего ваши электронные медицинские данные нужны вам (с). Есть и хорошие новости — сегодня пользователи уже могут получать медицинские электронные данные в нескольких сервисах, если очень нужно. Сегодня разбираемся, как и зачем начинать встраивать ваш медицинскую информационную систему в экосистему медицинских данных и нужны ли пациенту его данные. Читать дальше →