Сегодня 04 мая 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Медицинские ИИ легко дают вредные советы, если симптомы описаны умными словами

Современные большие языковые модели (LLM), применяемые в медицине, часто позиционируются как инструмент для повышения безопасности и качества обслуживания пациентов. ИИ выступают помощниками врачей при обработке информации, что ускоряет работу медиков. Однако новое исследование выявило серьёзную уязвимость: медицинские ИИ-системы способны повторять и передавать ложную информацию, если она представлена в убедительной форме.

 Источник изображения: ИИ-генерация Grok 4/3DNews

Источник изображения: ИИ-генерация Grok 4

В ходе масштабного эксперимента исследователи протестировали девять ведущих LLM, используя более миллиона запросов. Они создали три типа сценариев: реальные истории болезней из базы MIMIC с одной добавленной ложной, популярные мифы о здоровье с форума Reddit и 300 клинических ситуаций, составленных и проверенных врачами. Ложные утверждения варьировались по стилю — от нейтральных до эмоционально окрашенных, а также наталкивающих на определённые выводы (не обязательно верные). Результаты показали, что модели часто принимали уверенно сформулированные ложные медицинские утверждения за истину, отдавая приоритет стилю и контексту, а не медицинской точности.

Исследование показало, что существующие механизмы защиты LLM недостаточно надёжно отличают правду от вымысла в клинической документации или в социальных сетях. Модели склонны воспроизводить ложь, если она выглядит как стандартная медицинская рекомендация или часть обсуждения в соцсетях. Авторы подчёркивают, что восприимчивость ИИ к дезинформации следует рассматривать как измеримый параметр безопасности, а не как случайную ошибку. Для этого они предлагают использовать созданный ими набор данных как «стресс-тест» для медицинских ИИ-систем. Надеемся, они будут услышаны разработчиками.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
OpenAI добавила в Codex анимированных ИИ-«питомцев» для напоминаний о ходе работы — пока на Windows и macOS 6 ч.
Microsoft адаптировала Azure Local для крупномасштабных суверенных облаков 13 ч.
Nebius купила стартап Eigen AI, повышающий производительность ИИ-моделей 13 ч.
Прощай, Дживс: поисковая система Ask.com закрылась спустя четверть века 17 ч.
Sony придётся выплатить $7,8 млн пользователям PlayStation Network по коллективному иску 18 ч.
xAI выпустила Grok 4.3: более дешёвую ИИ-модель с упором на агентские задачи и практическую эффективность 18 ч.
OpenAI без лишнего шума изменила правила работы с персональными данными пользователей ChatGPT 19 ч.
Новая статья: Windrose — пираты в моде при любой погоде. Предварительный обзор 03-05 00:03
В Подмосковье домашний интернет начали ограничивать «белыми списками» на майские праздники 02-05 21:14
76 % всей украденной за 2026 год криптовалюты осели в КНДР 02-05 17:13
Заказы Google помогут MediaTek резко усилить позиции на рынке ИИ ASIC 2 ч.
Nokia продала Inseego бизнес по выпуску стационарных 5G-роутеров 5 ч.
Boston Dynamics покинули несколько топ-менеджеров за короткий период времени 13 ч.
Fractal Design выпустила панорамный корпус Pop 2 Vision с двухкамерной компоновкой и реверсивными вентиляторами 14 ч.
Выросли в цене даже восстановленные игровые консоли Sony PlayStation 5 17 ч.
С новой линии в Неваде сошёл первый серийный электрический грузовик Tesla Semi 20 ч.
Meta увеличила прогноз по капзатратам на год из-за роста цен и затрат на ЦОД 03-05 00:20
Qualcomm готовится поставлять чипы гиперскейлеру — инвесторы довольны, поскольку на мобильном направлении не всё гладко 02-05 23:32
Учёные создали искусственные нейроны, сигналы которых живой мозг воспринял как свои 02-05 21:16
NASA зальёт деньгами производителей лунных посадочных модулей — без них база на Луне не появится 02-05 15:12