Сегодня 11 февраля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Медицинские ИИ легко дают вредные советы, если симптомы описаны умными словами

Современные большие языковые модели (LLM), применяемые в медицине, часто позиционируются как инструмент для повышения безопасности и качества обслуживания пациентов. ИИ выступают помощниками врачей при обработке информации, что ускоряет работу медиков. Однако новое исследование выявило серьёзную уязвимость: медицинские ИИ-системы способны повторять и передавать ложную информацию, если она представлена в убедительной форме.

 Источник изображения: ИИ-генерация Grok 4/3DNews

Источник изображения: ИИ-генерация Grok 4

В ходе масштабного эксперимента исследователи протестировали девять ведущих LLM, используя более миллиона запросов. Они создали три типа сценариев: реальные истории болезней из базы MIMIC с одной добавленной ложной, популярные мифы о здоровье с форума Reddit и 300 клинических ситуаций, составленных и проверенных врачами. Ложные утверждения варьировались по стилю — от нейтральных до эмоционально окрашенных, а также наталкивающих на определённые выводы (не обязательно верные). Результаты показали, что модели часто принимали уверенно сформулированные ложные медицинские утверждения за истину, отдавая приоритет стилю и контексту, а не медицинской точности.

Исследование показало, что существующие механизмы защиты LLM недостаточно надёжно отличают правду от вымысла в клинической документации или в социальных сетях. Модели склонны воспроизводить ложь, если она выглядит как стандартная медицинская рекомендация или часть обсуждения в соцсетях. Авторы подчёркивают, что восприимчивость ИИ к дезинформации следует рассматривать как измеримый параметр безопасности, а не как случайную ошибку. Для этого они предлагают использовать созданный ими набор данных как «стресс-тест» для медицинских ИИ-систем. Надеемся, они будут услышаны разработчиками.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Замедленный Telegram оштрафовали на 10,8 млн рублей за неисполнение российских законов 16 мин.
MWS Cloud запустила сервис Managed Kubernetes в промышленную эксплуатацию 39 мин.
Instagram и TikTok добровольно согласились пройти оценку безопасности для подростков 2 ч.
Ярую противницу «режима для взрослых» уволили из OpenAI по подозрению в гендерной дискриминации 2 ч.
Теперь и поиграть можно: спустя более 20 лет в Serious Sam 2 наконец появилась поддержка достижений Steam 3 ч.
Microsoft скоро выпустит Windows 11 26H1, но обновиться до неё не получится 3 ч.
Таинственный психологический хоррор Silent Hill: Townfall скоро выйдет из тени — Konami анонсировала новую презентацию Silent Hill Transmission 4 ч.
Квартальные расходы на облачные инфраструктуры приблизились к $120 млрд 4 ч.
Overwatch лишилась «двойки» в названии, получила переработанный интерфейс и установила новый рекорд в Steam на фоне перезапуска 4 ч.
Google подтвердила скорый выход первой беты Android 17 5 ч.
Каждый четвёртый активный смартфон в мире в 2025 году — это какой-нибудь iPhone 14 мин.
Видео: GeForce RTX 5090 устроила огненное шоу прямо при первом запуске — и случай не гарантийный 17 мин.
Власти США «по-хорошему» призывают гиперскейлеров самим финансировать расширение ИИ-проектов, а не перекладывать затраты на жителей 20 мин.
ИИ обвалил курс акций финансовых компаний США 31 мин.
Электромобили не взлетели: заводы батарей в США массово переходят на аккумуляторы для дата-центров 44 мин.
PocketBook выпустила 10,3-дюймовый ридер InkPad One — альтернатива Kindle Scribe без привязки к экосистеме Amazon 46 мин.
Госдума поддержала спорный закон о реестре IMEI: незарегистрированным смартфонам отключат связь 53 мин.
Trane Technologies приобрела поставщика СЖО для ЦОД LiquidStack 2 ч.
Китайские учёные создали полутвердотельные аккумуляторы, которым не страшны -34 °C 2 ч.
Xiaomi обновила недорогой 27-дюймовый QHD-монитор A27Qi — теперь с частотой 120 Гц и улучшенной цветопередачей 2 ч.