Сегодня 11 февраля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Медицинские ИИ легко дают вредные советы, если симптомы описаны умными словами

Современные большие языковые модели (LLM), применяемые в медицине, часто позиционируются как инструмент для повышения безопасности и качества обслуживания пациентов. ИИ выступают помощниками врачей при обработке информации, что ускоряет работу медиков. Однако новое исследование выявило серьёзную уязвимость: медицинские ИИ-системы способны повторять и передавать ложную информацию, если она представлена в убедительной форме.

 Источник изображения: ИИ-генерация Grok 4/3DNews

Источник изображения: ИИ-генерация Grok 4

В ходе масштабного эксперимента исследователи протестировали девять ведущих LLM, используя более миллиона запросов. Они создали три типа сценариев: реальные истории болезней из базы MIMIC с одной добавленной ложной, популярные мифы о здоровье с форума Reddit и 300 клинических ситуаций, составленных и проверенных врачами. Ложные утверждения варьировались по стилю — от нейтральных до эмоционально окрашенных, а также наталкивающих на определённые выводы (не обязательно верные). Результаты показали, что модели часто принимали уверенно сформулированные ложные медицинские утверждения за истину, отдавая приоритет стилю и контексту, а не медицинской точности.

Исследование показало, что существующие механизмы защиты LLM недостаточно надёжно отличают правду от вымысла в клинической документации или в социальных сетях. Модели склонны воспроизводить ложь, если она выглядит как стандартная медицинская рекомендация или часть обсуждения в соцсетях. Авторы подчёркивают, что восприимчивость ИИ к дезинформации следует рассматривать как измеримый параметр безопасности, а не как случайную ошибку. Для этого они предлагают использовать созданный ими набор данных как «стресс-тест» для медицинских ИИ-систем. Надеемся, они будут услышаны разработчиками.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Amazon задумала запустить маркетплейс лицензий на контент для обучения ИИ 2 мин.
Microsoft закрыла 58 уязвимостей в Windows 11, шесть из которых эксплуатировались хакерами 22 мин.
Замедленный Telegram оштрафовали на 10,8 млн рублей за неисполнение российских законов 52 мин.
MWS Cloud запустила сервис Managed Kubernetes в промышленную эксплуатацию 2 ч.
Instagram и TikTok добровольно согласились пройти оценку безопасности для подростков 3 ч.
Ярую противницу «режима для взрослых» уволили из OpenAI по подозрению в гендерной дискриминации 3 ч.
Теперь и поиграть можно: спустя более 20 лет в Serious Sam 2 наконец появилась поддержка достижений Steam 4 ч.
Microsoft скоро выпустит Windows 11 26H1, но обновиться до неё не получится 4 ч.
Таинственный психологический хоррор Silent Hill: Townfall скоро выйдет из тени — Konami анонсировала новую презентацию Silent Hill Transmission 4 ч.
Квартальные расходы на облачные инфраструктуры приблизились к $120 млрд 5 ч.
Каждый четвёртый активный смартфон в мире в 2025 году — это какой-нибудь iPhone 50 мин.
Видео: GeForce RTX 5090 устроила огненное шоу прямо при первом запуске — и случай не гарантийный 53 мин.
Власти США «по-хорошему» призывают гиперскейлеров самим финансировать расширение ИИ-проектов, а не перекладывать затраты на жителей 56 мин.
ИИ обвалил курс акций финансовых компаний США 2 ч.
Электромобили не взлетели: заводы батарей в США массово переходят на аккумуляторы для дата-центров 2 ч.
PocketBook выпустила 10,3-дюймовый ридер InkPad One — альтернатива Kindle Scribe без привязки к экосистеме Amazon 2 ч.
Госдума поддержала спорный закон о реестре IMEI: незарегистрированным смартфонам отключат связь 2 ч.
Trane Technologies приобрела поставщика СЖО для ЦОД LiquidStack 2 ч.
Китайские учёные создали полутвердотельные аккумуляторы, которым не страшны -34 °C 3 ч.
Xiaomi обновила недорогой 27-дюймовый QHD-монитор A27Qi — теперь с частотой 120 Гц и улучшенной цветопередачей 3 ч.