Сегодня 25 ноября 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → microsoft security copilot

Microsoft привлекла нейросеть GPT-4 к борьбе с хакерскими атаками в новой системе Security Copilot

Системы искусственного интеллекта уже применяются для создания графики, чат-ботов и даже управления умными домами. Компания Microsoft доверила ИИ одну из важнейших сфер современной жизни — защиту от киберугроз. Инструмент Security Copilot позволяет распознать кибератаку, даже когда явные признаки ещё отсутствуют и помогает в её устранении.

 Источник изображения:  Sigmund Avatar/unsplash.com

Источник изображения: Sigmund Avatar/unsplash.com

В ситуациях, когда безопасность компьютера по какой-то причине оказалась под угрозой, Security Copilot поможет определить, что случилось, что делать, и как предотвратить повторение аналогичных инцидентов у других. Компания представила новое решение на базе модели GPT-4 — Security Copilot помогает справиться с угрозами корпоративным клиентам.

Пока инструмент доступен именно корпоративным клиентам. Та же большая языковая модель, что отвечает за работу приложений вроде Bing Chat, стоит и за Security Copilot. Тем не менее, в данном случае речь идёт о варианте, специально обученном на материалах и терминологии, используемых IT-профессионалами. Кроме того, Microsoft уже подключила Copilot к другим своим инструментам, отвечающим за обеспечение безопасности. В компании обещают, что со временем он сможет использовать и сторонние программные решения.

Если большинство пользовательских приложений на основе GPT-4 обучались на уже несколько устаревших массивах данных, то Security Copilot получает новую информацию в режиме реального времени, изучая буквально триллионы сигналов об угрозах, которые Microsoft получает ежедневно. В этом преимущество модели — Security Copilot может распознавать скрытые сигналы ещё до того, как факт атаки стал очевиден. Благодаря этому, инструмент может использоваться для распознавания и своевременного устранения угроз.

При этом довольно давно выяснилось, что у ИИ вроде ChatGPT, Bing Chat или Google Bard могут случаться «галлюцинации», в ходе которых за основу «рассуждений» принимаются совершенно недостоверные факты. В сфере безопасности это может стать очень опасным явлением. В Microsoft уже подтвердили, что Security Copilot «не всегда понимает всё правильно». К счастью, в случае с продуктом Microsoft предусмотрен механизм обратной связи с пользователями, позволяющий предоставлять всё более релевантные ответы.

Пока Microsoft не сообщала, что может произойти в случае столкновения защитного ИИ с ИИ, работающем на злоумышленников, например — созданным для атаки на пользователей и бизнесы. В любом случае компания сообщила, что корпоративные клиенты уже могут протестировать Security Copilot на небольшом сегменте своих пользователей. Если эксперимент увенчается успехом, в будущем, вероятно, он сможет помочь и обычным пользователям.


window-new
Soft
Hard
Тренды 🔥
В России задумались ввести прокатные удостоверения для видеоигр, но это чревато серьёзными последствиями 46 мин.
Всё серьёзно: Александр Невский подтвердил работу над фильмом Serious Nevsky по мотивам Serious Sam 2 ч.
США — мировой лидер по развитости экосистемы ИИ, но Китай наступает им на пятки 6 ч.
У Apple забуксовала разработка новых функций для iOS 18 ч.
У TikTok появились шансы остаться в США — теперь в этом замешан Илон Маск 24-11 13:35
Microsoft тестирует новый браузер для геймеров, который выводится поверх игры 24-11 13:14
Разработчики Heroes of Might and Magic: Olden Era показали режим быстрых сражений, появившийся в легендарной пятой части 24-11 11:51
Квартальная выручка на рынке облачных инфраструктур подскочила на 21 %, превысив $80 млрд 24-11 11:43
Новая статья: Little Big Adventure – Twinsen's Quest — криво, но всё ещё мило. Рецензия 24-11 10:40
Microsoft сломала игры Ubisoft последним крупным обновлением Windows 11 24-11 10:12