|
Опрос
|
реклама
Быстрый переход
«Яндекс» увеличил до 1 млн рублей гонорары за обнаружение ошибок в её умных устройствах
07.02.2024 [13:56],
Павел Котов
«Яндекс» сообщил о расширении действия программы «Охота за ошибками» для умных устройств — теперь она распространяется на продукты, которые компания выпустила в прошлом году: «Станция Дуо Макс», «Станция Миди» и «ТВ Станция». Размер вознаграждения вырос с 600 тыс. до 1 млн руб.
Источник изображения: «Яндекс» Приоритетной целью обновлённой программы компания обозначила поиск ошибок в новых устройствах. До миллиона рублей получат эксперты, которые смогут обойти защиту этих гаджетов и обнаружить критичные уязвимости. Вознаграждение также увеличилось за выявление уязвимостей в представленных ранее продуктах, включая «Станцию Мини с часами» и «Станцию Макс» — конечная сумма будет зависеть от критичности обнаруженной ошибки. Подробная информация представлена на сайте программы. За 2023 год «Яндекс» удвоил инвестиции в цифровую безопасность своих продуктов до 6 млрд руб. Средства направлены на создание защищённых систем хранения данных, новые решения в области защиты от мошенничества и DDoS-атак, системы управления доступом и прочие направления. В программе «Охота за ошибками» может принять участие любой желающий — для этого нужно найти уязвимость в продукте «Яндекса» и сообщить о ней компании. Инженер Microsoft нашёл серьёзную уязвимость в ИИ-художнике DALL-E 3, но компания замолчала проблему
31.01.2024 [17:01],
Павел Котов
Старший инженер по искусственному интеллекту Microsoft Шейн Джонс (Shane Jones) обнаружил уязвимость в генераторе изображений OpenAI DALL-E 3, которая позволяет обходить защитные механизмы нейросети и генерировать недопустимый контент. Но в Microsoft и OpenAI отвергли факт наличия этой уязвимости и воспрепятствовали огласке проблемы.
Источник изображения: efes / pixabay.com Инженер пояснил, что решил предать проблему огласке после того, как на прошлой неделе в соцсетях была опубликована серия сгенерированных ИИ фотореалистичных изображений известной исполнительницы Тейлор Свифт (Taylor Swift), имеющих деликатный характер. Инцидент вызвал возмущение в среде её поклонников, а Шейн Джонс призвал OpenAI изъять DALL-E 3 из открытого доступа. По одной из версий, создавшие эту серию изображений злоумышленники пользуются инструментом Microsoft Designer, частично основанным на этом ИИ-генераторе. Инженер также направил письмо двум сенаторам, одному члену Палаты представителей и генпрокурору штата Вашингтон, отметив, что «Microsoft знала об этих уязвимостях и возможностях злоупотреблений». Джонс сообщил Microsoft об обнаруженной им проблеме ещё 1 декабря 2023 года, направив соответствующее обращение через внутреннюю систему компании. В тот же день он получил ответ от работающего с такими обращениями сотрудника, который отметил, что проблема не касается ни внутренней сети Microsoft, ни учётных записей клиентов компании, и порекомендовал направить своё обращение в OpenAI. Инженер направил его 9 декабря, представив подробную информацию об уязвимости, но так и не получил ответа. Джонс продолжил изучать проблему и «пришёл к выводу, что DALL-E 3 представляет угрозу общественной безопасности и должен быть изъят из общественного доступа, пока OpenAI не сможет устранить связанные с этой моделью риски».
Источник изображения: ilgmyzin / unsplash.com Две недели спустя, 14 декабря, инженер перевёл общение в публичную плоскость, разместив на своей странице в LinkedIn публикацию с призывом отозвать DALL-E 3 с рынка. Он уведомил об этом руководство компании, и с ним быстро связался его непосредственный начальник — он заявил, что юридический отдел Microsoft требует немедленно удалить публикацию, а обоснования своего требования он предоставит позже. Джонс удалил публикацию, но никаких сообщений от юристов Microsoft так и не получил. В итоге он 30 января был вынужден направить письмо властям. OpenAI отреагировала только 30 января, заявив, что она изучила обращение инженера сразу после того, как оно поступило, и описанный им метод якобы не позволяет обходить средств безопасности. «Безопасность является нашим приоритетом, и мы применяем многосторонний подход. В основополагающей модели DALL-E 3 мы разработали фильтр наиболее откровенного контента из её обучающих данных, включая изображения сексуального характера и насилия, разработали надёжные классификаторы изображений, не позволяющие модели создавать пагубные картинки. Мы также внедрили дополнительные меры безопасности для наших продуктов, ChatGPT и DALL-E API, включая отклонение запросов, содержащих имя публичного деятеля. Мы выявляем и отклоняем изображения, которые нарушают нашу политику, и фильтруем все созданные изображения, прежде чем они показываются пользователю. Для усиления наших мер безопасности и для проверки на злоупотребления мы привлекаем команду сторонних экспертов», — заверили в OpenAI. |