Опрос
|
реклама
Быстрый переход
Юристов, подавших в суд недостоверные данные на основе фейковой информации ChatGPT, оштрафовали в США на $5000
23.06.2023 [07:31],
Руслан Авдеев
ChatGPT продолжает буквально выдумывать фейковые материалы, причём его деятельность влечёт отнюдь не безобидные последствия. Юристы подавшие судебный меморандум с фальшивыми цитатами, оштрафованы на $5 тыс. после того, как судья решил, что они действовали недобросовестно. ![]() Источник изображения: Sasun Bughdaryan/unsplash.om В четверг окружной судья Кевин Кастель (Kevin Castel) Федерального окружного суда Южного округа Нью-Йорка наложил штраф на юридическую компанию Levidow, Levidow & Oberman P.C., постановив, что двое юристов компании сознательно проигнорировали признаки того, что полученные от ИИ цитаты фейковые и сделали для суда «вводящее в заблуждение заявление». По данным суда, компания и юристы пренебрегли своими обязанностями, когда подали «несуществующие» юридические мнения с фейковыми цитатами, созданными ИИ-инструментом ChatGPT, после чего продолжили придерживаться этих материалов после того, как суд поставил под вопрос реальность цитат. Сами юристы ситуацию предпочитают не комментировать. Известно, что юристы подали судебный меморандум с обоснованием своей позиции от имени Роберто Мата (Roberto Mata), заявившего, что он был травмирован в ходе полёта из Сальвадора в Нью-Йорк. После того, как на юристов был наложен штраф, отклонён был и сам иск в связи с истечением сроков давности. Известно, что суд не только наложил штрафы, но и обязал юристов отправить мнение судьи, а также стенограмму заседания как клиенту, так и судьям, которым приписывались фейковые цитаты. При этом подчёркивается, что суду не нужны извинения, поскольку «вынужденное извинение не является искренним». Впервые информация об использовании юристами фейковых цитат появилась ещё в конце мая, но теперь суд назначил санкции именно в отношении самих виновных в подделке материалов. OpenAI успешно пролоббировала в Евросоюзе более мягкий подход к регулированию ИИ
21.06.2023 [10:14],
Владимир Мироненко
OpenAI, создатель ИИ-чат-бота ChatGPT, лоббировала в Евросоюзе использование более мягких подходов при разработке законодательства, регулирующего применение генеративного ИИ, пишет Time со ссылкой на полученные копии документов Еврокомиссии. ![]() Источник изображения: Pixabay По данным источника, OpenAI обратилась к европейским законодателям с просьбой внести несколько поправок в проект «Закона об искусственном интеллекте». В частности, она предложила не относить системы ИИ общего назначения (GPAI), такие, как OpenAI ChatGPT и DALL-E, к «высокорисковым», что налагало бы на них самые строгие обязательства по обеспечению безопасности и прозрачности. OpenAI утверждает, что только компании, явно применяющие ИИ в областях и задачах с высоким риском, должны соблюдать правила для этой категории. «Сама по себе GPT-3 не является системой высокого риска, но обладает возможностями, которые потенциально могут быть использованы в случаях использования с высоким риском», — указала OpenAI в официальном документе, направленном должностным лицам Еврокомиссии и Совета ЕС в сентябре 2022 года. В июне 2022 года состоялась встреча представителей OpenAI и Европейской комиссии с целью уточнения категорий рисков, предложенных в проекте Закона об ИИ. «Они были обеспокоены тем, что системы ИИ общего назначения будут включены в список систем с высоким риском, а также тем, что большее количество систем по умолчанию будет отнесено к категории с высоким риском», — указано в официальном протоколе встречи. По словам источника Time в Еврокомиссии, на этой встрече представители OpenAI выразили обеспокоенность тем, что предполагаемое чрезмерное регулирование может повлиять на инновации в области ИИ. Похоже, что лоббирование OpenAI было большей частью успешным — GPAI не относится к категории высокорисковых в окончательном проекте закона ЕС об ИИ, одобренном 14 июня. Однако в нём предъявляются более высокие требования к прозрачности «базовых моделей» — мощных систем ИИ, таких как GPT-3, которые можно использовать для разных задач. Это потребует от компаний проводить оценку рисков и раскрывать, использовались ли материалы, защищённые авторским правом, для обучения их моделей ИИ. Представитель OpenAI сообщил Time, что OpenAI поддерживает включение в закон об ИИ «базовых моделей» в качестве отдельной категории несмотря на то, что компания предпочитает не разглашать источники данных для обучения своих моделей ИИ, опасаясь судебных исков о нарушении авторских прав. До вступления «Закона ЕС об ИИ» в силу пройдёт ещё немало времени. Как ожидается, он будет одобрен в конце этого года, а на его вступление в силу может уйти до двух лет. Украденные данные более 100 тыс. пользователей чат-бота ChatGPT оказались на торговых площадках даркнета
21.06.2023 [04:29],
Николай Хижняк
Данные более 100 тыс. пользователей чат-бота ChatGPT утекли в Сеть и оказались на торговых площадках даркнета, говорится в отчёте международной компании в сфере кибербезопасности Group-IB. Утечки зафиксированы в период с июня 2022-го по май текущего года. ![]() Источник изображения: The Hacker News Специалисты отмечают, что наиболее значительная выгрузка данных в даркнет была замечена в мае этого года. «Количество доступных логов, содержащих скомпрометированные учётные записи ChatGPT, достигло пика в 26 802 записей в мае 2023 года. За последний год самая высокая концентрация учётных данных ChatGPT, выставленных на продажу, наблюдалась в Азиатско-Тихоокеанском регионе», — говорится в отчёте компании. Если говорить по странам, то больше всего за наблюдаемый период утекло данных пользователей ChatGPT из Индии (12 632 записи), Пакистана (9217 записей) и Бразилии (6531 запись). Также в даркнете оказались данные пользователей чат-бота из Вьетнама, Египта, США, Франции, Марокко, Индонезии и Бангладеш. ![]() Источник изображения: Group-IB Специалисты Group-IB отмечают, что логи, содержащие скомпрометированную информацию о пользователях, активно продаются на торговых площадках даркнета. Среди прочего в этих данных содержится информация о доменах и IP-адресах скомпрометированных пользователей. Анализ также показал, что большинство записей (78 348 штук) были похищены с помощью вредоносной программы Raccon для кражи информации, доступной в виде услуги Malware as a Service. Следом за ней идёт шпионское ПО для Windows и средство кражи информации Vidar. С его помощью было похищены данные о 12 984 аккаунтах ChatGPT. На третьем месте (6773 похищенные записи) оказался троян RedLine, который крадет файлы cookie, имена пользователей и пароли, кредитные карты, хранящиеся в веб-браузерах, а также учётные данные FTP и файлы с заражённого устройства. Следует понимать, что речь идёт не только о краже личной информации. В учётной записи ChatGPT можно найти как личный, так и профессиональный контент, от коммерческих секретов компании, которых там быть не должно, до личных дневников. «Например, сотрудники компаний могут вносить в поисковый запрос чат-бота секретную информацию или использовать бота для оптимизации проприетарного программного кода. Учитывая, что стандартная конфигурация ChatGPT сохраняет все запросы, утечка этих данных может предоставить злоумышленнику доступ к ценной информации», — говорится в комментарии Group-IB. |