Сегодня 20 июня 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → chatgpt

Юристов, подавших в суд недостоверные данные на основе фейковой информации ChatGPT, оштрафовали в США на $5000

ChatGPT продолжает буквально выдумывать фейковые материалы, причём его деятельность влечёт отнюдь не безобидные последствия. Юристы подавшие судебный меморандум с фальшивыми цитатами, оштрафованы на $5 тыс. после того, как судья решил, что они действовали недобросовестно.

 Источник изображения: Sasun Bughdaryan/unsplash.om

Источник изображения: Sasun Bughdaryan/unsplash.om

В четверг окружной судья Кевин Кастель (Kevin Castel) Федерального окружного суда Южного округа Нью-Йорка наложил штраф на юридическую компанию Levidow, Levidow & Oberman P.C., постановив, что двое юристов компании сознательно проигнорировали признаки того, что полученные от ИИ цитаты фейковые и сделали для суда «вводящее в заблуждение заявление».

По данным суда, компания и юристы пренебрегли своими обязанностями, когда подали «несуществующие» юридические мнения с фейковыми цитатами, созданными ИИ-инструментом ChatGPT, после чего продолжили придерживаться этих материалов после того, как суд поставил под вопрос реальность цитат. Сами юристы ситуацию предпочитают не комментировать.

Известно, что юристы подали судебный меморандум с обоснованием своей позиции от имени Роберто Мата (Roberto Mata), заявившего, что он был травмирован в ходе полёта из Сальвадора в Нью-Йорк. После того, как на юристов был наложен штраф, отклонён был и сам иск в связи с истечением сроков давности.

Известно, что суд не только наложил штрафы, но и обязал юристов отправить мнение судьи, а также стенограмму заседания как клиенту, так и судьям, которым приписывались фейковые цитаты. При этом подчёркивается, что суду не нужны извинения, поскольку «вынужденное извинение не является искренним».

Впервые информация об использовании юристами фейковых цитат появилась ещё в конце мая, но теперь суд назначил санкции именно в отношении самих виновных в подделке материалов.

OpenAI успешно пролоббировала в Евросоюзе более мягкий подход к регулированию ИИ

OpenAI, создатель ИИ-чат-бота ChatGPT, лоббировала в Евросоюзе использование более мягких подходов при разработке законодательства, регулирующего применение генеративного ИИ, пишет Time со ссылкой на полученные копии документов Еврокомиссии.

 Источник изображения: Pixabay

Источник изображения: Pixabay

По данным источника, OpenAI обратилась к европейским законодателям с просьбой внести несколько поправок в проект «Закона об искусственном интеллекте». В частности, она предложила не относить системы ИИ общего назначения (GPAI), такие, как OpenAI ChatGPT и DALL-E, к «высокорисковым», что налагало бы на них самые строгие обязательства по обеспечению безопасности и прозрачности. OpenAI утверждает, что только компании, явно применяющие ИИ в областях и задачах с высоким риском, должны соблюдать правила для этой категории. «Сама по себе GPT-3 не является системой высокого риска, но обладает возможностями, которые потенциально могут быть использованы в случаях использования с высоким риском», — указала OpenAI в официальном документе, направленном должностным лицам Еврокомиссии и Совета ЕС в сентябре 2022 года.

В июне 2022 года состоялась встреча представителей OpenAI и Европейской комиссии с целью уточнения категорий рисков, предложенных в проекте Закона об ИИ. «Они были обеспокоены тем, что системы ИИ общего назначения будут включены в список систем с высоким риском, а также тем, что большее количество систем по умолчанию будет отнесено к категории с высоким риском», — указано в официальном протоколе встречи. По словам источника Time в Еврокомиссии, на этой встрече представители OpenAI выразили обеспокоенность тем, что предполагаемое чрезмерное регулирование может повлиять на инновации в области ИИ.

Похоже, что лоббирование OpenAI было большей частью успешным — GPAI не относится к категории высокорисковых в окончательном проекте закона ЕС об ИИ, одобренном 14 июня. Однако в нём предъявляются более высокие требования к прозрачности «базовых моделей» — мощных систем ИИ, таких как GPT-3, которые можно использовать для разных задач. Это потребует от компаний проводить оценку рисков и раскрывать, использовались ли материалы, защищённые авторским правом, для обучения их моделей ИИ.

Представитель OpenAI сообщил Time, что OpenAI поддерживает включение в закон об ИИ «базовых моделей» в качестве отдельной категории несмотря на то, что компания предпочитает не разглашать источники данных для обучения своих моделей ИИ, опасаясь судебных исков о нарушении авторских прав.

До вступления «Закона ЕС об ИИ» в силу пройдёт ещё немало времени. Как ожидается, он будет одобрен в конце этого года, а на его вступление в силу может уйти до двух лет.

Украденные данные более 100 тыс. пользователей чат-бота ChatGPT оказались на торговых площадках даркнета

Данные более 100 тыс. пользователей чат-бота ChatGPT утекли в Сеть и оказались на торговых площадках даркнета, говорится в отчёте международной компании в сфере кибербезопасности Group-IB. Утечки зафиксированы в период с июня 2022-го по май текущего года.

 Источник изображения: The Hacker News

Источник изображения: The Hacker News

Специалисты отмечают, что наиболее значительная выгрузка данных в даркнет была замечена в мае этого года.

«Количество доступных логов, содержащих скомпрометированные учётные записи ChatGPT, достигло пика в 26 802 записей в мае 2023 года. За последний год самая высокая концентрация учётных данных ChatGPT, выставленных на продажу, наблюдалась в Азиатско-Тихоокеанском регионе», — говорится в отчёте компании.

Если говорить по странам, то больше всего за наблюдаемый период утекло данных пользователей ChatGPT из Индии (12 632 записи), Пакистана (9217 записей) и Бразилии (6531 запись). Также в даркнете оказались данные пользователей чат-бота из Вьетнама, Египта, США, Франции, Марокко, Индонезии и Бангладеш.

 Источник изображения: Group-IB

Источник изображения: Group-IB

Специалисты Group-IB отмечают, что логи, содержащие скомпрометированную информацию о пользователях, активно продаются на торговых площадках даркнета. Среди прочего в этих данных содержится информация о доменах и IP-адресах скомпрометированных пользователей.

Анализ также показал, что большинство записей (78 348 штук) были похищены с помощью вредоносной программы Raccon для кражи информации, доступной в виде услуги Malware as a Service. Следом за ней идёт шпионское ПО для Windows и средство кражи информации Vidar. С его помощью было похищены данные о 12 984 аккаунтах ChatGPT. На третьем месте (6773 похищенные записи) оказался троян RedLine, который крадет файлы cookie, имена пользователей и пароли, кредитные карты, хранящиеся в веб-браузерах, а также учётные данные FTP и файлы с заражённого устройства.

Следует понимать, что речь идёт не только о краже личной информации. В учётной записи ChatGPT можно найти как личный, так и профессиональный контент, от коммерческих секретов компании, которых там быть не должно, до личных дневников.

«Например, сотрудники компаний могут вносить в поисковый запрос чат-бота секретную информацию или использовать бота для оптимизации проприетарного программного кода. Учитывая, что стандартная конфигурация ChatGPT сохраняет все запросы, утечка этих данных может предоставить злоумышленнику доступ к ценной информации», — говорится в комментарии Group-IB.


window-new
Soft
Hard
Тренды 🔥
Управлять данными, а не хранилищами: Pure Storage представила унифицированную облачную платформу Enterprise Data Cloud 13 мин.
На Apple подали в суд за публикацию мошеннического криптовалютного приложения в App Store 2 ч.
Death Stranding 2: On the Beach выйдет полностью на русском языке — «М.Видео-Эльдорадо» подтвердила цену игры в России 3 ч.
Крах VR-игр на консолях становится очевидным: Beat Saber перестанет получать новый контент 3 ч.
Психологический хоррор s.p.l.i.t от автора Buckshot Roulette отправит раскрывать секреты аморальной суперструктуры — дата выхода и геймплейный трейлер 3 ч.
Маск на пути к суперприложению: X запустит кошелёк и инвестиции уже в этом году 4 ч.
Playdead готовится подать в суд на сооснователя студии Дино Патти — он утверждает, что его хотят стереть из истории Limbo и Inside 5 ч.
Производитель гигантских ИИ-чипов Cerebras оказался втянут в скандал с криптомошенничеством 6 ч.
EA обновила тестовую версию следующей Battlefield до «альфы», а в файлах игры засветились материалы королевской битвы 7 ч.
В Elden Ring Nightreign без предупреждения добавили хардкорную версию одного из финальных боссов, и это только начало 12 ч.
Новая статья: Обзор ASUS ProArt Display OLED PA32UCDM: профессиональный клон 7 мин.
Asus представила игровой монитор ROG Swift OLED PG32UCDMR с поддержкой 80-гигабитного DisplayPort 2.1a UHBR20 3 ч.
Nothing показала, чем заменит фирменную подсветку Glyph на смартфоне Phone (3) 4 ч.
ASRock представила «турбированную» видеокарту Radeon AI Pro R9700 Creator для профессионалов 4 ч.
ИИ потребляет чудовищные объёмы энергии — экологи бьют тревогу, хотя точные цифры не знает никто 7 ч.
Экзафлопсный суперкомпьютер Fugaku Next получит Arm-процессоры Fujitsu MONAKA-X 7 ч.
Беспилотные такси в городах России появятся не раньше 2030 года 8 ч.
Здесь ЦОД с ИИ, здесь Grok'ом пахнет: экоактивисты подали в суд на xAI за использование газовых турбин для суперкомпьютера Colossus 8 ч.
Космический шедевр — создано самое детальное и самое многоцветное изображение галактики 10 ч.
Разработку российского электромобиля e-Neva заморозили 10 ч.