Сегодня 13 июля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Глава отдела доверия и безопасности OpenAI ушёл в отставку

Компания OpenAI понесла серьёзные кадровые потери. Дэйв Уилнер (Dave Willner), ветеран отрасли, возглавлявший отдел по вопросам доверия и безопасности ИИ последние полтора года, объявил о своём увольнении и переходе на должность консультанта. Он планирует проводить больше времени с семьёй. Его уход происходит в критическое время для ИИ, когда весь мир волнуют вопросы о регулировании ИИ и минимизации возможных вредных последствий его внедрения.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Буквально сегодня президент OpenAI Грег Брокман (Greg Brockman) должен появиться в Белом доме вместе с руководителями из Anthropic, Google, Inflection, Microsoft, Meta и Amazon, чтобы подтвердить добровольные обязательства по достижению общих целей безопасности и прозрачности при использовании ИИ в преддверии находящегося в разработке закона.

Уилнер в сообщении о своём уходе пишет, что требования к его работе в OpenAI перешли в «фазу высокой интенсивности» после запуска ChatGPT. Он и его жена взяли на себя обязательство всегда ставить семью на первое место, но «в течение нескольких месяцев после запуска ChatGPT мне становилось все труднее выполнять свою часть сделки».

Уилнер занимал свой пост в OpenAI последние полтора года, до этого он руководил командами доверия и безопасности в Facebook и Airbnb. В Facebook он был одним из первых сотрудников, который помог сформировать базовый подход компании к стандартам сообщества, ставший в дальнейшем фундаментом гражданской позиции компании.

Учитывая влияние Facebook на глобальное развитие социальных сетей, выработка компанией концепций по модерированию контента оказалась системообразуюшей для всего интернета и общества в целом. Начальный этап развития социальной сети характеризовался очень откровенной позицией в отношении свободы слова и отказом Facebook блокировать спорные группы и удалять спорные сообщения. В то время общество раскололось — одни ратовали за строгую модерацию, другие считали это цензурой и покушением на свободу слова.

Уилнер был в последнем лагере, полагая, что «язык ненависти» — это не то же самое, что «прямой вред», и поэтому его нельзя модерировать одинаково. Теперь многие считают, что это была довольно недальновидная и даже наивная позиция. Но Уилнер не отказался от своего мнения — в 2019 году, уже не работая в социальной сети, он выступал против исключений для политиков и общественных деятелей в вопросах модерации контента.

Необходимость контроля и регулирования в сфере ИИ ещё более актуальна для новой волны технологий на базе ИИ, нежели модерирование социальных сетей. К примеру, в OpenAI Уилнер занимался вопросами безопасности и потенциальных злоупотреблений при использовании генератора изображений Dall-E для таких вещей, как создание генеративной детской порнографии на основе ИИ.

OpenAI и всей бурно растущей отрасли генеративного ИИ требуется грамотно продуманная политика использования и требуется, как говорится, ещё вчера. Эксперты предрекают, что в течение года отрасль достигнет очень проблемного состояния. Уже сейчас использование ИИ приводит к массовым увольнениям, проблемам с авторскими правами, ошибкам в судебных процессах и другим крупным неприятностям. И уход из отрасли таких людей, как Уилнер, только усугубляет ситуацию.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Вопреки слухам IBM рассчитывает на дальнейшее расширение присутствия в Китае 4 мин.
QNAP запустила облачное хранилище myQNAPcloud One для резервного копирования NAS 20 мин.
xAI извинилась за «ужасное поведение» чат-бота Grok, и винит в нём «обновление программной надстройки» 6 ч.
Новая статья: Dune: Awakening — песочница Лисан аль-Гаиба. Рецензия 12 ч.
Особые цены для особо ценных клиентов: Broadcom запросила у Telefónica Germany за поддержку VMware впятеро больше прежнего 13 ч.
Франция возбудила уголовное дело в отношении соцсети X по подозрению в манипулировании алгоритмами 14 ч.
Китайский стартап Moonshot выпустил открытую ИИ-модель Kimi K2, превосходящую GPT-4 15 ч.
Microsoft представила рассуждающую ИИ-модель Phi-4-mini-flash-reasoning— в 10 раз быстрее аналогов и запустится даже на смартфоне 22 ч.
ИИ-боты оказались никудышными психотерапевтами — они давали вредные советы и отказывались общаться с алкоголиками 22 ч.
Meta не откажется от бизнес-модели «плати или соглашайся», несмотря на угрозу штрафов в ЕС 23 ч.