Опрос
|
реклама
Быстрый переход
Уже 15 американских компаний пообещали Белому дому разрабатывать ИИ этичным
12.09.2023 [18:00],
Павел Котов
Восемь технологических компаний, в том числе Adobe, IBM, NVIDIA, Palantir, Salesforce и Stability, взяли на себя добровольное обязательство перед Белым домом по разработке систем искусственного интеллекта в рамках этических норм; ранее аналогичное обязательство взяли на себя ещё семь крупных разработчиков. Это поможет снизить риски, связанные с ИИ. Параллельно вашингтонские политики обсуждают принципы регулирования данных технологий. К настоящему моменту 15 наиболее влиятельных компаний США добровольно взяли на себя обязательства, связанные с разработкой систем ИИ. Они включают в себя построение технологии для идентификации изображений, созданных искусственным интеллектом, и обязательство делиться данными, касающимися безопасности систем ИИ, с правительством и учёными. Тем временем в Конгрессе ведётся работа, направленная на создание норм регулирования ИИ. Уже завтра лидер сенатского большинства Чарльз Шумер (Charles E. Schumer) проведёт посвящённую этому вопросу встречу с главой Tesla Илоном Маском (Elon Musk), главой Meta✴ Марком Цукербергом (Mark Zuckerberg), а также другими представителями технологической отрасли и правозащитниками. А уже сегодня руководитель аппарата Белого дома Джефф Зинтс (Jeff Zients) встретится с представителями Adobe и других компаний для обсуждения преимуществ и рисков ИИ. Взятые компаниями на себя обязательства распространяются на следующие системы, разрабатываемые этими компаниями — текущие проекты будут доведены в исходном виде. «Крёстный отец ИИ» ушёл из Google из-за этических проблем, связанных с ИИ
01.05.2023 [22:58],
Владимир Мироненко
Учёный в области информатики Джеффри Хинтон (Geoffrey Hinton, на фото ниже), которого называют «крёстным отцом ИИ», в апреле покинул пост вице-президента Google. Он сделал это, чтобы открыто предупредить общественность о рисках, связанных с использованием ИИ, а также в связи с тем, что отказ Google от своих прежних ограничений в отношении публичных выпусков ИИ из-за конкуренции с ChatGPT, Bing Chat и т.д. влечёт за собой множество этических проблем. В интервью ресурсу The New York Times Хинтон выразил обеспокоенность тем, что генеративный ИИ может привести к волне дезинформации. Возможно, вы «больше не сможете знать, что является правдой», говорит учёный. Он также утверждает, что ИИ не только позволит устранить «монотонную работу», но и полностью заменит некоторые рабочие места. Также у учёного вызывает тревогу возможность создания полностью автономного оружия на базе ИИ, и тенденция ИИ-моделей учиться «странному поведению» на основе обучающих данных. Хотя некоторые из поднятых им вопросов носят чисто теоретический характер, Хинтон опасается эскалации, связанной с развёртыванием ИИ, которую будет невозможно остановить без эффективных средств контроля или жёстких ограничений. Хинтон заявил, что его позиция по отношению к ИИ начала меняться в прошлом году, когда Google, OpenAI и другие компании начали создавать системы ИИ, порой превосходящие человеческий интеллект. В течение последних пяти лет ИИ получил стремительное развитие, и то, что может произойти в следующие пять лет, вызывает у учёного тревогу. Комментируя утверждения Хинтона, главный научный сотрудник Google Джефф Дин (Jeff Dean) сообщил ресурсу Engadget, что поисковый гигант по-прежнему придерживается «ответственного подхода» и следит за «возникающими рисками». Google приобрела стартап DNNresearch Джеффри Хинтона в 2013 году, и его наработки способствовали созданию генеративных технологии ИИ. В частности, Хинтон является одним из авторов метода обратного распространения ошибки для тренировки многослойной нейронной сети. Опасения Хинтона разделяет целый ряд влиятельных учёных и руководителей технологических фирм. Недавно Илон Маск (Elon Musk), Стив Возняк (Steve Wozniak), а также более 1000 других экспертов в области искусственного интеллекта и представителей IT-индустрии призвали в открытом письме ввести полугодовой мораторий на обучение ИИ-систем в связи с необходимостью решения этических проблем и вопросов обеспечения безопасности. Этичность и безопасность ИИ ушла на задний план — IT-гиганты стали сокращать соответствующие команды
29.03.2023 [20:54],
Сергей Сурабекянц
Microsoft, Meta✴, Google, Amazon и Twitter оказались в числе компаний, которые сократили свои команды «ответственного развития ИИ», которые консультировали разработчиков по вопросам общественной безопасности и этичности потребительских продуктов с искусственным интеллектом. Хотя это лишь десятки сотрудников, и они теряются на фоне многотысячных сокращений по всей IT-отрасли, сокращение таких команд может привести к распространению вредных ИИ-инструментов. Компании заявляют, что по-прежнему привержены внедрению безопасных продуктов ИИ, но эти сокращения вызывают беспокойство экспертов, поскольку злоупотребления обычно обнаруживаются как раз в тот момент, когда технология становится по настоящему массовой. Эта обеспокоенность особенно возросла после успеха чат-бота ChatGPT и его конкурентов, таких как Microsoft Bing. «Шокирует то, сколько ответственных за ИИ сотрудников увольняют в то время, когда, возможно, таких команд требуется больше, чем когда-либо», — говорит Эндрю Стрейт (Andrew Strait), бывший исследователь этики и политики в DeepMind, принадлежащем Alphabet. В январе Microsoft распустила всю свою команду по этике ИИ. Компания утверждает, что под сокращение попали менее 10 сотрудников, а в Microsoft по-прежнему работают сотни людей, ответственных за ИИ. «Мы значительно расширили наши усилия в области ответственного искусственного интеллекта и усердно работали над их институционализацией во всей компании», — заявила Наташа Крэмптон (Natasha Crampton), главный ответственный сотрудник Microsoft по искусственному интеллекту. Twitter сократил более половины своего персонала, включая небольшую команду по вопросам этики ИИ. В задачи команды входило, в том числе, исправление предвзятости в алгоритме Twitter, который, по-видимому, отдавал предпочтение белым лицам при выборе способа обрезки изображений в социальной сети. Потоковая платформа Twitch, принадлежащая Amazon, на прошлой неделе сократила свою команду по этике ИИ, назвав всех сотрудников, работающих над продуктами ИИ, ответственными за проблемы, связанные с предвзятостью. Meta✴ ещё в сентябре 2022 года распустила свою команду по этике ИИ, состоящую примерно из 20 инженеров и специалистов по этике, которым была поручена оценка гражданских прав и этики в Instagram✴ и Facebook✴. Некоторые сотрудники, отвечающие за этический надзор за искусственным интеллектом в Google, также были уволены в рамках более масштабных сокращений штата Alphabet, насчитывающего более 12 000 человек. Google не уточнила, сколько должностей было сокращено, но ответственный подход к ИИ остаётся «главным приоритетом в компании, и мы продолжаем инвестировать в эти команды». Роль внутренних команд по этике ИИ подверглась тщательному анализу, поскольку давно ведутся споры о том, должно ли вмешательство человека в алгоритмы быть прозрачным для общественности и регулирующих органов. «Команды ответственного развития искусственного интеллекта являются одними из немногих внутренних бастионов, которые должны быть у Big Tech, — говорит бывший исследователь этики ИИ в Facebook✴ Джош Саймонс (Josh Simons). — Скорость, с которой они сокращаются, оставляет алгоритмы Big Tech на милость рекламных императивов, подрывая благополучие детей, уязвимых людей и нашу демократию». Ещё одна проблема заключается в том, что большие языковые модели, лежащие в основе чат-ботов, таких как ChatGPT, «галлюцинируют» — выдают ложные утверждения за факты — и могут использоваться преступниками для мошенничества и распространения дезинформации. К сожалению, сейчас ответственный подход компаний к использованию ИИ отходит на задний план из-за конкуренции и ради быстрого выхода на рынок. Этика в сфере ИИ не в приоритете — Microsoft распустила соответствующую команду
14.03.2023 [13:30],
Владимир Мироненко
Microsoft расформировала команду специалистов по этике и работе с общественностью в области искусственного интеллекта. Ликвидация команды была произведена в рамках масштабного сокращения рабочих мест, затронувшего 10 тысяч сотрудников, сообщил ресурс Platformer. Вместе с тем Microsoft продолжает вкладывать значительные средства в своё партнёрство со стартапом OpenAI, создателем систем искусственного интеллекта ChatGPT и DALL-E 2, и обновляет свою поисковую систему Bing и веб-браузер Edge, которые будут использовать новую большую языковую модель следующего поколения, «более мощную, чем ChatGPT, и настроенную специально для поиска». Как отметил ресурс TechCrunch, этот шаг ставит под сомнение приверженность Microsoft обеспечению реализации в дизайне своих продуктов принципов ответственного ИИ. По словам нынешних и бывших сотрудников, после этого решения Microsoft остаётся без специальной команды, которая обеспечивала бы тесную связь принципов ИИ с разработкой продукта в то время, когда компания поставила цель сделать инструменты ИИ общедоступными. Недавно эта команда работала над выявлением рисков, связанных с интеграцией технологий OpenAI в набор продуктов Microsoft. В ней было не так уж и много сотрудников: после реорганизации в октябре команду сократили, и осталось всего около семи человек. 6 марта 2023 года Джон Монтгомери (John Montgomery), корпоративный вице-президент по искусственному интеллекту Microsoft, сообщил оставшимся членам команды, что в итоге её расформируют. Участники команды высказали мнение, что после того, как Microsoft решила опередить конкурентов в запуске продуктов ИИ, руководство компании стало меньше интересоваться долгосрочными последствиями от внедрения ИИ, на которых специализировалась команда, поэтому надобность в ней отпала. Впрочем, у Microsoft по-прежнему работает подразделение Office of Responsible AI, которое устанавливает правила для ответственного ИИ через управление и работу с государственной политикой. И компания утверждает, что, несмотря на недавние увольнения, её инвестиции в ответственный ИИ растут. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |