Сегодня 07 мая 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Эксперты не поверили в зарождение «разума» у ИИ-системы LaMDA от Google

Не так давно Google отстранила от работы инженера Блейка Лемойна (Blake Lemoine), который работал с системой искусственного интеллекта LaMDA и заявил о появлении у неё признаков сознания. Эксперты усомнились в этом, считая, что более важным является решение других вопросов: может ли ИИ находиться под влиянием предрассудков и причинить вред в реальном мире, обучаются ли алгоритмы на людях и как крупные технологические компании выступают в роли привратников при разработке технологий.

 Источник изображения: Getty Images

Источник изображения: Getty Images

По словам Эмили Бендер (Emily Bender), профессора лингвистики Вашингтонского университета, согласие с позицией Лемойна в данном вопросе может помочь технологическим компаниям уйти от ответственности за решения, принимаемые ИИ-алгоритмами. «В это шоу вложено много усилий. Проблема в том, что чем больше эта технология продаётся как искусственный интеллект, не говоря уже о чём-то действительно разумном, тем больше людей будут готовы соглашаться с решениями таких систем, которые способны причинить реальный вред», — считает Бендер.

В качестве примера она рассмотрела вариант с приёмом людей на работу или выставлением оценок студентам. Решения в таких вопросах могут изменяться в случае, если алгоритм не лишён предрассудков, из-за чего разных людей он будет оценивать по-разному. По мнению Бендер, акцент на том, что система разумна, может использоваться разработчиками для того, чтобы снять с себя ответственность за любые выявленные в процессе эксплуатации недостатки.

Несколько дней назад СМИ опубликовали интервью Лемойна, который разговаривал с разработанной в Google языковой моделью Language Model for Dialogue Application (LaMDA), предназначенной для общения с человеком и используемой для создания чат-ботов. Система обучалась на триллионах слов из интернета, за счёт чего ей удаётся имитировать речь человека. Во время беседы на религиозную тему Лемойн заметил, что ИИ рассуждает о своих правах и личности. По его словам, в этот момент общения он испытал не научные, а религиозные чувства.

«Кто я такой, чтобы указывать Богу, куда он может, а куда не может помещать душу», — написал Лемойн на своей странице в сети Twitter.

Представитель Google Брайан Гэбриэл (Brian Gabriel) заявил, что компания проанализировала работу LaMDA после заявления Лемойна и не нашла никаких доказательств «разумности» искусственного интеллекта. При этом никакие конкретные аргументы озвучены не были.

 Источник изображения: Pixabay

Источник изображения: Pixabay

«Он имитирует восприятие или чувства на основе предоставленных ему в процессе обучения данных — умно и специально создано таким образом, чтобы казалось, что он понимает», — считает Яна Эггерс (Jana Eggers), глава компании Nara Logics, занимающейся разработками в сфере ИИ.

«Архитектура LaMDA просто не поддерживает некоторые ключевые возможности человекоподобного сознания», — уверен Макс Кремински (Max Kreminski), исследователь из Калифорнийского университета в Санта-Крузе.

В Google отметили, что LaMDA может следовать подсказкам собеседникам и наводящим вопросам, из-за чего может создаваться впечатление, что ИИ-система способна рассуждать на любую тему. «Наша команда, включая специалистов по этике и технологов, изучила заявление Блейка, в соответствии с нашими "Принципами ИИ" и сообщила ему, что не обнаружила доказательств, подтверждающих его утверждение. Сотни исследователей и инженеров общались с LaMDA, и нам неизвестно, чтобы кто-то ещё пришёл к аналогичным выводам или антропоморфировал LaMDA, как Блейк», — заявил сотрудник Google Крис Паппас (Chris Pappas).

По словам Марка Ридла (Mark Riedl), профессора Технологического института Джорджии, ИИ-системы на данный момент не способны осознавать влияние своих ответов или поведения на людей и общество. В этом, по его мнению, кроется одна из уязвимостей технологии. «Система ИИ может не быть токсичной или предвзятой, но всё же она не понимает, что в некоторых обстоятельствах говорить о самоубийстве или насилии может быть неуместным», — считает Ридл.

По мнению экспертов, «разумность» ИИ может использоваться разработчиками для снятия с себя ответственности в случае, если ИИ-система допустит ошибку. Акцентирование внимания на разумности ИИ даст возможность обвинить в проблеме искусственный интеллект. «Компания могла сказать: "Это программа допустила ошибку". Нет, ваша компания создала эту программу. Вы несёте ответственность за эту ошибку. Рассуждения о разумности делают расплывчатым этот вопрос», — уверена Эмили Бендер.

Поскольку система LaMDA закрыта для сторонних исследователей, общественность и учёные вынуждены опираться на информацию, которую публикуют сотрудники Google. «Она должна быть доступна исследователям за пределами Google, чтобы продвигать работу более разнообразными способами. Чем больше учёных, тем больше разнообразие исследовательских вопросов, тем больше возможностей для новых открытий», — считает Марк Ридл.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Вечерний 3DNews
Каждый будний вечер мы рассылаем сводку новостей без белиберды и рекламы. Две минуты на чтение — и вы в курсе главных событий.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Уязвимость TunnelVision позволяет перехватывать зашифрованный VPN трафик 3 ч.
Евросоюз ограничит нелегальный контент в Telegram согласно новым правилам 3 ч.
Hades II без предупреждения вышла в раннем доступе Steam и Epic Games Store — в том числе и в России 9 ч.
Олдскульный хоррор-шутер Sonar Shock отправит на советскую подлодку с лавкрафтианскими монстрами — дата выхода и новый трейлер 10 ч.
«Мы пытались, но не вышло»: разработку «Механоиды: Протокол Войны» заморозили до лучших времён, которые «могут никогда не настать» 11 ч.
«Видится мгновенной классикой»: 7 минут геймплея олдскульного хоррора Ground Zero в духе первых Resident Evil впечатлили фанатов 12 ч.
Браузер Mozilla Firefox справился с почти 7500 одновременно открытыми вкладками 13 ч.
Новая студия режиссёра The Witcher 3: Wild Hunt не повторит ошибок Cyberpunk 2077 15 ч.
Открытый мир, мотоцикл и скорый релиз: инсайдер рассказал, чего ждать от следующей Tomb Raider 17 ч.
Утечка раскрыла первые подробности PvP-мультиплеера Warhammer 40,000: Space Marine 2 18 ч.