Сегодня 27 апреля 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Сотрудников Google попросили исправлять неправильные ответы чат-бота Bard

Не секрет, что Google приветствует тестирование сотрудниками компании недавно представленного чат-бота Bard, в том числе — по несколько часов в неделю. Как сообщает портал CNBC, появились материалы ещё одного письма для служебного пользования, раскрывающего специфику «внутренней кухни» работы сотрудников Google с чат-ботом компании. В частности, их попросили переписывать ложные ответы бота.

 Источник изображения: Storyset / freepik.com

Источник изображения: Storyset / freepik.com

По данным издания, речь идёт о рассылке Прабхакара Рагхавана (Prabhakar Raghavan), занимающего должность вице-президента Google по поисковому направлению (Search). В письме он попросил сотрудников использовать собственные знания для того, чтобы переписывать ответы Bard на некоторые вопросы. Как считает Рагхаван, лучше всего Bard учится на примерах, поэтому трата небольшого количества времени на вдумчивое переписывание ответа очень помогло бы улучшению ИИ-режима поиска.

Затронув тему корректировки ответов, Рагхаван уточнил, что сотрудники должны писать от первого лица в нейтральном стиле. Ответы также должны быть «вежливыми, неформальными и доступными». Ответы не должны позволить предполагать, что Bard является личностью, и также не должны содержать эмоциональных откликов. Сотрудников также попросили, чтобы те избегали предположений о расе, гендере, сексуальной ориентации и подобных тонких материях. Более того, полностью запрещены любые советы, касающиеся финансовых, юридических или медицинских вопросов.

Если сотрудник Google делает вклад в тестирование Bard, он получает специальную маркировку в корпоративном профиле. Сотрудники с лучшими ответами для чат-бота получат возможность лично встретиться с командой разработчиков Bard. Правда, пока неизвестно, когда Bard будет доступен для публичного тестирования.

Информация о вкладе людей в проект Google может неожиданно пролить свет на недавние скандальные новости о странном «поведении» бота ChatGPT, интегрированного в поисковую систему Microsoft Bing. Не исключено, что в Microsoft применялась схожая система, и чересчур эмоциональные ответы писались не искусственным интеллектом, а людьми с задатками интернет-троллей.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Вечерний 3DNews
Каждый будний вечер мы рассылаем сводку новостей без белиберды и рекламы. Две минуты на чтение — и вы в курсе главных событий.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Программный комплекс Tarantool получил сертификат ФСТЭК России по 4-му уровню доверия 18 мин.
Госдума рассмотрит запрет на «организацию обращения криптовалют» с 1 сентября 2024 года 57 мин.
Google вложит в развитие ЦОД до $50 млрд в 2024 году 2 ч.
UserGate развернула облачный центр ИБ-мониторинга и анализа инцидентов 4 ч.
Российский «Яндекс» отчитался по результатам первого квартала 2024 года 6 ч.
Постъядерные каникулы: вышел новый трейлер амбициозного мода-долгостроя Fallout: Miami для Fallout 4 8 ч.
Обновлённый законопроект разрешит физлицам в РФ заниматься майнингом, но без фанатизма 9 ч.
Анонсирован VR-хоррор Alien: Rogue Incursion, который полностью погрузит игроков в ужасы вселенной «Чужого» 17 ч.
Российская пошаговая тактика «Спарта 2035» про элитных наёмников в Африке получила первый геймплей — демоверсия не выйдет 30 апреля 18 ч.
Власти США позвали Сэма Альтмана, Дженсена Хуанга и Сатью Наделлу помочь им с защитой от ИИ 19 ч.