Сегодня 22 декабря 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Сотрудников Google попросили исправлять неправильные ответы чат-бота Bard

Не секрет, что Google приветствует тестирование сотрудниками компании недавно представленного чат-бота Bard, в том числе — по несколько часов в неделю. Как сообщает портал CNBC, появились материалы ещё одного письма для служебного пользования, раскрывающего специфику «внутренней кухни» работы сотрудников Google с чат-ботом компании. В частности, их попросили переписывать ложные ответы бота.

 Источник изображения: Storyset / freepik.com

Источник изображения: Storyset / freepik.com

По данным издания, речь идёт о рассылке Прабхакара Рагхавана (Prabhakar Raghavan), занимающего должность вице-президента Google по поисковому направлению (Search). В письме он попросил сотрудников использовать собственные знания для того, чтобы переписывать ответы Bard на некоторые вопросы. Как считает Рагхаван, лучше всего Bard учится на примерах, поэтому трата небольшого количества времени на вдумчивое переписывание ответа очень помогло бы улучшению ИИ-режима поиска.

Затронув тему корректировки ответов, Рагхаван уточнил, что сотрудники должны писать от первого лица в нейтральном стиле. Ответы также должны быть «вежливыми, неформальными и доступными». Ответы не должны позволить предполагать, что Bard является личностью, и также не должны содержать эмоциональных откликов. Сотрудников также попросили, чтобы те избегали предположений о расе, гендере, сексуальной ориентации и подобных тонких материях. Более того, полностью запрещены любые советы, касающиеся финансовых, юридических или медицинских вопросов.

Если сотрудник Google делает вклад в тестирование Bard, он получает специальную маркировку в корпоративном профиле. Сотрудники с лучшими ответами для чат-бота получат возможность лично встретиться с командой разработчиков Bard. Правда, пока неизвестно, когда Bard будет доступен для публичного тестирования.

Информация о вкладе людей в проект Google может неожиданно пролить свет на недавние скандальные новости о странном «поведении» бота ChatGPT, интегрированного в поисковую систему Microsoft Bing. Не исключено, что в Microsoft применялась схожая система, и чересчур эмоциональные ответы писались не искусственным интеллектом, а людьми с задатками интернет-троллей.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Вечерний 3DNews
Каждый будний вечер мы рассылаем сводку новостей без белиберды и рекламы. Две минуты на чтение — и вы в курсе главных событий.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Министр торговли США признала, что санкции против Китая неэффективны 38 мин.
Apple запустила разработку умного дверного звонка с Face ID 44 мин.
AirPods научатся измерять пульс, температуру и «множество физиологических показателей» 3 ч.
Облако Vultr привлекло на развитие $333 млн при оценке $3,5 млрд 7 ч.
Разработчик керамических накопителей Cerabyte получил поддержку от Европейского совета по инновациям 7 ч.
Вышел первый настольный компьютер Copilot+PC — Asus NUC 14 Pro AI на чипе Intel Core Ultra 9 9 ч.
Foxconn немного охладела к покупке Nissan, но вернётся к этой теме, если слияние с Honda не состоится 14 ч.
В следующем году выйдет умная колонка Apple HomePod с 7-дюймовым дисплеем и поддержкой ИИ 15 ч.
Продажи AirPods превысили выручку Nintendo, они могут стать третьим по прибыльности продуктом Apple 15 ч.
Прорывы в науке, сделанные ИИ в 2024 году: археологические находки, разговоры с кашалотами и сворачивание белков 23 ч.