Alphabet предостерегла сотрудников от использования чат-ботов, включая собственный Bard
Читать в полной версииКомпания Alphabet (родительская структура Google) предупредила сотрудников о необходимости осторожного использования чат-ботов, использующих технологии машинного обучения и искусственного интеллекта на базе нейронных сетей. Не стал исключением и Bard, разработанный в недрах самой компании.
Сотрудникам посоветовали не вводить конфиденциальные сведения в диалоги с чат-ботами. Как сообщает Reuters, сначала об этом сообщили источники СМИ, а потом информацию подтвердила и сама компания, сославшись на долгосрочную стратегию защиты информации. ИИ-боты могут поддерживать разговоры и отвечать на огромное число вопросов. При этом разработчики, отвечающие за корректную работу чатов, могут просматривать подобные диалоги. Кроме того, многие системы обучаются на самих диалогах и позже способны воспроизводить полученные данные уже в других беседах, что неизбежно создаёт риски утечек информации.
Alphabet также предостерегла программистов от прямого использования генерируемого ботами кода. На вопрос журналистов в компании ответили, что Bard может советовать нежелательные программные решения, но тем не менее, помогает в разработке ПО.
Опасения техногиганта наглядно демонстрируют, насколько Google желает избежать вреда от ИИ-системы, которую запустила в погоне за OpenAI и Microsoft. Кроме того, политика Google свидетельствует о том, что ограничения на использование ИИ-систем становятся стандартом для корпораций. Ограничения уже ввели Samsung, Amazon, Deutsche Bank, а также другие компании, включая, по слухам, Apple.
Что касается Microsoft, то в этой компании отказались сообщать журналистам, есть ли у них запрет на использовании ИИ-ботов сотрудниками. Ранее один из топ-менеджеров сообщал изданию Reuters, что он запретил такую практику лично.