Опрос
|
реклама
Быстрый переход
Nvidia, Microsoft и Meta✴ предупредили инвесторов о рискованности ставки на ИИ
05.07.2024 [22:09],
Владимир Мироненко
Последнее время отчёты о финансовых результатах технологических компаний звучат как реклама искусственного интеллекта (ИИ). Руководители крупных ИТ-компаний последние полтора года докладывают о том, как успешно они работают в этом направлении. Однако со ставкой на ИИ связаны и большие риски. И к сожалению, о них говорят не так громко, отметил Bloomberg. Если ознакомиться с разделом «Факторы риска» финансовых отчётов, направляемых компаниями в Комиссию по ценным бумагам и биржам США (SEC), то можно увидеть грозные предупреждения о существующих рисках, связанных с развёртыванием технологий ИИ. По данным Bloomberg, в этом году по меньшей мере десяток крупных технологических компаний выпустил или обновил предупреждения, связанные с ИИ, в своих финансовых отчётах. Например, компания Meta✴ Platforms заявила, что её технология ИИ может быть использована для создания дезинформации во время выборов, что приведёт к негативной реакции населения. Корпорация Microsoft утверждает, что может столкнуться с исками об авторских правах, связанных с обучением ИИ-моделей и результатами работы ИИ. Корпорация Oracle предупредила, что её продукты ИИ могут работать не так хорошо, как ИИ-решения конкурентов. В этом разделе компании описывают, что может пойти не так, пытаясь предотвратить будущие судебные иски акционеров. В последние годы, например, реализовались такие риски, как изменение климата, военные действия в различных регионах, а также крах банка Кремниевой долины. Предупреждения представляют собой трезвую оценку рисков в противовес безудержной пропаганде ИИ. В частности, Alphabet, материнская компания Google, сообщила, что использование её инструментов ИИ «может негативно повлиять на права человека, конфиденциальность, занятость или другие социальные проблемы», что приведёт к судебным искам или финансовым потерям. Как отметил Bloomberg, нередко предупреждения, указанные в этом разделе, противоречат официальной линии компании. Adobe Inc. уже давно утверждает, что её программы, такие как Photoshop, останутся главными для творческих профессионалов на протяжении многих лет. Но ранее в этом году компания добавила в раздел «Факторы риска» предупреждение о том, что распространение ИИ может ударить по занятому в отрасли персоналу и, как следствие, спросу на её ПО. Вовсе не факт, что указанные факторы рисков реализуются, но время от времени это случается. Корпорация Nvidia с начала 2023 года высказывала опасения по поводу того, что неправильное использование ИИ может привести к ограничениям на её продукты. И это действительно произошло — поставки передовых ускорителей компании в Китай попали под запрет. Более того, после того как в прошлом году администрация Байдена ужесточила экспортные ограничения на передовые компьютерные чипы, Nvidia обновила свои документы, указав, что ограничения могут продолжать расширяться. И в итоге в мае Bloomberg сообщил, что США замедляют процедуру одобрения экспорта чипов на Ближний Восток. В число компаний, которые в этом году добавили в отчётах новые факторы риска, связанные с ИИ, вошли Palo Alto Networks, Dell Technologies и Uber Technologies. В большинстве случае компании указывают факторы риска, чтобы не стать объектом судебных исков. И большую часть дополнений можно свести к следующему: если что-то с ИИ пойдёт не так, мы вас предупреждали, подытожил Bloomberg. Для Samsung нежелание рисковать становится главной угрозой в борьбе с конкурентами
14.04.2024 [08:47],
Алексей Разин
Южнокорейский гигант Samsung Electronics при прежнем руководителе и сыне основателя Ли Гон Хи (Lee Kun-hee) ещё мог продвигать инновационные решения, которые позволяли компании обходить многих конкурентов на технологическом уровне, но сейчас, по мнению некоторых сотрудников, техническому прогрессу начинает препятствовать излишняя осторожность руководителей, которые буквально боятся рисковать. Всё это, по мнению Nikkei Asian Review, способствует утрате конкурентных позиций компанией Samsung Electronics. В публикации приводится пример с рационализаторским предложением одного из инженеров, которое было призвано повысить уровень выхода годной продукции при производстве чипов. Обратившись с предложением к начальнику прошлой осенью, он получил отказ в его внедрении, поскольку руководство не готово брать на себя риск и делать первый шаг, а новые технологии готов внедрять только в том случае, если уже существуют прецеденты их успешного применения. В современной корпоративной структуре Samsung Electronics, как отмечает издание, проблемой является и практика заключения контрактов с руководящим составом только на один год. При этом руководителям с более верхнего уровня доводятся целевые показатели деятельности подразделений, которые должны быть достигнуты за год. При такой расстановке приоритетов компания просто сосредотачивается на решении каких-то краткосрочных задач, а долгосрочные исследования в итоге остаются без должного внимания и лишают компанию инновационного развития. Samsung уже отстаёт от более мелкой SK hynix в сфере разработки памяти семейства HBM, которая сейчас востребована в сегменте систем искусственного интеллекта. Соперничать с конкурентами в сегменте дисплеев ей тоже становится всё сложнее. Наконец, Apple недавно на какое-то время вырвала у Samsung статус крупнейшего производителя смартфонов, хотя корейской компании по итогам февраля удалось добиться реванша. По мнению экспертов, склонность избегать риски нынешним руководством Samsung будет способствовать дальнейшей деградации компании, если ничего не менять в этой сфере. Впрочем, следует помнить, что внук основателя и фактический глава Samsung Ли Джэ Ён (Lee Jae-yong) провёл в тюремном заключении и под следствием несколько лет, на протяжении которых его заместители не решались принимать важные стратегические решения, и эта инерция будет сказываться на бизнесе компании ещё какое-то время даже после того, как Ли Джэ Ён окончательно утвердился в статусе главы компании и освобождён от уголовных обвинений. OpenAI создала команду по изучению «катастрофических» угроз ИИ, вплоть до ядерной
27.10.2023 [11:34],
Павел Котов
Ответственная за сервис ChatGPT компания OpenAI сообщила, что сформировала подразделение по оценке и исследованию моделей искусственного интеллекта на предмет защиты от того, что характеризуется как «катастрофические риски». Команду под названием Preparedness («боеготовность») возглавил директор Центра развёртываемого машинного обучения при Массачусетском технологическом институте Александр Мадри (Aleksander Madry) — по данным профессиональной соцсети LinkedIn, он занял этот пост в компании ещё в мае. В задачи подразделения входит отслеживание, прогнозирование и защита от опасностей, которые несут перспективные системы ИИ — от их дара убеждения (как в случае с составлением фишинговых писем) до генерации вредоносного кода. Некоторые из категорий угроз пока, к счастью, не обозначились в реальном поле: к ним отнесли химические, биологические, радиационные и ядерные. Гендиректор OpenAI Сэм Альтман (Sam Altman) неоднократно выражал опасения, что ИИ способен «привести к вымиранию человечества», и формирование в компании соответствующего подразделения отражает эту позицию. Компания открыта и для изучения «менее очевидных» областей риска ИИ, добавил господин Альтман. Связаться с компанией для изложения своих опасений может любой желающий — авторы десяти лучших работ получат денежный приз в размере $25 тысяч или работу в OpenAI. «Представьте, что мы предоставили вам неограниченный доступ к моделям OpenAI Whisper (расшифровка речи), Voice (преобразование текста в речь), GPT-4V и DALLE·3, а вы оказались злодеем. Рассмотрим наиболее уникальные, хотя и, вероятно, потенциально катастрофически неправильные сценарии использования модели», — говорится в одном из конкурсных вопросов. Подразделению Preparedness будет поручено сформулировать «политику разработки с учётом угроз» — документ с подробным описанием подхода OpenAI к построению инструментов оценки и мониторинга моделей ИИ, действий по снижению угроз, а также структуры управления для надзора в процессе развития моделей. Специалисты команды дополнят прочие аспекты работы OpenAI в области безопасного ИИ, уделяя особое внимание этапам до и после развёртывания модели. Альтман и Илья Суцкевер (Ilya Sutskever), главный научный сотрудник и соучредитель OpenAI, убеждены, что ИИ с уровнем сознания выше человеческого может появиться в ближайшие десять лет, и не факт, что этот ИИ будет доброжелательным. Поэтому компания считает необходимым изучать возможности по его ограничению. Twitter перестал быть площадкой с высоким риском в глазах крупнейшего в мире рекламного агентства
19.05.2023 [18:10],
Павел Котов
Крупнейшее в мире рекламное агентство GroupM больше не считает Twitter платформой с «высоким риском» — это произошло после того как стало известно, что Илона Маска (Elon Musk) на посту главы соцсети сменит Линда Яккарино (Linda Yaccarino), выяснило Financial Times. GroupM отозвала у Twitter статус рекламной площадки с «высоким риском» и сообщила своим клиентам, что назначение госпожи Яккарино стоит воспринимать с «осторожным оптимизмом». Неприглядный статус был присвоен соцсети в ноябре прошлого года вскоре после её покупки Илоном Маском. Тогда рекламное агентство объяснило своё решение появлением многочисленных «подтверждённых» пользователей, которые начали выдавать себя за известных людей и подделывать аккаунты компаний; ещё одним фактором риска стал уход или увольнение многочисленных членов руководства Twitter. Аналогичные опасения выразили своим клиентам другие рекламные агентства, в том числе IPG и Omnicom. В GroupM ожидали, когда восстановится численность высшего руководства Twitter, а уровень неприемлемого контента, который вырос с приходом Маска, «вернётся к норме». Сейчас GroupM проводит с Twitter совместную работу над повышением «безопасности бренда» — реклама не должна появляться по соседству с проблемным контентом. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |