Опрос
|
реклама
Быстрый переход
Раджа Кодури вошёл в совет директоров Tenstorrent — компания под руководством Джима Келлера разрабатывает ИИ-оборудование и процессоры на RISC-V
07.04.2023 [05:07],
Николай Хижняк
Спустя всего две недели с момента своего ухода из компании Intel Раджа Кодури (Raja Koduri) стал членом совета директоров канадской компании Tenstorrent. Последняя занимается созданием систем ИИ и машинного обучения, а также производительных процессоров с архитектурой RISC-V. У фирмы есть офисы в США и Канаде, в британском Кембридже, индийском Бангалоре и сербском Белграде. Компания была основана 2016 году Любишей Бажичем (Ljubisa Bajic), а в настоящий момент ею руководит Джим Келлер (Jim Keller). Всех трёх связывает опыт сотрудничества в прошлом. Кодури работал с Келлером и Бажичем в AMD, в Intel (с Келлером) и в Apple (с Келлером). Последняя совместная работа Кодури и Келлера была связана с разработкой высокопроизводительных GPU и CPU. Келлер занял пост главы Tenstorrent в начале этого года, однако к компании он присоединился ещё два года назад. Келлер и Кодури обладают опытом в совершенно разных сферах, однако оба имеют экспертные знания в области создания высокопроизводительного вычислительного оборудования, что безусловно пригодится такой компании, как Tenstorrent. Должность в совете директоров компании не означает, что Кодури будет иметь какое-либо влияние на разработки новых процессоров и ИИ-ускорителей. Однако он определённо будет иметь голос в вопросах, связанных с выбором общего направления и стратегического развития компании, что также немаловажно. NVIDIA доказала пользу искусственного интеллекта при проектировании сверхбольших чипов
28.03.2023 [11:19],
Геннадий Детинич
Инженеры NVIDIA представили исследовательскую работу, в которой сообщили о значительной пользе алгоритмов машинного обучения при проектировании сверхбольших интегральных схем (СБИС). Созданные компанией алгоритмы и программные инструменты, ускоряемые графическими процессорами, справляются с размещением больших групп транзисторов намного эффективнее и быстрее классических программ проектирования. В конечном итоге это ведёт к снижению себестоимости чипов. Утверждается, что в своей работе специалисты NVIDIA воспользовались наработками исследователей из Техасского университета. В то же время компания ещё в 2019 году для обучаемого проектирования СБИС представила ускоряемый GPU фреймворк DREAMPlace на базе нейронных сетей, от которого ожидала 40-кратного ускорения размещения транзисторов в СБИС. В новой работе на примере оптимизации дизайна чипа с 2,7 млн ячеек и 320 макросами было показано, что система на базе одной системы NVIDIA DGX Station A100 справилась с работой всего за 3 часа. «Эта работа демонстрирует перспективность и потенциал объединения алгоритмов с GPU-ускорением и методов машинного обучения для автоматизации проектирования СБИС, — резюмируют исследователи. — В результате мы можем генерировать высококачественные предсказуемые решения, улучшая качество размещения макросов в академических эталонах по сравнению с базовыми результатами, полученными с помощью академических и коммерческих инструментов». Нелишне напомнить, что закон Мура продолжает работать за счёт наращивания числа различных «фишек», а не в классическом предсказании — за счёт удвоения числа транзисторов каждые 24 месяца. Снижение стоимости проектирования и оптимизация электронных цепей (читай — размещение миллионов и миллиардов транзисторов) сегодня выходят на первый план. С этим ещё что-то можно сделать, тогда как техпроцессы начинают упираться в физические пределы атомарной структуры материи. «Вы больше не получаете экономию от такого масштабирования, — сказал главный научный сотрудник компании Билл Дэлли (Bill Dally). — Чтобы продолжать двигаться вперед и предоставлять больше преимуществ потребителям, мы не можем добиться этого за счет более дешевых транзисторов. Мы должны добиться этого за счет более продуманной конструкции». ChatGPT получил доступ в интернет и сторонние плагины — это расширило кругозор ИИ-бота
24.03.2023 [11:25],
Руслан Авдеев
Одной из главных проблем чат-бота ChatGPT является его неумение оперировать актуальными данными. Это является следствием того, что его ИИ обучен на информации, полученной из глобальной сети до сентября 2021 года. Благодаря партнёрству с Microsoft, компания-разработчик OpenAI обеспечила своему боту доступ к данным в реальном времени. Чат-бот использует поиск Microsoft Bing, в свою очередь, получивший собственный интегрированный ИИ, родственный ChatGPT. Известно, что в ходе тестов на запрос о новых призёрах премии «Оскар» бот не только просматривал тематические сайты, но и самостоятельно «кликал» для перехода к необходимым ему источникам информации. Хотя ChatGPT и без того немало знает о нашем мире, дополнительные сведения ему обеспечат специальные плагины, позволяющие получить доступ к отраслевым хранилищам информации. Например, о времени авиарейсов и ценах на них можно получить данные с помощью плагина Kayak, сложном математическом моделировании — при помощи расширения Wolfram Alpha и т. д. Также в системе была реализована «песочница» с выделенным дисковым пространством, позволяющая генерировать и тестировать код в GhatGPT и загружать сторонние файлы. Это согласуется и с новой функцией — возможностью визуализации. В частности, ChatGPT можно будет использовать для решения задач, связанных с визуализацией, включая преобразование файлов из одного формата в другой. Не исключено, что в будущем ChatGPT сможет решать более сложные задачи вроде создания ИИ-произведений искусства. Таким образом, со временем продукт OpenAI сможет стать действительно универсальной платформой, способной на генерирование невероятного контента. OpenAI поделится с разработчиками своими ИИ-моделями за $264 тысячи в год
22.02.2023 [13:11],
Руслан Авдеев
OpenAI анонсировала платформу Foundry, позволяющую сторонним компаниям и разработчикам использовать новейшие модели машинного обучения, включая GPT-3.5 (модель, лежащая в основе ИИ-бота ChatGPT), на выделенных мощностях, и создавать собственные решения с использованием технологий искусственного интеллекта. Foundry позволит выполнять мониторинг конкретных процессов, используя те же инструменты и информационные панели, что OpenAI применяет для создания и оптимизации ИИ-моделей. Кроме того, платформа обеспечит управление обновлениями версий ПО и позволит пользователям решать, обновляться ли до более современных версий моделей от OpenAI. Аренда мощностей будет доступна на срок 3 месяца или на год, использование каждой отдельной модели потребует определённого количества вычислительных блоков. Как сообщает TechCrunch, сервис обойдётся довольно дорого. Например, использование «лёгкой» версии GPT-3.5 будет стоить $78 тыс. за три месяца или $264 тыс. за год. Пользователи заметили, что одна из генеративных языковых моделей имеет ряд специфичных настроек, не свойственных GPT-3.5. Это позволяет предположить, что клиентам будет предложена долгожданная модель GPT-4 или какое-либо промежуточное решение. Сегодня OpenAI находится под давлением со стороны инвесторов, ожидающих отдачи от многомиллиардных вложений, в частности, со стороны Microsoft. В 2023 году разработчик намерен заработать $200 млн. Известно, что Microsoft потратила уже $1 млрд и пообещала инвестировать ещё больше. Не последнюю роль в этом бизнесе играет высокая стоимость вычислений. Тренировка ИИ-моделей стоит миллионы долларов, а дальнейшее их обслуживание обходится не дешевле. Так, по данным одного из основателей и главы OpenAI Сэма Альтмана (Sam Altman), каждая сессия общения с чат-ботом ChatGPT стоит несколько центов, а с учётом того, что число пользователей перевалило за миллион ещё в декабре, проект получается довольно дорогим. Пытаясь монетизировать разработки, OpenAI недавно запустила Pro-версию ChatGPT Plus, использование которой обходится подписчикам в $20 ежемесячно. Также компания интегрировала своего бота в поисковик Bing и планирует включить свои разработки в приложения Microsoft вроде Word, PowerPoint или Outlook. Дополнительно OpenAI участвует в других ИИ-проектах, в первую очередь — связанных с Microsoft и её дочерними структурами. ИИ подключили к поиску внеземного разума по радиосигналам — он помог найти 8 кандидатов в техносигнатуры
31.01.2023 [14:33],
Геннадий Детинич
В журнале Nature впервые вышла статья, в которой учёные сообщили о создании обучаемого машинного алгоритма для обнаружения в радиоастрономических сигналах признаков разумной инопланетной деятельности. Искусственный интеллект смог проявить себя и помог найти восемь кандидатов на такие сигналы, хотя повторное наблюдение не смогло подтвердить эти находки. Но перспективы только раскрываются. До сравнительно недавнего времени проекты по множеству программ SETI — мероприятий по поиску внеземных цивилизаций — не могли похвастаться достаточным набором данных, чтобы их можно было бы обрабатывать с позиций машинного обучения. Сбор информации для таких операций начали в 2015 году после финансирования научной программы Breakthrough Listen миллионером Юрием Мильнером при участии Стивена Хокинга. Это стало крупнейшим в истории финансированием программы SETI, средства на которую достались астрономам Калифорнийского университета в Беркли. Группа учёных проанализировала данные из 820 звёздных систем, за которыми наблюдал крупнейший на сегодня поворотный 100-метровый телескоп им. Роберта К. Берда в Грин-Бэнк. Наблюдения собрали миллионы сигналов, обработать вручную которые было бы невозможно. Впрочем, учёные давно используют алгоритмы для отсеивания всевозможных помех, но до появления машинного обучения многие интересные сигналы обнаружить было очень и очень сложно, если вообще возможно. При обработке пакетов радиоданных самой сложной и рутинной работой считается отсеивание радиосигналов от земных (и околоземных, если говорить о спутниках) источников. Радиоэфир вокруг Земли настолько насыщен и разнообразен, что анализ с помощью классических алгоритмов может упустить то единственное зерно истины, ради поиска которого всё затеяно. Внести помехи может даже микроволновая печь, не говоря о сотовой связи и множестве других источников. Новый алгоритм машинного обучения должен был отсеять подобные помехи из миллионов наблюдений, и он с этим в целом справился. После того, как ИИ скормили всю собранную информацию, алгоритм отметил, как интересные, 20 тыс. сигнатур. Учёные уже вручную перебрали отмеченные ИИ сигналы и выделили из них 8 кандидатов на «техносигнатуры» — сигналы с вероятными признаками искусственного и внеземного происхождения. К сожалению, повторные наблюдения звёздных систем, откуда были приняты эти сигналы, не дали результата — подобных сигналов больше не было. Главным для исследователей стало подтверждение способности обучаемого алгоритма отсеивать помехи земного происхождения. Новые программы помогут собирать свежие пакеты радиосигналов, благо радиоастрономы продолжают получать всё новые и новые инструменты. В частности, готовится программа исследований по поиску внеземных искусственных сигналов на самом крупном в мире китайском радиотелескопе FAST с 500-м сплошной антенной. Те или иные алгоритмы машинного обучения будут задействованы для обработки данных с этого инструмента, и чем больше будет работ в этом направлении, тем надёжнее будет результат. Американские учёные научили ИИ предсказывать, какие песни станут хитами с точностью 97 %
21.01.2023 [08:59],
Руслан Авдеев
До последнего времени был довольно трудно предсказать, какие именно песни станут хитами. Алгоритмы «подсказок», используемые многими стриминговыми платформами, далеко не всегда работают, но ситуация может кардинально измениться благодаря новому исследованию учёных из США. Американские учёные использовали технологии машинного обучения, разработав систему, в итоге способную с вероятностью 97 % предсказать, превратится ли песня в хит или так и останется на задворках музыкальных чартов. Известно, что ранее использовались различные методики — от анализа стихов песен, постов в блогах до упоминаний в социальных сетях, но в большинстве случаев точность предсказаний была весьма низкой. Теперь учёные Клермонсткого университета в Калифорнии использовали машинное обучение, система анализирует реакцию мозга и данные от дополнительных датчиков. «Применяя машинное обучение к нейрофизиологическим данным, мы могли почти идеально идентифицировать потенциальные хиты. То, что нейроактивность 33 человек может предсказать, станут ли это слушать миллионы других, просто удивительно», — заявил старший автор исследования Пол Зак (Paul Zak). По его словам, никому прежде не удавалось добиться таких результатов. Для мониторинга участников исследования использовали простые серийные сенсоры — люди прослушивали подборки из 24 песен, после чего их спрашивали о предпочтениях, а также учитывали некоторые демографические данные. В ходе исследования учёные изучали «нейропсихологические ответы» на песни. По словам Зака, собранные данные о сигналах мозга отражают мозговую активность, связанную с настроением и уровнем энергии. Он добавил, что это позволило предсказывать и «рыночные» результаты песен, включая число прослушиваний того или иного трека. Нейропрогнозирование позволяет регистрировать нейроактивность у небольшой группы людей и экстраполировать результаты на большие сообщества без необходимости обследований сотен человек. После сбора данных исследователи использовали различные статистические методы для оценки прогностической точности нейропсихологических переменных, модель машинного обучения тестировала различные алгоритмы для получения наилучших результатов. Учёные выяснили, что линейная статистическая модель даёт точность прогнозов на уровне 69 %, а применение к собранным данным методов машинного обучения повышает точность до 97 %. Кроме того, машинное обучение применялось и для оценки первых минут песен, в этом случае точность составила 82 %. По мнению учёных, это означает, что стриминговые сервисы теперь смогут с высокой долей вероятности определять, какие именно песни станут хитами — это упростит работу стриминговых площадок, а в будущем, когда ношение датчиков станет повсеместным, каждый пользователь сможет получать контент в зависимости от нейропсихологических особенностей — например, на выбор будут предлагаться не двести-триста песен, а две-три, зато точно соответствующие индивидуальным предпочтениям. Несмотря на блестящие предварительные результаты, исследователи отметили, что для анализа пока использовалось относительно немного песен, а в исследовании не участвовали определённые этнические и возрастные группы. При этом учёные отмечают, что их технология в принципе универсальна и в будущем сможет использоваться и для подборки других типов развлечений, включая фильмы и ТВ-шоу. NVIDIA запустила продажи RTX A6000 Ada Generation — видеокарта для профессионалов обойдётся в $6800
21.01.2023 [00:30],
Николай Хижняк
Профессиональный графический ускоритель NVIDIA RTX A6000 Ada Generation был представлен ещё в сентябре прошлого года. Но продажи видеокарты для рабочих станций начались только сейчас, пишет портал VideoCardz. Новинка на архитектуре Ada Lovelace мелькала в базах данных магазинов ещё с ноября прошлого года. Однако её продажи начались в этом месяце. NVIDIA сообщила её официальную стоимость — $6800. Это на 46 % дороже предшественника поколения Ampere. Кроме того, это в 4,25 раза дороже игровой флагманской модели GeForce RTX 4090. Профессиональный графический ускоритель NVIDIA RTX 6000 Ada Generation использует графический процессор AD102 с 18 176 ядрами CUDA, что на 11 % больше, чем у игровой модели GeForce RTX 4090. Кроме того, чип содержит 568 тензорных ядер и 142 RT-ядер. Видеокарта имеет на борту 48 Гбайт памяти GDDR6 с функцией коррекции ошибок (ECC) и скоростью работы 20 Гбит/с на контакт. Максимальная теоретическая пропускная способность памяти составляет 960 Гбайт/с, что на 25 % выше, чем у модели RTX A6000 предыдущего поколения, оснащённой чипами память со скоростью 16 Гбит/с на контакт. Заявленный показатель энергопотребления NVIDIA RTX A6000 Ada Generation равен 300 Вт. Карта получила новый 12+4-контактный разъём питания 12VHPWR. Также новинка имеет активную систему охлаждения и работает с интерфейсом PCIe 4.0 x16. В оснащение ускорителя входят четыре разъёма DisplayPort 1.4. Adobe решила использовать материалы пользователей для обучения искусственного интеллекта
06.01.2023 [18:26],
Павел Котов
Пользователи платформ Adobe Creative Cloud и Document Cloud оказались без дополнительного уведомления вовлечены в участие в программе «Анализ содержимого». Компания решила анализировать файлы в облачном хранилище для обучения своей системы на базе искусственного интеллекта (ИИ) и у всех частных пользователей включила по умолчанию опцию, предполагающую согласие на участие в программе. Неизвестно, когда появилась эта опция в настройках профилей Adobe Creative Cloud, но огласке инцидент был предан после того, как об этом сообщил в Twitter аккаунт сообщества бесплатного графического редактора Krita. Опция предположительно по умолчанию включена у всех пользователей платформы — она позволяет Adobe использовать для анализа «изображения, аудио, видео, текстовые файлы, документы и так далее, а также связанные данные», говорится на сайте компании. Разработчик уточняет, что пользовательский контент группируется и используется для машинного обучения — это необходимо для улучшения существующих продуктов и разработки новых. В Adobe также перечислили категории пользовательского контента, который сотрудники или партнёры компании могут просматривать в индивидуальном порядке: это преимущественно касается общедоступной информации (например, публикаций на Adobe Stock и Behance), а также содержимого, связанного с бета-версиями продуктов, если пользователь участвует в соответствующих программах. Компания сообщила, что соответствующий параметр в настройках учётной записи можно отключить, запретив ей, таким образом, доступ к материалам пользователей. При этом параметр не применяется к учётным записям организаций или учебных заведений, а его отключение не влияет на работу других функций Creative Cloud и Document Cloud. Искусственный интеллект научили предсказывать массу галактик
23.12.2022 [12:13],
Геннадий Детинич
Астрономические наблюдения заканчиваются многочисленными расчётами. Но в зависимости от множества факторов эти расчёты могут не совпадать у разных исследователей. В этом нет ошибки. В астрофизике многое, если не всё, получается с той или иной степенью точности. И чем менее точный результат, тем сложнее расчёты. Оказалось, с такими расчётами хорошо справляются ИИ-алгоритмы, выполняя работу за недели вместо месяцев и лет работы людей. Так, исследователи из Университета Карнеги-Меллона (CMU) использовали предоставленные Питтсбургским суперкомпьютерным центром (PSC) ресурсы, включая суперкомпьютер Bridges-2, выделенные по программе ACCESS, чтобы обучить искусственный интеллект предсказывать массу такого крупного скопления галактик, как Скопление Волос Вероники (333 млн световых лет от Земли). Учёные предложили алгоритму всю известную информацию о скоплении и на выходе получили результат, который совпал с уже сделанными ранее предсказаниями астрофизиков. Тем самым эксперимент подтвердил способность алгоритма на основе машинного обучения предсказывать массу галактик с доступной нам точностью, которая, естественно, ограничена возможностями наших инструментов для наблюдения. И тут уже без разницы, кто считает — человек или ИИ. Для вооружённого компьютерами учёного расчёт массы галактики может занять до одного года работы. Искусственный интеллект справился с этим за несколько недель. С учётом несметного числа галактик во Вселенной ИИ предоставляет инструмент прогнозирования, который поможет проанализировать намного больше астрофизических явлений, чем многочисленная армия учёных, а это открытия, на которые раньше не хватало времени и сил, и часто важные мелочи, на которые просто не обращали внимание. Будет интересно узнать, как учёные распорядятся новым инструментом. У «Яндекса» нашли новый международный бизнес с десятком стартапов
22.12.2022 [15:56],
Владимир Мироненко
Ресурс RTVI сообщил о появлении на портале HeadHunter и официальном сайте «Яндекса» двух вакансий для стартапов Smelter и Lawrify. Оба стартапа, как указано на их сайтах, принадлежат зарегистрированной в Ереване холдинговой компании Beyond ML, которая, по всей видимости, создана для реализации проектов «Яндекса» за рубежом. Также был обнаружен ещё один проект, связывающий «Яндекс» с Beyond ML — стартап Membrace, обработкой персональных данных которого занимаются Beyond ML LLC и Intertech Services AG (ранее называлась Yandex Services AG — структура «Яндекса» в Швейцарии). На сайте Beyond ML указано, что это «венчурная студия для стартапов в сфере машинного обучения», у которой имеются подразделения в Нью-Йорке, Белграде и Севилье. У компании есть ещё одно юрлицо Beyond ML Inc., которое зарегистрировано с таким же юридическим адресом, как у офиса «Яндекса» в Ньюберипорте (США). По данным RTVI, Beyond ML принадлежит порядка 10 стартапов. Согласно выпискам из реестра юридических лиц Армении, которые имеются у RTVI, Beyond ML была зарегистрирована в Ереване 30 марта 2022 года Дмитрием Степановым и Максимом Загребиным, которые, как сообщает ресурс VC.ru, исходя из указанных в документах данных, являются директором по новым продуктам «Яндекса» и главой «Яндекс.Поиска» соответственно. В пресс-службе «Яндекса» назвали Beyond ML одним из внутренних экспериментов компании, который запустили для продвижения b2b-сервисов и технологий, и который не имеет никакого отношения к анонсированным ранее изменениям структуры «Яндекса», и никак не связан с Воложем и его семейным трастом. Новый холдинг использует решения «Яндекса» на основе лицензий, что является стандартной практикой для развития внутренних проектов, сообщили в компании. Например, сайт Meteum очень похож на «Яндекс.Погоду», а сервис для автоматического перевода видео Neurodub — на технологию перевода видео в «Яндекс.Браузере». По словам источника VC.ru, пока неясно, станет ли Beyond ML частью российского «Яндекса» или будет функционировать в качестве новой международной структуры. ИИ помог астрономам точно выявить тысячу ранее неизвестных сверхновых
13.12.2022 [08:09],
Руслан Авдеев
Астрономы из Калифорнийского технологического института использовали алгоритм машинного обучения SNIascore для точного выявления определённых типов звёзд. Это позволило безошибочно обнаружить тысячу сверхновых с заданными характеристиками. Алгоритм SNIascore сформировал каталог из данных, собранных с помощью инструмента Zwicky Transient Facility (ZTF), действующего в связке с телескопом Samuel Oschin, расположенным в Паломарской обсерватории института. Сканирование неба в поисках кратковременных или переходящих событий (от пролёта астероидов до взрывов сверхновых) позволяет ZTF формировать каждую ночь огромные массивы данных — учёные просто не в состоянии обработать их все самостоятельно, что и привело к разработке SNIascore, способного взять на себя значительную часть работы. С начала действия ZTF в 2017 году идентифицированы тысячи сверхновых, которые могут быть условно разделены на два класса: у сверхновых звёзд первого типа (Type I) практически отсутствует водород, тогда как у объектов второго типа (Type II) его в избытке. Чаще всего сверхновые Type I образуются, когда массивные звёзды поглощают материю от расположенных поблизости «донорских» звёзд. Материя падает на их поверхность и становится триггером термоядерного взрыва. Сверхновые Type II появляются, когда у звёзд заканчивается «топливо» для ядерного синтеза и они более не могут сопротивляться гравитационному коллапсу, что тоже в результате приводит к взрыву. SNIascore классифицировал отдельный подвид звёзд, названных сверхновыми Type Ia. Такие появляются, когда умирающая звезда взрывается и формирует такой стабильный источник с известной светимостью, что его называют т.н. «стандартной свечой» — они, например, могут применяться для измерения расстояний в космосе и замеров темпов расширения Вселенной. Каждую ночь после сканирования неба с помощью ZTF в поисках кратковременных или переходящих событий или объектов SNIascore ищет звёзды, соответствующие классу Type Ia. Известно, что алгоритм классифицировал свою первую сверхновую в апреле 2021 года, а теперь речь идёт уже о тысяче таких звёзд. По мнению учёных, SNIascore чрезвычайно точен и фактически работает без ошибок. Поэтому аналогичный алгоритм планируется применять и на других наблюдательных площадках. Кроме того, учёные работают над тем, чтобы SNIascore в будущем смог выявлять и другие типы сверхновых. Впрочем, уже сейчас алгоритм машинного обучения значительно упрощает работу астрономам, заметно меняя принципы их работы. По словам местных сотрудников, традиционное представление об астрономах, как о людях, сидящих в обсерватории и наблюдающих за звёздами непосредственно в телескоп, очень романтично, но уже мало соответствует действительности. Искусственный интеллект научили писать сценарии для кино и театра по краткому описанию идеи
10.12.2022 [19:54],
Геннадий Детинич
Подразделение DeepMind AI компании Alphabet представило ИИ-инструмент Dramatron, который способен создавать полноценный черновик сценария для фильма, сериала или спектакля по одной лишь строчке описания идеи произведения. Протестировавшие инструмент творцы назвали работы Dramatron заурядными, но были поражены качеством проработки всех деталей произведения. Пакет Dramatron чем-то напоминает представленный ранее инструмент ChatGPT той же компании. Как и ChatGPT, алгоритм Dramatron создаёт убедительные и связные тексты. Но в случае «искусственного драматурга» разработчики пошли дальше и научили его создавать развёрнутые описания мест, персонажей и ситуаций. На выходе Dramatron выдаёт готовый черновик полноценного сценария, который остаётся лишь литературно доработать в мелочах и переписать места с явным плагиатом. Для работы с Dramatron на странице GitHub требуется регистрация и получение двух API-ключей: одного для постановки задачи (API OpenAI) и второго для контроля степени токсичности текста (API Perspective). В тестировании инструмента принимали участие 15 сценаристов. Все они позже заявили, что не стали бы использовать Dramatron для серьёзной работы в своей творческой деятельности, настолько шаблонными были персонажи, ситуации и диалоги. Тем не менее, подобный ИИ даже им был бы полезен для создания более полной картины мира и быстрых проверок иных сюжетных ходов и для введения новых персонажей. Более того, Dramatron может оказаться полезным для «генерации творческих идей». В частности, один из участников испытания поставил четыре написанные искусственным интеллектом пьесы. Для этого текст был значительно отредактирован автором-человеком, а актёры импровизировали на сцене, что придало произведению ИИ понятный зрителю смысл. Тем самым можно признать, что инструмент найдёт своего зрителя. Остаётся вопрос авторства. Но этим пусть занимаются юристы. Профессиональная видеокарта NVIDIA RTX 6000 на Ada Lovelace появилась в магазинах по цене от $7378
30.11.2022 [16:02],
Николай Хижняк
Профессиональная видеокарта NVIDIA RTX 6000 отметилась в базах данных нескольких иностранных ретейлеров. Специализированный графический ускоритель для рабочих станций был представлен в конце сентября этого года. Он базируется на той же архитектуре Ada Lovelace, что и игровые видеокарты GeForce RTX 40-й серии. В основе новой NVIDIA RTX 6000 используется графический процессор AD102 с 18 176 ядрами CUDA, 568 тензорными ядрами и 142 RT-ядрами. Это на 11 % больше, чем у флагманской игровой видеокарты GeForce RTX 4090. Для GPU профессиональной карты заявлена частота работы на уровне 2,5 ГГц. Видеокарта имеет 48 Гбайт памяти GDDR6 с функцией коррекции ошибок (ECC). Для памяти заявлена скорость 20 Гбит/с на контакт, поддержка шины разрядностью 384 бит и пропускная способность на уровне 960 Гбайт/с, что на 25 % выше, чем у модели NVIDIA RTX A6000 на архитектуре Ampere. Показатель энергопотребления новой NVIDIA RTX 6000 равен 300 Вт. Новинка оснащена активной системой охлаждения и работает с интерфейсом PCIe 4.0 x16. Ускоритель предлагает четыре разъёма DisplayPort 1.4. Видеокарта отметилась в базах данных американских магазинов по цене от $7378. У некоторых её стоимость достигает $8210. Официальный драйвер для NVIDIA RTX 6000 производитель уже выпустил, поэтому формальный старт продаж, вероятно, должен состояться в самое ближайшее время. NVIDIA обещала начать реализацию новинки силами своих основных партнёров в декабре. |