Сегодня 25 апреля 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → автор

TikTok закроет фонд поддержки авторов контента в размере $1 млрд

Фонд поддержки авторов TikTok объёмом $1 млрд прекратит свою работу с 16 декабря 2023 года. Изменения коснутся создателей контента в США, Великобритании, Германии и Франции, подтвердила представитель компании Мария Юнг (Maria Jung). Авторы из Италии и Испании продолжат работать в прежнем режиме.

 Источник изображения: GodLikeFarfetchd / Pixabay

Источник изображения: GodLikeFarfetchd / Pixabay

В июле 2020 года TikTok, платформа, ставшая колыбелью множества вирусных трендов, анонсировал создание фонда поддержки авторов на сумму $1 млрд сроком на 3 года. Эта инициатива была направлена на стимулирование создания качественного контента. Тем не менее, несмотря на значительный бюджет, многие авторы столкнулись с низкими выплатами, которые иногда не превышали нескольких долларов за миллионы просмотров. Это обстоятельство сделало невозможным зарабатывать на жизнь исключительно за счёт выплат фонда. Компания не раскрыла информацию о том, был ли выплачен авторам весь заявленный объём фонда за время его работы.

В феврале текущего года TikTok запустил новую программу монетизации — Creativity Program. Она предлагает авторам заработок, основанный на количестве просмотров и других показателях вовлечённости их аудитории. Важным отличием от первоначального фонда является требование создавать видео длительностью более одной минуты. Это существенное изменение для приложения, прославившегося короткими клипами.

С момента запуска новой программы монетизации TikTok приглашает авторов перейти на новую систему. По словам Юнг, доходы в рамках Creativity Program могут быть в 20 раз выше по сравнению с первоначальным фондом. Переход на новую программу предполагает не только изменение формата контента, но и пересмотр стратегии монетизации со стороны авторов.

Завершение деятельности фонда поддержки авторов TikTok соответствует первоначальному плану компании. Он предусматривал трёхлетний цикл с чётко установленным бюджетом. С истечением этого срока фонд прекращает своё существование. Однако это не означает прекращения всех возможностей монетизации контента. Авторы из США, Великобритании, Германии и Франции, которые ранее участвовали в фонде, теперь могут присоединиться к Creativity Program.

Стоит отметить, что заработок на TikTok всегда был более непредсказуемым, чем на других платформах, таких как YouTube или Twitch. В частности, YouTube предложил авторам доход от рекламы в Shorts, своей альтернативе TikTok, что может считаться ответом на проблему низких выплат.

OpenAI: детекторы ИИ и сам ChatGPT неспособны отличить текст нейросети от человеческого

OpenAI признала, что существующие инструменты для обнаружения текстов, созданных ИИ, неэффективны и часто дают ложные срабатывания. В обновлённом разделе с часто задаваемыми вопросами (FAQ) компания подчёркивает, что даже сам ChatGPT не способен точно определить, создан текст человеком или машиной. Эксперты призывают отказаться от автоматизированных инструментов обнаружения ИИ и полагаться на человеческий опыт и интуицию.

 Источник изображения: mozarttt / Pixabay

Источник изображения: mozarttt / Pixabay

На своём сайте в разделе FAQ под заголовком «Как преподаватели могут реагировать на то, что студенты выдают работы, созданные ИИ, за свой собственные?» компания рассказывает о том, работают ли детекторы ИИ: «Коротко говоря — нет. Несмотря на то, что некоторые компании (включая OpenAI) выпустили инструменты, предназначенные для обнаружения контента, созданного ИИ, ни один из них не смог достоверно отличить контент, созданный ИИ, от контента, созданного человеком».

Такие детекторы ИИ, как, например, GPTZero, часто дают ложные срабатывания из-за того, что в их основе лежат непроверенные методы детекции. В конечном счёте, нет ничего особенного в текстах, созданных ИИ, что всегда отличало бы их от текстов, написанных человеком. К тому же детекторы можно обойти, перефразировав текст. В июле OpenAI прекратила поддержку своего экспериментального инструмента AI Text Classifier с печальным показателем точности 26 %.

Компания также разрушает другой миф, что ChatGPT может определить, создан текст машиной или нет: «К тому же, у ChatGPT нет „понимания“, какой контент может быть создан ИИ. Он иногда выдумывает ответы на вопросы вроде „ты написал это [эссе]?“ или „это могло быть написано ИИ?“. Эти ответы случайны и не имеют под собой никаких оснований».

OpenAI также говорит о склонности своих ИИ-моделей сообщать ложную информацию: «Иногда ChatGPT звучит убедительно, но может дать неверную или вводящую в заблуждение информацию (часто называемую „галлюцинацией“). Он даже может выдумывать вещи вроде цитат или ссылок, поэтому не используйте его как единственный источник для исследований». Так, например, в мае нью-йоркскому адвокату, который воспользовался ChatGPT и получил в ответ вымышленные факты, грозила потеря лицензии.

Несмотря на то, что детекторы ИИ не работают, это не значит, что человек никогда не сможет обнаружить текст, созданный ИИ. Например, преподаватель, знакомый с письменным стилем ученика, может заметить, когда его стиль или уровень знаний внезапно меняются.

К тому же, некоторые неаккуратные попытки выдать текст, созданный ИИ, за свой собственный, могут иметь характерные признаки, такие как фраза «как модель языка ИИ», что указывает на то, что человек просто скопировал и вставил ответ, полученный от ChatGPT, даже не прочитав его. Недавно в научном журнале Nature была опубликована статья о том, как в одной научной статье читатели обратили внимание на фразу «Regenerate response» (сгенерировать новый ответ), которая является элементом интерфейса ChatGPT.

На текущем этапе технологического развития безопаснее всего избегать полностью автоматизированных инструментов для определения текстов, созданных с помощью ИИ. Это подтверждает и мнение Этана Моллика (Ethan Mollick), профессора из бизнес-школы Уортона (Wharton School of the University of Pennsylvania) и аналитика в области ИИ. Он подчёркивает, что на данный момент детекторы ИИ имеют высокий уровень ложных срабатываний, и ими пользоваться не следует.

Таким образом, вопрос об отличии машинного текста от человеческого остаётся открытым, а ответ на него, возможно, лежит в области интуитивного понимания и профессионального опыта каждого отдельного человека.

«Яндекс Практикум» ищет авторов на курсы по программированию и аналитике

Сервис онлайн-обучения цифровым профессиям «Яндекс Практикум» предлагает сотрудничество для разработчиков и аналитиков на парт-тайме в роли авторов курсов.

Задача автора — создавать и улучшать образовательный контент, чтобы обучение было актуальным, вовлекающим и понятным даже новичку, чтобы студенты учились и достигали своих целей: находили новую работу или получали повышение по карьерной лестнице.

Сотрудничество в среднем занимает 2—3 часа в день в зависимости от курса, поэтому легко можно совмещать с основной работой и получать дополнительный доход.

Авторы — это проводники в обучении и в мир новых профессий. Именно они:

  • Создают материалы для новых курсов.
  • Улучшают существующий контент на основе обратной связи от студентов, экспертов сопровождения и редакторов.
  • Разрабатывают дополнительные материалы и тестовые задания для проверки знаний.
  • Предлагают идеи, как улучшить усвоение материала.
  • Делятся знаниями и накопленным опытом, общаясь со студентами через текст.
  • Влияют на качество выпускаемых студентов, а значит имеют возможность влиять и на свою профессиональную отрасль.

«Если авторы хотят делиться экспертизой, то лучше всего это делать в Практикуме. У нас крутая команда контента и отличное коммьюнити. Мы научим понятно излагать свои мысли, красиво писать уроки и обучать людей», — Кристина Беляева, автор в команде «Аналитики данных и Машинного обучения».

В первую очередь ищут авторов на курсы машинное обучение (MLE) и дизайн мобильных приложений, а также:

  • iOS-разработчик / Android-разработчик
  • Мидл-фронтенд разработчик
  • Data Engineering (DE)
  • SQL для разработки
  • Системный аналитик
  • Data Science

Изучить список курсов, на которые требуются специалисты, и отправить свой отклик можно по ссылке.


window-new
Soft
Hard
Тренды 🔥
Wizardry: Proving Grounds of the Mad Overlord скоро вырвется из раннего доступа и появится на консолях — дата выхода ремейка одной из первых компьютерных RPG 3 мин.
«Похоже на аферу»: фанатов возмутил анонс коллекционного издания ремейка «Готики» за $200 2 ч.
Более половины россиян пользуются подписками на онлайн-кинотеатры 2 ч.
Из Git в RuStore: «РеСолют» интегрировала платформу GitFlic с российским магазином приложений 2 ч.
Ожившая настольная игра Baladins с кооперативом на четверых предложит спасать мир от пожирающего время дракона — дата выхода и новый трейлер 3 ч.
Минцифры: доля Telegram в российском мобильном трафике составляет 10 % 3 ч.
Росфинмониторинг и банки научились отслеживать связи между банковскими операциями и криптовалютой 4 ч.
VK Play исполнилось два года: 16,4 млн активных пользователей, программы поддержки разработчиков и кое-что ещё 4 ч.
8К-гейминг: в турецких PS Store и Microsoft резко подорожали игры Electronic Arts 5 ч.
Meta не ждёт быстрой отдачи от генеративного ИИ 5 ч.
Потребление воды китайскими ЦОД удвоится к 2030 году, дойдя до более чем 3 млрд кубометров 17 мин.
Выяснились подробности о мобильных процессорах AMD Strix Point и Strix Halo на архитектуре Zen 5 40 мин.
Новая статья: Обзор IPPON Game Power Pro 1000: ИБП с чистой синусоидой для игровых ПК 53 мин.
«Почта России» начала тестирование автономного грузовика Evocargo N1 — он ездит со скоростью 20 км/ч 2 ч.
Nvidia анонсировала выступление Дженсена Хуанга за день до начала Computex 2024 2 ч.
Lenovo и Micron представили первый в мире ноутбук с модулями памяти LPCAMM2 2 ч.
Китайская SDC выпустила 4K Nano-IPS-монитор с частотой 165 Гц и портом DisplayPort 2.0 за $415 2 ч.
Вычислительный модуль Raspberry Pi Compute Module 4S получил до 8 Гбайт ОЗУ 3 ч.
ЦОД на самообеспечении: Vantage намерена построить в Ирландии за $1 млрд кампус с собственной электростанцией 3 ч.
Корейские учёные научились быстро и просто выращивать искусственные алмазы — алмазные чипы уже рядом 3 ч.