02 Декабря, Суббота$89.7697.91
18+
Стать авторомТеги
02 Декабря, Суббота$89.76?�97.91
Спецпроект Угрозы искусственного интеллекта: заменят ли нейросети человека 09.11.23 77
Подписаться на наш канал в Telegram: https://t.me/mediastanciacom
Стать автором

Британский словарь английского языка Collins назвал словом 2023 года «искусственный интеллект». Хотя разговоры об ИИ шли задолго до сегодняшних дней, этот год действительно был наполнен обсуждением новых технологий и их внедрением в повседневную жизнь человека. Что же такое искусственный интеллект? Простыми словами – это ряд технологий, позволяющих выполнять деятельность, для которой потребовалось бы участие обычного человека. Популярные нейросети выполняют работу художников, фотографов, писателей, маркетологов и этот список можно продолжать до бесконечности.

В прошлом году новый вехой в развитии нейросетей стало появление в открытом доступе ChatGPT от компании OpenAI. Люди начали активно использовать сервис для написания статей, научных работ, рекламных материалов, программных кодов и стихов. Для некоторых ChatGPT стал хорошим собеседником, умеющим поддержать разговор.

Как оказалось, даже создатели нейросети беспокоятся о ее возможном самосовершенствовании. В OpenAI, например, организовали специальную команду, которая будет заниматься мониторингом и прогнозированием угроз, исходящих от искусственного интеллекта.

Зачем искусственному интеллекту человек?


Максимально возможная угроза при условии развития ИИ до таких масштабов, что он начнет сам себя изучать, – превосходство над человеком. Американская некоммерческая организация RAND Corporation в 2018 году опубликовала исследование, где говорилось о предполагаемой ядерной войне в 2040 году, начало которому положит искусственный интеллект, неспособный дать точную оценку ситуации. Повсеместное внедрение технологий ИИ станет причиной катастрофических ошибок, отметил один из экспертов в научной работе.

Если самая страшная угроза ИИ все же воплотиться в жизнь, то какую роль в ней будет тогда играть человек? Несомненно нейросети являются большими помощниками для людей, однако их способности остаются на том уровне, когда человеку приходится дорабатывать созданный ими материал. Поэтому искусственный интеллект должен оставаться инструментом для решения задач, а не самостоятельно решающим задачи без участия в этом процессе специалистов.

Искусственный интеллект отнимет работу?

 

В последнее время искусственный интеллект становится не столько помощником, сколько врагом для определенных людей или рабочих групп. Например, знаменитая забастовка американских сценаристов, начавшаяся в мае этого года. Помимо требований участников Гильдии о повышении зарплаты и улучшении условий труда, был пункт и о недопустимости использования сценариев, написанных нейросетью.

Впрочем, выбор кинокомпаний в пользу искусственного интеллекта понятен – нейросети обходятся дешевле, да и работу могут выполнять за целую команду. Распишут реплики, наложат спецэффекты, сделают лицо неузнаваемым – и все это за считанные часы. На обработку одной минутной сцены в фильме, к примеру, может уходить несколько недель, в то время как технологии на основе ИИ способны сделать это даже в режиме реального времени. В таком случае напрочь отпадает необходимость в специалистах киноиндустрии, если их работу готова сделать машина. Насколько качественно – вопрос времени, потому что обучение нейросетей не стоит на месте и они будут совершенствоваться с каждым годом. Возможно, когда-нибудь аргумент «человеческий труд не заменить ИИ» станет уже не актуальным.

А пока нейросети еще оставляют возможность людям оставаться на своих рабочих местах, к тому же в октябре альянс продюсеров согласился на просьбы Гильдии сценаристов и пообещал не считать сценарии, написанные с помощью ИИ, за исходный материал. Также материалы от сценаристов не будут использоваться для обучения искусственного интеллекта. В этой схватке человека и машины, пока что побеждает человек.

Звезды против дипфейков


За последнее время все больше американских звезд начали жаловаться на незаконную рекламу с использованием их образов. Речь идет про дипфейк-рекламу, когда накладывается лицо популярного человека на фигуру другого, и в итоге получается неплохой промоушен без необходимости платить актеру за участие в рекламе. Конечно, работники киноиндустрии не довольны таким положением дел, к тому же реклама с его лицом зачастую является мошеннической. Не всегда ее зритель может распознать дипфейк с первого раза, поэтому есть шанс, что за то время, пока звезда выпустит опровержение, ее имидж немного подпортится.

Только за осень 2023 года сразу несколько американских артистов стали жертвами незаконного использования их внешности. Одним из первых стал Том Хэнкс, чье лицо использовали в рекламе стоматологических клиник. Ему даже пришлось завести социальные сети, чтобы предупредить поклонников о своей непричастности к продвижению сомнительных медучреждений.

Вслед за ним к подписчикам обратилась телеведущая CBS Гейл Кинг, чей образ появился в рекламе средств для похудения. Качество продукта, его реальные свойства, конечно же, никому неизвестны. Возникает закономерный вопрос, а что если товар купили бы только из-за присутствия в его рекламы популярной журналистки, а сам он оказался далеко не средством для похудения. Как минимум, к Кинг возникли бы вопросы.

Вопросы возникли и у популярного блогера MrBeast, только уже к социальным сетям, разрешающим публикацию дипфейк-рекламы. Недавно образ ютубера использовали в ролике про мошеннический розыгрыш iPhone 15, где пользователям предлагалось заплатить за участие в лотерее. Создавалось видео на основе технологий искусственного интеллекта: создатели взяли уже готовую запись с участием блогера и с помощью нейросетей изменили его голос и артикуляцию. После просмотра рекламы, MrBeast в своем блоге задал вопрос, как лидирующие онлайн-сервисы хотят обезопасить пользователей от колоссального роста количество дипфейков на своих платформах. И на этот вопрос пока что ответа нет, несмотря на попытки крупных компаний, в том числе OpenAI, помещать на дипфейк-контент вотермарки с предупреждением. Однако застрахован от того, что разработчики создадут приложения для удаления этих вотермарок.


Источник: Медиастанция
Поделиться материалом:
Подписаться на наш канал в Telegram: https://t.me/mediastanciacom
Стать автором
ПОИСК+ТЕГИ
DIGITALИНТЕРНЕТ МАРКЕТИНГ ПОЛИТТЕХНОЛОГИИ СОЦМЕДИА ТВ РАДИО ПРЕССА КИНО ФОТОВИДЕО АУДИОЗВУК ЛИТЕРАТУРАПЕЧАТЬ ИСКУССТВОАРТ ШОУБИЗНЕС FASHION СВЯЗЬТЕЛЕКОМ МЕДИАПРАВО СВОБОДАСЛОВА МЕДИАСДЕЛКИ ИССЛЕДОВАНИЯ ОБСУЖДАЕМОЕ LIFESTYLE КРИПТОВАЛЮТЫ
СТАТЬ АВТОРОМ
Свои пресс-релизы, истории, кейсы, мнения, статьи и т.п. присылайте по адресу: info@mediastancia.com.

Предварительно ознакомьтесь с требованиями к материалам.