70% всего производимого в Китае медиаконтента создается искусственным интеллектом. Такую весьма пугающую статистику привели аналитики из Поднебесной на полях ПМЭФ. В России газетная заметка или видеоролик на ТВ чаще всего пока еще плод труда живых журналистов. Однако отечественные эксперты уже задумываются над необходимостью введения специальной маркировки: «сделано ИИ». Более того, айтишники и политики всерьез обсуждают, до какой степени нейросети можно пускать в сферу принятия решений.
Будущее за симбиозом человека и искусственного интеллекта. К такому выводу пришли представители крупного медиабизнеса в России, попробовав разные модели ИИ в работе.
— ИИ должен усиливать автора и креатив творца, а не замещать его. Поэтому все финальные решения принимаются человеком. Это, мне кажется, здорово, — заявил на полях ПМЭФ глава «Газпром-медиа» Сергей Косинский, — Мы попробовали загрузить в языковую модель все наши сценарии и попросить его написать сценарий на заданную тему. Получилась полная ерунда. Но сценаристы – люди цепкие, поэтому у нас появился продукт, который помогает им писать кусочки сценариев.
Таким способом удалось примирить и даже подружить творческих людей с ИИ, уверен Косинский. Теперь пишущая братия понимает, что нейронка – это не нечто страшное, а полезный инструмент, который может облегчить работу, но не выдернуть из-под «живого» сотрудника рабочее кресло и отобрать зарплату.
Это российская реальность взаимодействия человека и ИИ. В Китае всё по-другому, и не в пользу homo sapiens. 70% всего создаваемого в Поднебесной контента – результат генерации машинного разума. Об этом рассказал технический директор Объединенной шанхайской медиагруппы Чжоу Е. По его словам, в крупнейшем китайском издании, которое включает более трехсот мультиформатных каналов и работает на аудиторию свыше миллиарда человек, сейчас трудятся около 400 авторов. Их трудовое будущее, похоже, под угрозой. Внедрение лингвистических моделей может решить массу проблем, уверен Чжоу Е. К тому же, это солидная экономия средств. Всё это – аргументы против живой рабочей силы.
— Два года назад GPT-чат поменял наше общение с аудиторией. Контент стал создаваться автоматически. Многие наши авторы, которые производят письменный контент, столкнулись со сложностями. Новейшие технологии были интегрированы в нашу ежедневную работу. Сегодня в среднем производится порядка 800 статей или новостей, которые пишутся людьми. В то время как количество новостей, написанных ИИ, достигает 4000 тысяч каждый день, и эти цифры растут. Лингвистические модели гораздо дешевле, чем люди. Этим надо пользоваться, — заявил представитель шанхайского СМИ.
Пользоваться ИИ надо с оглядкой на его темные стороны, уверен гендиректор Института искусственного интеллекта AIRI Иван Оселедец. Нейросети для многих пользователей Интернета заменили собой поиск, отметил эксперт. У пресловутого GPT-чата в месяц более 120 миллионов пользователей и в среднем 5 млрд запросов. Другие модели тоже подтягиваются. ИИ незаметно стал точкой входа в виртуальное пространство. Проблема в том, что тропинку, по которой вы пойдете, зайдя в эту дверь, определяют те, кто владеет языковыми моделями. И это, увы, в большинстве случаев не Россия.
— В 70% случаев языковые модели выбирают точку зрения США, — рассказал Иван Оселедец, — Если ее попросить быть беспристрастной, она все равно выберет точку зрения США. Но если ее попросить быть китайским патриотом, 99% она выберет точку зрения Китая. Это означает, что ИИ знает всё, но просто прикидывается.
С этой реальностью тоже надо как-то работать. Здесь важно не очистить предобучение ИИ от заранее ангажированных источников, и направлять выдачу результатов в нужном русле при помощи инструментов фильтрации. Проще говоря, чтобы «точка зрения США» по важным для российского потребителя контента вопросам или вовсе не доходила до него, или выдавалась как альтернативная позиция.
-ИИ можно сравнить с ракетой. У нее нет политических предпочтений. Важно, кто задает полетное задание. Когда мы начинаем предъявлять претензии модели, это то же самое, что предъявить претензии ракете, что она сама решила лететь куда-то не туда. Важно, кто вводит в нее инструкции и задает правила отбора, — пояснил эксперт.
Очищать массивы данных для ИИ от «неправильных» текстов — заведомо проигрышный вариант, уверен Оселедец. Придется просмотреть триллионы материалов, и все равно ничего не получится. Гораздо правильнее увеличивать количество достоверных источников информации, на основе которых будет учится нейронка. То есть у искусственного интеллекта всё по Фрейду – если есть проблема, то вопросики к родителям. Однако чтобы выстроить такую работу в России, нужен госзаказ, полагает эксперт.
Особое внимание необходимо уделять достоверности новостного контента, создаваемого ИИ. Об этом заявил сенатор Артем Шейкин. Парламентарий напомнил, что в прошлом году в Китае был принят закон об ИИ, в котором отдельный пункт посвящен требованиям к СМИ гарантировать подлинность информации в «искусственных» новостных заметках.
— Такой подход обязательно должен учитывать наличие следующих вызовов. Это глубинные риски генеративных моделей – масштабные фейковые новости, автоматизация вредоносного контента, таргетированная дезинформация и отсутствие механизмов быстрого реагирования на дипфейки. Нужны специальные нормы для генеративного ИИ, а не общие декларации, — призвал Шейкин и добавил, что фраза из нынешней российской нормативной базы ИИ про «согласованность ценностей» выглядит крайне абстрактно.
Для эффективного регулирования нейросетей необходимы технические стандарты, предложил сенатор. Также пригодятся инструменты обнаружения искусственного интеллекта и созданного им контента. Пока таких инструментов нет, можно обязать СМИ маркировать сгенерированные новости специальной пометкой. Некоторые издания уже это делают в добровольном порядке. При госорганах-регуляторах должны быть созданы центры мониторинга дипфейков. Немаркированный контент должен блокироваться, а за созданное ИИ вранье нужно штрафовать.
— Необходимо расширение редакционной ответственности на алгоритмический контент, — заявил Шейкин, однако тут же сделал важную оговорку: решения всё равно должны оставаться за человеком.