Роскомнадзор: ИИ нужно поставить на службу контроля за медиаконтентом
Российским властям необходимо заняться тестированием и оценкой систем на базе ИИ для мониторинга и автоматического создания медиаконтента. Такие выводы содержит исследование, которое провели Роскомнадзор, ГРЧЦ, аналитический центр MINDSMITH и "Ростелеком". Эксперты считают, что внедрение этих систем в условиях информационных войн может быть форсированным.
Исследование "Инструменты ИИ в руках злоумышленников - классификация угроз и способы противодействия" основано на анализе 3000 концепций, изобретений и прототипов, так или иначе связанных с внедрением ИИ в процесс производства медиаконтента. Его авторы составили карту технологий с данными о решениях на основе таких субтехнологий, как компьютерное зрение, распознавание и синтез речи, обработка естественного языка, системы прогнозирования и поддержки принятия решений.
"Государству необходимо решить важную инфраструктурную задачу: разработать процедуры тестирования и оценки моделей ИИ. Это позволит держать руку на пульсе развития технологий, отслеживать перспективных разработчиков и проекты. Борьба с дезинформацией - одна из важнейших задач государства. Эффективно бороться с фейками без привлечения технологий на базе ИИ уже невозможно", - отметила пресс-служба Роскомнадзора.
В комментарии ведомства говорится, что "интересам профильных организаций по мониторингу и обеспечению безопасности интернет-среды" соответствуют 12 групп технологий: обнаружение дипфейков, определение контекста происходящего на видео, автоматизация мониторинга контента, его генерация, распознавание лиц, извлечение смысла из текста, поддержка решений при информационных атаках и ряд других.
По данным исследователей, системы фактчекинга находятся на раннем этапе развития и будут массово внедрены только через три-пять лет. Интерес к ним поднялся с началом пандемии, и с тех пор направление активно развивается, тем не менее на данный момент "даже техногиганты не могут полностью автоматизировать этот процесс" и вместо это маркируют как фейки уже распространившиеся новости.
Внедрение автоматизированной проверки фактов приведет к тому, что каждая новость будет размечена на крупных платформах специальными тегами, говорится в материалах Роскомнадзора. Регулирующая роль при этом будет отведена государству, поскольку "высока вероятность того, что корпорации будут некорректно размечать новости, чтобы сформировать выгодную оптику в отношении инфоповодов".
Для создания отечественных моделей ИИ в России есть специалисты, но не хватает вычислительных мощностей, инфраструктуры и кооперации между компаниями и государством, отмечают исследователи. "Ситуация осложняется тем, что в стране на данный момент недостаточно развито производство мощного вычислительного оборудования. Несмотря на это, в России есть очень качественные решения, особенно в области распознавания лиц и работы с информационными атаками", - полагают они.
На запрос ComNews о том, каково функциональное назначение подготовленных для Роскомнадзора материалов и лягут ли они в основу каких-то конкретных решений, в ведомстве не ответили.
Перспективы и последствия
Генеральный директор VisionLabs Дмитрий Марков сообщил ComNews, что компания разрабатывает ИИ-систему для анализа достоверности видео. По его словам, детектор дипфейков "может использоваться для разметки сгенерированного контента в социальных сетях и, самое главное, для определения подлинности изображения в видеозвонках, где необходимо подтверждение личности". В промышленной эксплуатации такие системы, скорее всего, появятся в ближайшие год-два, прогнозирует он. Система VisionLabs будет готова к коммерческому использованию в III квартале 2023 г.
"Для достижения промышленной точности детекции дипфейков на постоянном потоке контента в социальных сетях необходимо большое количество видеокарт и мощностей для работы глубоких нейронных алгоритмов. Создание системы, которая смогла бы практически в реальном времени обрабатывать весь загружаемый контент, - амбициозная и тяжелая задача", - отмечает глава компании.
В пресс-службе ТАСС не смогли оперативно пояснить, использует ли информационное агентство системы на базе ИИ для мониторинга или производства новостей.
Преподаватель кафедры цифровой журналистики факультета журналистики МГУ им. М.В. Ломоносова Екатерина Слабковская считает, что на вооружении новостных ресурсов пока нет реально работающих ботов, способных генерировать новости. По ее словам, существуют качественные англоязычные прототипы для создания журналистского контента - например, разработка Института компьютерных приложений и управления им. Бхарати Видьяпита (Нью-Дели), однако с русскоязычными текстами картина иная, поскольку они сложнее поддаются алгоритмизации. Кроме того, создание таких алгоритмов требует интеграции в команды разработчиков лингвистов и опытных новостников, а также синхронизации генеративных ИИ как с идеологическими установками, так и с редакционной политикой конкретных СМИ.
По мнению эксперта, наиболее приоритетным с точки зрения российской информационной политики является внедрение ИИ в мониторинг новостей и UGС-контента (генерируемого пользователями). С учетом задач, которые "в официальной риторике определяются как защита граждан от фейков", работа таких систем может быть публично продемонстрирована уже в этом году, предполагает она.
"Не думаю, что в данном случае речь идет о создании инструментов для цензуры в классическом понимании этого явления. Существуют различные технологии моделирования информационной повестки и формирования общественного мнения, многие из них сформировались еще 100 лет назад и, как ни странно, актуальны до сих пор. Однако уязвимость искусственно смоделированной медиареальности всегда заключалась в том, что альтернативная официальной повестке информация умела просачиваться через различные каналы. ИИ, безусловно, способен сделать эту систему практически неуязвимой", - отмечает Екатерина Слабковская. По ее словам, для существования сбалансированной медиасистемы необходим принцип информационного паритета между государством, бизнесом и обществом. "В условиях, когда государство является крупнейшим медиасобственником и получит при этом возможность контроля за использованием ИИ другими игроками рынка, информационная безопасность граждан просто невозможна", - добавила эксперт.