В 2023-м мир ощутит на себе новую напасть: что-то вроде пандемии, однако выводящей из строя не иммунитет и не легкие… Это пандемия неотличимости правды от лжи, как для отдельных людей, так и для социумов любых масштабов. По словам одного из самых авторитетных в мире китайских специалистов по искусственному интеллекту (ИИ) Кай-Фу Ли, работавшего в ведущих IT-компаниях мира, реализация этого риска более вероятна, чем ядерная война или голод, которыми периодически пугают население всего земного шара.

По словам Кай-Фу Ли, который обратился к своим коллегам, разработчикам искусственного разума, мир стоит на краю пропасти, с которого мы вот-вот полетим в пучину неконтролируемой простыми людьми лжи, льющейся с экранов компьютеров и телевизоров. Почему он не обратился сразу к правительствам, которые должны контролировать по крайней мере телеконтент, спросите вы. Ответим на этот вопрос чуть позже.

Итак, представьте, что телезвезды, которым вы безмерно доверяли, вдруг начали говорить… не то чтобы сразу противоположное, но вы вдруг заметили в их речах определенный крен «влево» или «вправо». Пример: знаменитый ведущий патриотической передачи, борец за традиционные ценности, вдруг скажет, что примирился с идеологическими врагами, и призовет массы своих поклонников последовать за ним. Да, у многих тут же «поедет крыша», или они решат, что их кумир сошел с ума. Но мало кто догадается, что человек, который вещает им из компьютера или из телевизора, не их кумир, а всего лишь его бот, дипфейк — реалистичная подмена видеоматериала, созданная с помощью нейросети. Такой же подменой могут стать фото и аудиоматериалы.

Подтверждением того, что риск пострадать от роботов очень велик, стало недавнее обращение членов Союза дикторов России в Госдуму с просьбой ограничить на законодательном уровне синтез человеческого голоса с помощью технологий искусственного интеллекта. Ведь это на полном серьезе грозит им уже в ближайшем будущем безработицей.

Вернемся к одному из мастеров таких синтетических образов, Кай-Фу Ли. По его словам, технология AICG (генерация контента с помощью ИИ) наступает на человечество семимильными шагами, обучаясь на так называемых «больших данных», которые включают в себя множество языков, изображений, звуков, видео, 3D-изображений. Если дипфейки, сделанные на основе такого контента, будут внедрены в поисковые системы, онлайн-магазины, рекламную продукцию, мы окажемся предельно уязвимыми перед алгоритмической пропагандой. Многие цивилизации мира, в культурном коде которых лежит различие правды и лжи, могут быть разрушены.

— У людей и без того уже ослабляется иммунитет критического мышления, — говорит кандидат технических наук, эксперт в сфере высоких технологий Сергей Карелов. — Мы все сидим в Интернете: по бизнесу, по развлечениям, по покупкам, где программа AICG может генерировать любой контент: тексты, стихи, песни, романы, любые изображения, в любом стиле. Этот контент становится неотличимым от контента, который создают люди, какими бы талантливыми они не были.

По словам Карелова, подобными фейками нас потчуют давно: сотни, тысячи случаев с явной (шутливой) или скрытой подменой Тома Круза, Майка Тайсона, президента Обамы…

— Помните случай с принцессой Дианой, якобы сфотографированной в машине в компании Доди Аль-Файеда? — спрашивает Сергей. — Папарацци сделали свое дело, а потом выяснилось, что это был фейк.

Тогда, спрашивается, чем вызвано недавнее выступление Кай-Фу Ли? А вот чем: оказалось, что сегодняшняя проблема заключается в том, что программисты научились обрамлять видеоконтент настолько аргументированными, логически выстроенными текстами, что, если раньше у кого-то и возникали сомнения, сегодня искусственный разум может гораздо легче убеждать, что перед нами подлинник.

Ложь может быть выставлена за правду в любых, даже самых, казалось бы, безнадежных случаях.

— Возьмем, к примеру, версию о плоской Земле, — приводит пример эксперт из IT-сферы. — Простому человеку написать об этом аргументированный текст со множеством ссылок на «достоверные» источники будет очень сложно. ИИ же не побрезгует ничем и за счет скоростных возможностей обработки сотен нужных материалов, статей в считаные часы выведет любую нужную теорию. Не будет хватать заключения ученых — он сфабрикует и их.

По словам Кай-Фу Ли, вся беда нашего нынешнего положения в том, что мы не просто погружаемся в мир неразличимости правды от лжи, а в том, что не видно даже теоретического способа, как это преодолеть.

А может, выход знают в Федеральном исследовательском центре «Информатика и управление» РАН? Вот что нам ответил на это заведующий лабораторией, кандидат технических наук Владимир Арлазаров:

— Есть замечательный американский фильм 1997 года, называется «Плутовство». Нас сейчас пытаются заставить жить, подчиняясь технологиям, показанным в этом фильме. Многие пытаются формировать нашу реальность различного рода фейками. И часть этих фейков создается с использованием искусственного интеллекта. Технологии дают возможность создавать дипфейки, которые на практике применяют для мошенничества, вымогательства и создания дезинформации. Необходимо ввести законодательное регулирование, чтобы обезопасить граждан от преступлений с применением дипфейков. С другой стороны, гражданам, прежде чем верить на слово, надо хорошо подумать. И быть максимально внимательными. Не верить небылицам. Как заявил в свое время президент США Эндрю Джексон: «Вечная бдительность народа — вот цена свободы».

Бдительность, законодательное регулирование — это, конечно, хорошо, но есть один нюанс. В частности, тот же китайский гуру искусственного разума пишет, что, поскольку в AICG-технологиях могут быть заинтересованы и промышленные корпорации, и политики, решение проблемы заходит в тупик. По мнению китайского знатока ИИ, у него есть надежда только на коллег, мировое сообщество разработчиков искусственного разума — оно что-нибудь должно придумать в самое ближайшее время. Так же в свое время сообщество ученых, в которое входил Альберт Эйнштейн, обратилось к разработчикам ядерного оружия с призывом предотвратить ядерную войну. Благодаря паритету в ядерном потенциале, которого мы достигли благодаря СССР, риск ядерной войны снизился за счет возникшей взаимной угрозы уничтожения ядерных держав.

Учитывая то, что хорошую подделку отличить от подлинника становится все сложнее, Китай недавно предпринял попытку взять фейки под свой контроль. 16 января правительство Поднебесной приняло закон, обязывающий помечать фейки, сделанные при помощи искусственного интеллекта, чем-то вроде водяного знака на купюрах.

Мы попросили высказать свой взгляд на потенциальные случаи обмана пользователей интернет- и ТВ-контента при помощи искусственного интеллекта ведущего российского специалиста в области многопроцессорных вычислительных и управляющих систем, профессора, академика РАН Игоря Каляева.

— Игорь Анатольевич, как возникла технология дипфейка?

— Дипфейк является «побочной» ветвью развития методов глубокого машинного обучения. Эта технология появилась сравнительно недавно, в 2017 году. В ее основе лежит так называемая генеративно-состязательная нейронная сеть, которая состоит из двух сетей, соревнующихся между собой. Одна сеть генерирует изображения, а другая пытается определить, подменные они или нет. После этого обе сети учатся на полученных результатах, в результате чего с каждым циклом изображение становится все более реалистичным. Изначально, по задумке авторов, данная технология создавалась для различного рода развлекательных и рекламных целей. Здесь можно привести примеры рекламных роликов с «ожившими» Одри Хепберн или Леонидом Куравлевым в роли Жоржа Милославского в рекламе одного из российских банков. Но, как часто бывает, хорошее начинание постепенно превращается в страшное оружие. То же самое произошло и здесь.

— Что плохого успел натворить искусственный интеллект?

— В первую очередь данную технологию стали использовать мошенники для того, чтобы выманивать деньги у доверчивых людей. Например, в 2022 году злоумышленники запустили трансляцию на YouTube с поддельными образами известных предпринимателей — Илона Маска и Виталика Бутерина (сооснователя криптовалюты Ethereum), в которой они рекламировали выгодные инвестиции в криптовалюту. Пользуясь репутацией этих известных бизнесменов, мошенники похищали криптовалюту доверчивых пользователей и таким способом смогли заработать около двух миллионов долларов.

Еще один известный пример мошеннического использования технологии дипфейк — это создание поддельного видеоролика с Олегом Тиньковым, образ которого злоумышленники использовали для похищения персональных данных пользователей. В фейковом видео Олег Тиньков обещал подарить бонусы тому, кто откроет инвестиционный счет в банке, для чего нужно было перейти по ссылке и ввести свои персональные данные. Разумеется, никто из тех, кто попался на этот фейк, никаких бонусов не получил, зато их персональные данные достались мошенникам.

И это было только относительно безобидное начало, дальше — хуже. Дипфейки все чаще стали использоваться, например, в качестве шантажа известных людей, когда создаются поддельные порноролики с их участием, которые потом выставляются на всеобщее обозрение, если «клиент» не заплатил мошенникам.

Но все это цветочки по сравнению с дипфейками с участием мировых политических лидеров, которые могут быть использованы для разжигания различного рода конфликтов между государствами и даже мировых войн. Причем чем известнее личность, тем проще создать очень реалистичный дипфейк с ее участием, поскольку в Интернете находится множество ее изображений и видеофайлов, которые можно использовать для обучения нейронных сетей, задействованных в создании дипфейка.

— Есть ли у вас предложения по борьбе с таким злом?

— Для распознавания ложного контента в настоящее время также используются технологии ИИ. При этом, как правило, с их помощью выявляются различного рода проколы в деталях синтезированного изображения, которые незаметны для глаза человека, но на их основе можно уверенно сказать, что это дипфейк. Например: несоответствие частоты моргания или различающихся по цвету глаз человека, неправильное отражение внешних предметов на их оболочке, различного рода неестественные искажения мимики лица, несоответствие теней и т.д. Однако все эти методы вряд ли останутся успешными в далекой перспективе, поскольку создатели дипфейков тоже учатся на своих ошибках, и с каждым разом количество таких проколов уменьшается.

Например, если распознавание дипфейков первого поколения с помощью таких технологий осуществлялось практически в 100% случаев, то современные дипфейки, так называемого второго поколения, распознаются уже всего лишь с вероятностью 15–30%. И есть большое опасение, что следующее их поколение распознать с помощью подобных технических средств станет просто невозможно.

— Что же делать?

— В настоящее время начинают задумываться о законодательных мерах наказания за распространение дипфейков, в том числе вплоть до уголовной ответственности. Безусловно, это надо сделать, но, к сожалению, это вряд ли решит проблему, поскольку поймать за руку создателей и распространителей ложных фотографий и видео крайне сложно.

Кроме того, когда поддельный контент уже вброшен в медиа- или интернет-пространство и начал стремительно распространяться по нему, тратить много времени на его распознавание и отрицание зачастую уже абсолютно бесполезно, поскольку негативные последствия от этого контента могут произойти существенно быстрее.

Как мне кажется, более реалистичный путь — это не борьба с самими дипфейками, а, наоборот, защита подлинного контента. Например, подлинный, проверенный контент можно снабжать какими-то встроенными знаками или голографическими символами, аналогично тому, как защищаются от подделок банкноты. Тогда с помощью специальных средств можно будет сразу же отличить реальный контент от дипфейка.

— Ваше предложение сродни китайскому, только там, наоборот, специальными метками помечают подделки.

— Главное при таком подходе, чтобы такие знаки было очень сложно подделать злоумышленникам с использованием обычных вычислительных средств или для этого надо было бы затратить очень много времени. Однако как это сделать, а главное, как не позволить злоумышленникам обойти потом эту защиту, — это пока что большой вопрос. Но над этим надо начинать работать уже сейчас.

МЕЖДУ ТЕМ

Московский студент РГГУ Александр Жадан за сутки написал дипломную работу с помощью нейросети по теме «Анализ и совершенствование управления игровой компании» и даже смог ее защитить.

Как рассказал студент, на создание текста, который требует работы в течение нескольких месяцев, у него ушли сутки. Конечно, не все шло гладко. К примеру, план, который составил робот, пришлось переписывать; не сразу машина «согласилась» и на написание 60 страниц текста (пришлось разбивать задание на несколько частей). Кроме того, от преподавателя не скрылось нарушение логики русского языка (чат-бот мог мыслить и, соответственно, писать только по-английски). Но в целом результатом Жадан остался доволен: оригинальность переведенного им после на русский язык текста диплома после проверки его программой «Антиплагиат» составила 82% и он получил за нее оценку «удовлетворительно».

В РГГУ, преподавателям которого в итоге стало все известно, негативно отнеслись к такой подмене; они предложили разумно ограничить использование искусственного интеллекта. В ближайшее время соберется комиссия для того, чтобы решить: сразу отчислить Жадана из университета или заставить переписать дипломную работу.

В свою очередь первый зампредседателя Комитета Госдумы по науке и высшему образованию Олег Смолин в разговоре с NEWS.ru призвал обучить выявлению текстов нейросети имеющуюся систему проверки уникальности текстов.

Источник: https://www.mk.ru/science/2023/02/05/iskusstvennyy-mir-pobedil-informaciya-sfabrikovannaya-neyrosetyami-neotlichima-ot-pravdivoy.html

Поделиться в социальных сетях

Добавить комментарий

Авторизация
*
*
Регистрация
*
*
*
Генерация пароля