Почему ложь все чаще формирует нашу реальность

Общество

По прогнозам экспертов, уже через два-три года мы не сможем на первый взгляд отличить ложные сообщения от реальных

Работающая на основе искусственного интеллекта технология deepfake внушает экспертам самые пессимистичные мысли о будущем информационного пространства. Если мы не выработаем привычку проверять источники сенсационных новостей, то нашими поступками в своих интересах будут легко руководить теневые кукловоды из-за рубежа, используя новые технологии при ведении информационных войн.

Что такое дипфейки, и почему их считают опасными?Что такое дипфейки, и почему их считают опасными?


Порноролик с Галь Гадот как пример deepfake

Первый пример использования deepfake (“глубокая подделка”) в Сети связан с весьма специфичной сферой. Пользователь популярного в США социального сервиса Reddit под ником DeepFake в 2017 году разместил порноролик, где заменил женское лицо лицом актрисы Галь Гадот, сыгравшей в том году главную роль в нашумевшем фильме “Чудо-женщина”. К счастью, пока технология не очень совершенна: самообучающаяся программа зачастую упускает такие спонтанные и непроизвольные физиологические действия, как движение глаз или дыхание во время речи. Поэтому видео с применением deepfake на данный момент выглядят “настоящими” лишь первые секунды.

Однако не стоит сбрасывать со счетов, что программа — самообучающаяся, а так как она уже приносит неплохой доход, то средства на ее дальнейшее совершенствование есть.

Deepfake опасен

Каждый месяц в мире генерируется 15-20 тысяч видеороликов, созданных с помощью deepfake, и, по прогнозам экспертов, уже через два-три года мы не сможем на первый взгляд отличить ложь от реальности.

К слову, доход этот уже сейчас далеко не всегда официальный. В частности, аудиодипфейком пользуются мошенники, подделывая голоса для выманивая денег у доверчивых граждан.

Уже зафиксированы преступления с использованием данной технологии. Сотрудники одной из крупных компаний по звонку своего якобы руководителя перевели несколько сотен тысяч долларов на указанный по телефону счет. И, вне всякого сомнения, такой вид преступлений будет распространяться с большой скоростью.

  • Тут только один способ не попасться на удочку — сбросить звонок и позвонить тому, кто якобы попросил у вас денег.
  • Аналогично нужно поступить и в случае любого столкновения с сенсацией — проверить первоисточник.

Это действие должно стать такой же обыденностью, как — после появления СПИДа — стало обязательным использование средства индивидуальной защиты при контакте с непроверенным партнером. А deepfake по своей потенциальной опасности для общества вполне сопоставим со СПИДом.

Эксперты бьют тревогу

Сегодня эксперты на всех уровнях бьют тревогу, предсказывая эру, когда любой информации нельзя будет доверять. Слишком быстро развиваются технологии и слишком люди привыкли доверять “открытым источникам”. Этим уже — несмотря на все несовершенство существующих технологий дипфейка — с выгодой пользуются как предприимчивые люди в деловой сфере, так и не выбирающие средств политики. Например, в Индии и на Филиппинах есть фирмы, которые специализируются на распространении искаженной информации в интересах своих заказчиков. Они даже приглашают талантливых имитаторов для максимально реалистичного наложения необходимой речи на сфабрикованное видео.

Виртуальный мир крайне агрессивно внедряется сегодня в мир реальный, в некоторых случаях даже успешно его подменяя.

Неудивительно, что он уже стал той площадкой, на которой политические элиты зачастую выстраивают отношения с обществом. В этих условиях deepfake становится исключительно эффективным информационным оружием, то есть средством манипуляции нашим поведением в чьих-то корыстных целях.

“Поддельный” ролик с обращением Трампа

Один из самых показательных примеров — ролик с обращением президента США Дональда Трампа к жителям Бельгии с призывом отказаться признавать Парижские соглашения по климатическому урегулированию. Призыв этот вызвал много негативных откликов в адрес американского президента. Вскоре, правда, выяснилось, что ничего такого Трамп не говорил, но “осадочек”, как говорится, уже остался. Трамп в полной мере оценил разрушительный эффект дипфейка и некоторое время спустя уже сам опубликовал видеоподделку с председателем конгресса США Нэнси Пелоси — ярой сторонницей президентского импичмента. А теперь представим, что в Сети появится ролик с американским президентом, произносящим речь о том, что события в Иране и Сирии нельзя назвать показательными и теперь США надо насаждать демократию в Катаре с помощью ядерного оружия.

В настоящее время на то, чтобы официально опровергнуть дипфейк необходимо около 18 минут — достаточно времени, чтобы организовать волну паники.

США первыми оценили высочайшую социальную опасность дипфейка и выступили с законодательными инициативами по регулированию появления подобного контента в Сети.

В октябре 2019 года штат Калифорния принял законопроект, запрещающий размещение в политических целях любых сфабрикованных видео с целью опорочить кандидата во время выборов. И еще один, который позволяет калифорнийцам подавать в суд на любого, кто использует дипфейк в порнографическом видео.

Что делать с дипфейками?

Китай традиционно пошел еще дальше и в январе 2020 года перевел любую публикацию заведомо ложной информации в статус уголовного преступления. Дипфейк теперь может размещаться в китайском сегменте сети исключительно с пометкой “deepfake”, чтобы никого случайно не ввести в заблуждение. Но любые санкции к распространителям информационного фейка применяются постфактум, когда вред отдельной личности или целому обществу уже нанесен.

  • Поэтому, например, компании Facebook и Microsoft вообще учредили призовой фонд 10 млн долларов для программистов, которые придумают лучшие алгоритмы обнаружения дипфейков.
  • А управление исследованиями Минобороны США за два последних года выделило 68 млн долларов на создание контртехнологий, способных остановить эпидемию фальшивого контента.

Тем не менее лучшие существующие алгоритмы распознания фейка дают лишь 97% вероятность выявления подлога.

А если какая-нибудь страна или преступная организация решит распространить провокационный поддельный контент, то ей будет достаточно 6-8 часов на всемирный охват аудитории.

Поэтому главная задача любого общества в настоящий момент — донесение до каждого своего члена мысли о важности обязательной проверки любой слишком неожиданной или сенсационной информации.

Сейчас к первоисточникам, к сожалению, обращаются всего 17% пользователей интернета. Привычки информационного потребления нужно срочно менять, причем в корне. Это на сегодняшний день — приоритетный вопрос нашей национальной безопасности.

Источник



Berita Teknologi Cyber Security https://teknonebula.info/ Tekno Nebula