Как Deepfakes стимулируют новый тип киберпреступности – CloudSavvy IT

Цифровая карта лица молодой женщиныМихай Сурду / Shutterstock.com

Изготовление дипфейки становится легче, и они более убедительны, чем когда-либо. Киберпреступники используют видео и аудио дипфейки, чтобы вымогать деньги у жертв, добавляя достоверную «фальшивую достоверность» своим мошенничествам.

Редактирование убеждений людей

С тех пор, как первый человек сказал, что «камера никогда не лжет», многие начали доказывать обратное. Креативные фотографы конца 19 века использовали простые приемы для создания фальшивых изображений.

Программы для Windows, мобильные приложения, игры - ВСЁ БЕСПЛАТНО, в нашем закрытом телеграмм канале - Подписывайтесь:)

Кляп «человек в бутылке» пользовался своей популярностью. Сфотографируйте себя в подходящей позе. Проявите и распечатайте фотографию подходящего размера. Вырежьте изображение, поместите его в стеклянную бутылку и сделайте еще один снимок себя, держащего бутылку. Эй, presto, у вас есть образ, где вы держите бутылку с вашей миниатюрной версией.

Конечно, сегодня мы можем делать такие вещи с помощью Photoshop или GIMP. И мы знаем, что при наличии достаточных навыков и креативности эксперты могут создавать изображения, которые выглядят полностью подлинными, но при этом содержат невозможные элементы. Как ни парадоксально, это осознание может заставить нас усомниться в подлинности фотографий. Поразительный образ, на котором по чистой случайности запечатлен случай, случающийся раз в жизни, всегда приветствуется вопросом: «Это реально?»

Фотография миниатюрного человечка в бутылке явно подделана. Но измените фотографию так, чтобы она показывала что-то, что могло быть правдой, а также выглядело реальным, и некоторые люди этому поверили.

Речь больше не о визуальных приколах. Это образное оружие. Это социальная инженерия.

Фильмы и фильмы

Как только кино превратилось в социальное зрелище, кинематографисты-первопроходцы использовали специальные эффекты и приемы для решения двух проблем. Один снимал то, что действительно могло произойти, но было непрактично снимать, а другой снимал то, что было просто невозможно. Решение этой проблемы породило огромную индустрию спецэффектов, которую мы имеем сегодня.

Добавление звука и диалогов привело к упадку немого кино и появлению звуковых фильмов. Некоторые безмолвные звезды не сделал перехода. Их голос был неправильным, или они не могли выразить реплики убедительно и вовремя. Пока наложение не стало обычным явлением, не было другого решения, кроме как бросить кого-нибудь еще.

Сегодня мы тоже манипулируем голосами актеров. Действительно ли Джордж Клуни пел в О брат, где ты? Нет, это было Дэн Тыминскиголос, компьютерная синхронизация губ с движущимся изображением Джорджа Клуни.

Системы, которые могут выполнять этот тип обработки видео и звука, большие и дорогие, и для управления ими требуются специалисты. Но убедительных конечных результатов можно добиться, используя легкодоступное и относительно простое программное обеспечение, которое будет работать на разумном компьютерном оборудовании.

Видео и аудио могут быть не голливудского качества, но они, безусловно, достаточно хороши, чтобы позволить киберпреступникам добавлять поддельные изображения, видео и аудио в свой арсенал оружия.

Дипфейки

Срок дипфейк был придуман для описания цифровых материалов, которые манипулируют таким образом, чтобы кто-то в видео полностью носил лицо другого человека. «Глубокая» часть названия происходит от «глубокого обучения», одного из области машинного обучения искусственного интеллекта. Машинное обучение использует специальные алгоритмы и большой объем данных для обучения искусственных нейронных сетей достижению поставленной цели. Чем больше данных у вас будет для обучения системы, тем лучше будут результаты.

Предоставьте ему достаточно фотографий кого-то, и система глубокого обучения сможет так хорошо понять физиономию лица этого человека, что сможет определить, как оно будет выглядеть при отображении любого выражения под любым углом. Затем он может создавать изображения лица этого человека, которые соответствуют всем выражениям и позам головы человека на видео.

Когда эти изображения вставляются в видео, новое лицо идеально соответствует действию видео. Поскольку искусственно созданные выражения лица, синхронизация губ и движения головы такие же, как у оригинального человека при съемке реального видео, результат может быть очень убедительной подделкой.

Это особенно верно, когда две формы лица похожи. Всем известные дипфейки карты Лицо Линды Картер на лицо Гал Гадот тело, объединяющее две версии Чудо-женщины. Другими громкими примерами были Барак Обама и Том Круз. Вы можете найти их – и многие другие примеры – на YouTube.

Те же методы машинного обучения может применяться к аудио. Имея достаточное количество образцов голоса, вы можете обучить искусственную нейронную сеть воспроизводить высококачественный звук, воспроизводящий выбранный голос. И вы можете заставить его говорить что угодно. Хочу услышать, как Notorious BIG читает рэп Элдтрихские ужасы Л.П. Лавкрафта? Опять же, YouTube – самое подходящее место. На самом деле вы услышите то, что звучит очень похоже Пресловутый БОЛЬШОЙ рэп Лавкрафта.

Помимо сумасшедших мэшапов и летних блокбастеров, эти методы находят функциональное применение повсюду. Описание – это звуковой и видеоредактор, который создает текстовую расшифровку вашей записи. Отредактируйте текстовый документ, и в запись будут внесены изменения. Если вам не нравится, как вы что-то сказали, просто отредактируйте текст. Descript синтезирует любой недостающий звук из вашего собственного голоса. Он может синтезировать голос всего за одну минуту исходной записи голоса.

Корейский телеканал MBN создал дипфейк Ким Джу-Ха, их ведущий новостей. Если история, которой обычно занимается Ким Джу-Ха, обрывается, когда ее нет в студии, дипфейк ее передает.

Киберпреступления уже начались

Киберпреступники всегда быстро подхватывают любую подножку, которую они могут использовать для улучшения или модернизации своих атак. Аудио-фейки становятся настолько хорошими, что для окончательной идентификации фейков требуется анализатор спектра, а для определения дипфейк-видео были разработаны системы искусственного интеллекта. Если манипулирование изображениями позволяет превратить их в оружие, представьте, что вы можете сделать со звуковыми и видео-фейками, которые достаточно хороши, чтобы обмануть большинство людей.

Преступления с использованием фальшивых изображений и аудио уже произошли. Эксперты прогнозируют, что следующая волна киберпреступлений deepfake будет связана с видео. «Новая нормальность» работы на дому и видеозвонков вполне могла открыть новую эру глубокой киберпреступности.

Фишинговые атаки

Старая фишинговая атака по электронной почте включает отправку электронной почты жертве, в которой утверждается, что у вас есть видео, на котором она находится в компрометирующем или неловком положении. Если оплата не будет получена в биткойнах, кадры будут отправлены их друзьям и коллегам. Боясь, что может быть такое видео, некоторые люди платят выкуп.

Вариант этой атаки deepfake включает в себя прикрепление к электронному письму некоторых изображений. Якобы это увеличенные кадры из видео. Лицо жертвы, занимающее большую часть кадра, было вставлено в изображения в цифровом виде. Для непосвященных они делают угрозу шантажа более убедительной.

По мере того, как системы deepfake становятся более эффективными, их можно обучать на все меньших наборах данных. Учетные записи социальных сетей часто могут содержать достаточно изображений для использования в качестве обучающей базы данных.

Вишинговые атаки

Фишинговые атаки по электронной почте используют различные методы, чтобы вызвать ощущение срочности, чтобы попытаться заставить людей действовать поспешно, или они играют на желании сотрудника выглядеть полезным и эффективным. Фишинговые атаки, проводимые по телефону, называются вишинговыми атаками. Они используют те же методы социальной инженерии.

Юристу из США позвонил его сын, который явно расстроился. Он сказал, что сбил беременную женщину в автокатастрофе и сейчас находится под стражей. Он сказал отцу, что ему позвонит государственный защитник и попросит внести залог в размере 15 000 долларов.

Звонок был не от его сына, это были мошенники, использующие систему преобразования текста в речь, которую они обучили, используя звуковые клипы его сына, чтобы создать аудио дипфейк. Адвокат ни секунды не сомневался в этом. Что касается его, то он разговаривал со своим собственным сыном. Ожидая звонка государственного защитника, он нашел время, чтобы позвонить своей невестке и на работу сына, чтобы сообщить им о происшествии. До сына дошли слухи, и он позвонил и сообщил, что это жульничество.

Генеральному директору в Великобритании повезло меньше. Он получил письмо с адресным фишингом якобы от генерального директора немецкой материнской компании фирмы. Это требовало выплаты 243 000 фунтов стерлингов (примерно 335 000 долларов США) венгерскому поставщику в течение часа. За этим сразу же последовал телефонный звонок от главного исполнительного директора, который подтвердил, что платеж был срочным и должен быть произведен немедленно.

По словам жертвы, он не только узнал голос своего босса и легкий немецкий акцент, но также узнал каденцию и осторожное произношение. Так что он с радостью произвел оплату.

Контрмеры

Потенциальная угроза дипфейков признана правительством США. В Закон о запрещении вредоносных глубинных фейков от 2018 года и Определение результатов действия закона о генерирующих состязательных сетях или IOGAN Act были созданы как прямой ответ на угрозы, исходящие от дипфейков.

Компаниям необходимо добавить обсуждение дипфейков в свои тренинги по кибербезопасности. Обучение киберпространству должно быть частью вводного курса новичка и должно периодически повторяться для всего персонала.

Пока что наблюдаемые атаки представляют собой отполированные версии фишинговых и целевых фишинговых атак. Простые процедуры могут помочь уловить многие из них.

  • Никакой перевод средств не должен производиться только после получения электронного письма.
  • Последующий телефонный звонок должен быть сделан от получателя электронного письма к отправителю, а не от отправителя к получателю.
  • Могут быть включены фразы-вызовы, которые посторонний злоумышленник не узнает.
  • Сделайте перекрестные ссылки и перепроверьте все, что необычно.

Программы для Windows, мобильные приложения, игры - ВСЁ БЕСПЛАТНО, в нашем закрытом телеграмм канале - Подписывайтесь:)

Похожие записи

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *