«Литва совместно с Европейским торговым банком запустила проект, цель которого – создать систему пассивного дохода, позволяющую каждому литовцу получать значительный ежедневный доход».
Видеозапись с таким утверждением распространилась в интернете в начале этого года. Слова, казалось бы, идут из уст президента Литвы Гитанаса Науседы. Но это – лишь иллюзия. Злоумышленники взяли кадры реального выступления главы государства и на их основе создали так называемый дипфейк, «глубокую подделку». Проще говоря, «заставили» Г. Науседу с помощью искусственного интеллекта говорить то, чего он самом деле никогда не произносил.
«Теперь каждый житель Литвы может инвестировать небольшую сумму и наблюдать, как его прибыль растет на личном счёте», – утверждает сгенерированный мошенниками «президент».
Видео было загружено в Facebook и, прежде чем его удалили, успело набрать около 16 тыс. просмотров. И хотя результат получился довольно грубым – в записи уйма грамматических ошибок, неестественное произношение – эксперты опасаются, что угроза находится лишь на стадии зарождения.
Подобные технологии постоянно совершенствуются, а в последнее время становятся всё более доступными для широкой публики. К примеру, всего за цену абонемента мобильной связи любой пользователь интернета уже сегодня может получить доступ к так называемому голосовому клонированию. Оно позволяет воссоздать голос человека, обработав его настоящие образцы при помощи нейросетей, а потом – использовать для озвучки любого написанного текста.
Многие такие инструменты легальны и используются на благо – например, при создании фильмов или контента для видеоплатформ. Однако им также находится масса вредоносных применений. К примеру, злоумышленники в теории могут позвонить человеку и клонированным голосом его родственника попросить срочно перевести деньги, утверждая, что произошло какое-то несчастье. Кроме того, под прицелом киберпреступников порой оказываются и влиятельные политики.
Политические манипуляции
В 2021 году Литву потряс нерядовой инцидент – тогдашний глава Комитета Сейма по иностранным делам Жигимантас Павилёнис попался на крючок самозванца, который выдавал себя за российского оппозиционера. На видеоконференции с парламентариями из стран Балтии и Украины он «перевоплотился» в проживающего в Вильнюсе Леонида Волкова, соратника Алексея Навального. По словам Ж. Павилёниса сделано это было с помощью дипфейка, который якобы изменил в видеочате внешность злоумышленника. Он заставил литовского политика сделать ряд скандальных заявлений, а также уговаривал его поделиться контактами конгрессменов США.
Позже выяснилось, что за обманом стояли российские пранкеры Вован и Лексус, которых, к слову, на Западе подозревают в связях с Кремлём. При этом некоторые литовские эксперты сомневаются, действительно ли они ввели Ж. Павилёниса в заблуждение именно с помощью дипфейка – ведь даже записи, сгенерированные заранее с помощью этой технологии, несовершенны; а здесь речь идёт о разговоре в реальном времени. Однако специалисты не исключают, что уже в недалёком будущем дипфейки будет практически невозможно отличить от реальности, и подобные инциденты станут обыденностью.
«Вполне возможно, что именно атаки такого формата, когда обман происходит через видеозвонки, а не через какие-то публичные заявления, в будущем будут самыми успешными, – в эфире Žinių radijas рассуждал программист Йонас Лекявичюс. – Когда уже сделана видеозапись Ж. Павилёниса, извлеченная из видеочата, её очень легко превратить в публичное заявление. То, что казалось разговором один на один, внезапно становится доступным для всех. Вполне реалистично, что нас ждёт мрачное будущее с атаками такого формата».
Более двух лет спустя в центре другой истории с возможным применением дипфейков оказался и министр иностранных дел Габриэлюс Ландсбергис. В интернете появилась аудиозапись, где уходящий глава литовской дипломатии, казалось бы, отказывает палестинскому министру в поддержке в войне с Израилем, якобы раскрывая свои планы баллотироваться в президенты в мае 2024 года.
«Я не буду этого делать только потому, что вы меня попросили. Особенно если учесть, что я намерен в следующем году участвовать в президентских выборах», – раздаётся мнимый голос главы МИД Литвы.
В самом же министерстве поспешили заявить, что Г. Ландсбергис в то время не созванивался с палестинским представителем. Публикацию этой аудиозаписи в дипкорпусе назвали «информационной атакой». Другими словами, разговор, по всей видимости, был сгенерирован с помощью дипфейк-технологий – только в этом случае было подделано не изображение, а звук. В этом убеждены и многие эксперты по кибербезопасности.
«В записи присутствуют неестественные ускорения и замедления. – агентству BNS сказал глава центра по анализу дезинформации Debunk.org Викторас Даукшас, подчеркнув, что в материале также «слышны неестественные окружающие звуки».
По мнению В. Даукшаса, подобные манипуляции, особенно в предвыборное время – «очень опасное явление», а число таких случаев в будущем может лишь вырасти.
Инструмент наживы
В Debunk.org зафиксировали, что в то время страны Балтии и Польша подвергались «самой масштабной дезинформационной атаке» за последние годы. Причём злоумышленники пытались не только внести суматоху перед чередой выборов в Литве – президентских, европейских и парламентских – но и нажиться на доверчивых пользователях интернета.
Цифровую среду тогда наводнили поддельные видеозаписи, на которых литовские знаменитости и политики якобы призывают вложиться в фейковые инвестиционные платформы аферистов. По данным Debunk.org, чтобы обмануть пользователей соцсетей, злоумышленники сгенерировали образы Г. Науседы, премьера Ингриды Шимоните, певца Видаса Барейкиса, главы энергохолдинга Ignitis Дарюса Майкштенаса и десятков других известных людей.
«То, что в кампанию дезинформации и дискредитации вовлекаются первые лица государств, становится вопросом национальной безопасности и международной репутации стран», – предупреждает В. Даукшас.
«Платформы социальных сетей не имеют никаких механизмов защиты, которые не позволили бы преступникам выдавать себя за крупные бренды, такие как Ignitis и Orlen Lietuva, либо использовать фотографии и видео государственных лидеров», – подчёркивает эксперт.
Тревожные сценарии
Хотя злоумышленники всё чаще подделывают аудио и видео с помощью искусственного интеллекта, специалисты подчёркивают, что самые тревожные сценарии – ещё впереди.
«Дипфейк-технологии в Литве пока ещё не сильно распространены, но уже есть первые зачатки. Как пример можно привести нашего президента. Во время одной из кампаний был использован его реальный образ, который, тем не менее, говорил совершенно другие слова. Это была своего рода зачаточная форма – возможно, нужно было сгенерировать её как можно быстрее, было слишком мало времени. В итоге была некоторая искусственность, но я думаю, что это лишь вопрос времени», – в эфире LRT недавно сказал главный инженер ESET Lithuania Рамунас Любертас.
Эксперт с опаской ждёт того дня, когда дипфейки достигнут такого совершенства, что мошенники смогут клонировать до тончайших интонаций любой голос. Тогда недоброжелатели смогут куда более эффективно выманивать деньги у ничего не подозревающих людей.
«Всё равно придёт та технология, когда мы совершенно не сможем распознать голос – в нём будут эмоции нашего ребенка, наших родителей. В таком случае нужен некий пароль, который позволил бы отличить человека. Если он говорит, что произошла авария, то нужно ему ответить: скажи пароль. И он должен быть известен только узкому кругу людей», – подчеркнул эксперт ESET.
Поэтому, советуют эксперты, придумайте условное слово между собой уже прямо сейчас. А лучше – несколько. Например, супруги между собой могут договориться, что секретное слово будет «чебурашка». И тогда звонит такой клонированный якобы муж жене, просит срочно перевести ему деньги, а она просит назвать это секретное слово и мошенники, который был максимально подготовлен и клонировал точные интонации голоса вашего близкого человека, попросту говоря «развалится». Другое слово может быть с детьми, третье – с родителями. Не так много, чтобы забыть и перепутать, но достаточно, чтобы пресечь попытку обмануть.
Новая угроза
Злоумышленники научились не только притворяться близкими жертвы, но и «маскировать» сам номер телефона, предупреждает обозреватель Скирмантас Малинаускас. Другими словами, человеку поступает звонок, высвечивается номер второй половины, родителей или друзей, но по ту сторону телефонной линии – аферист.
«Если вы получаете звонок или сообщение от якобы самого близкого человека – своего ребёнка, отца или матери, брата или сестры, мужа или жены – вы всегда ответите или прочтёте. Если там есть какая-то ссылка, вы, скорее всего, нажмёте на неё. Если там есть какая-то просьба, очень вероятно, что вы её выполните», – в своём видеоблоге рассуждает С. Малинаускас.
«Если вы видите, что вам звонит ваша жена или муж, и вдруг чужой голос говорит, что, мол, ваша вторая половина попала в очень сложную, неприятную, трагичную ситуацию, и нужна срочная помощь – вы отреагируете совершенно иначе, чем в том случае, если столкнётесь с неизвестным номером телефона», – говорит С. Малинаускас.
По словам экспертов, контакты близких своих жертв аферисты находят в глубоких уголках интернета, куда хакеры нелегально загружают такие данные.
«В «тёмном интернете», или даркнете, есть огромные сокровищницы баз «слитых» личных данных. В Литве был не один случай утечки баз данных с логинами, паролями, местами жительства, номерами телефонов – это могут быть и рабочие, и домашние номера, по которым человек ведёт личные разговоры с близкими», – поясняет Р. Любертас.
Источники: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10.
Сергей Шалкин.
Иллюстрации: Chat GPT 4o.
При поддержке: