Мошенники достоверно подделали голос и южноитальянский акцент гендиректора Ferrari, однако не смогли рассказать, какую книгу он посоветовал подчиненному, которого злоумышленники хотели убедить перевести деньги
Мошенники пытались обмануть одного из руководителей Ferrari с помощью дипфейка, выдававшего себя за генерального директора Бенедетто Виньи, пишет Bloomberg.
«Эй, ты слышал о крупном приобретении, которое мы планируем? Мне может понадобиться твоя помощь», — говорилось в одном из писем, которые получил топ-менеджер в мессенджере от неизвестного аккаунта, на аватаре которого была фотография Виньи. Неизвестный попросил подписать соглашение о неразглашении и призвал быть предельно внимательным.
Затем мошенник позвонил топ-менеджеру, причем голос Виньи был достоверным с точной имитацией южноитальянского акцента. Как рассказали собеседники Bloomberg, неизвестные задействовали технологию дипфейка, которая с помощью искусственного интеллекта имитирует детали речи, чтобы войти в доверие к жертве. Мошенник объяснил, что звонит с другого телефона, поскольку требуется обсудить конфиденциальный вопрос, а именно сделку, которая может повлечь проблемы, а потому требует проведения валютной хедж-транзакции.
Подозрения топ-менеджера усилились, когда он начал замечать едва слышимые механические интонации в голосе собеседника. «Извините, Бенедетто, но мне нужно вас идентифицировать», — попросил он и спросил, как называлась книга, которую Винья порекомендовал ему несколькими днями ранее. Речь шла о книге «Декалог сложности: Актерское мастерство, обучение и адаптация в условиях непрерывного становления мира» Альберто Феличе Де Тони. После этого вопроса звонок оборвался. В Ferrari начали внутреннее расследование.
Попытка обмануть руководителя Ferrari — не первая атака на топ-менеджмент международных компаний, отмечает агентство. Двумя месяцами ранее, в мае, жертвой мошенников едва не стал гендиректор британского рекламного гиганта WPP Марк Рид. Мошенники имитировали его голос во время созвона в Teams.
«В этом году мы наблюдаем рост числа преступников, пытающихся клонировать голос с помощью искусственного интеллекта», — рассказала агентству Рейчел Тобак, возглавляющая компанию по обучению кибербезопасности SocialProof Security. Эти инструменты искусственного интеллекта уже умеют убедительно подделывать видео и фото, но еще не достигли такого уровня развития, чтобы становиться причиной массового мошенничества.
В то же время некоторые компании уже понесли ущерб из-за дипфейков. Неназванная международная компания потеряла $26 млн после обмана ее сотрудников с помощью дипфейка, сообщала в феврале South China Morning Post. Мошенники поделали речь финансового директора в видеозвонке и убедили жертву перевести деньги.
Поделиться Поделиться Вконтакте Одноклассники Telegram
РБК в Telegram
На связи с проверенными новостями
Как россияне будут отдыхать в 2025 году. Календарь
Reuters сообщил об осложнении Израилем переговоров о перемирии в Газе
Лучшие винные бары России по версии самих сомелье
Помпео допустил одобрение Трампом ленд-лиза Украине на $500 млрд
Дилеры попросили отложить повышение утильсбора на 2025 год
Барак Обама объявил о поддержке кандидатуры Камалы Харрис на выборах президента США
Илон Маск заявил о готовности к бою против Цукерберга
Из законопроекта о криптовалюте убрали запрет оборота и частного майнинга
Россияне считают инвестиции в жилье невыгодными, а ипотеку — недоступной
Источник: www.rbc.ru