Использованиек претупниками искусственного интеллекта приведёт к миллиардным убыткам, поскольку мошенники клонируют голоса людей, чтобы взламывать кредитные карты и банковские счета.
Классическая схема, когда жертва получает звонок от близкого человека с просьбой о переводе денег, стала гораздо проще с использованием ИИ.
Эксперт по кибербезопасности Томас Хайслип, который более двадцати лет работал в федеральных правоохранительных органах, утверждает, что для создания поддельного аудио достаточно нескольких секунд.
Раньше им приходилось вручную воровать кредитные карты… Теперь с помощью ИИ они могут использовать уже имеющиеся данные, чтобы усилить свои возможности для совершения мошенничества…
Некоторые из них можно сделать за 30 секунд. Вы можете клонировать чей-то голос и затем совершать звонки или пытаться обмануть системы распознавания голоса. Некоторые банки уже используют распознавание голоса вместо телефонных номеров.
Одна из компаний «большой четверки» в области аудита Deloitte прогнозирует, что убытки от мошенничества, связанного с генеративным ИИ, вырастут с $12,3 млрд в 2023 году до $30 млрд к 2027 году.
В выпущеном заявлении Федеральное бюро расследований (ФБР) призвало людей быть осторожными в отношении публичного размещения личной информации, отметив, что хакеры могут использовать даже незначительные фрагменты видео или фотографий для совершения мошенничества.
Синтетическое аудио, созданное с помощью ИИ, становится все сложнее обнаружить и легче создать, что, вероятно, позволит преступникам успешно реализовывать мошеннические схемы против семей, отдельных лиц, предприятий и финансовых учреждений.
ФБР настоятельно рекомендует общественности соблюдать осторожность при публикации или отправке личных фотографий, видео и идентификационной информации в социальных сетях, на сайтах знакомств и других онлайн-платформах. Хотя такие изображения и видео могут казаться безобидными, они могут предоставить злоумышленникам достаточно контента для поиска, целенаправленных атак и использования в преступной деятельности.