Как не стать жертвой мошенничества с голосовым ИИ
- Эксперты по безопасности говорят, что мошенничество с клонированием голоса ИИ растет
- Модель искусственного интеллекта с голосовым управлением можно использовать для подражания близким
- Эксперты рекомендуют согласовывать безопасные фразы с друзьями и семьей
Следующий спам-звонок, который вы получите, может быть не от реального человека, и ваши уши не заметят разницы. Мошенники используют модели голоса с искусственным интеллектом для автоматизации мошенничества и обмана людей, выдавая себя за реальных людей, включая членов семьи.
Что такое мошенничество с голосовым ИИ?
Мошеннические звонки не новы, но приложения искусственного интеллекта представляют собой новое опасное поколение. Они используют генеративный искусственный интеллект, чтобы подражать не только властям или знаменитостям, но также друзьям и семье.
Появление моделей искусственного интеллекта, обученных на человеческих голосах, открыло новую зону риска для телефонного мошенничества. Эти инструменты, такие как OpenAI Voice API, позволяют общаться в реальном времени между людьми и моделями ИИ. С помощью всего лишь небольшого количества кода эти модели можно запрограммировать на автоматическое мошенничество по телефону, обманом вынуждая жертв раскрыть конфиденциальную информацию.
Так как же оставаться в безопасности? Проблема этой угрозы не в том, насколько легко и дешево ее реализовать, а в том, насколько убедительным становится голос искусственного интеллекта.
Всего нескольких секунд звука достаточно, чтобы имитировать голос любимого человека. Это можно легко сделать с помощью видеороликов, размещенных в социальных сетях.
Даже инструменты, разработанные для борьбы с мошенниками, показывают, насколько размытыми стали границы. Британская сеть O2 недавно запустила Daisy, бабушку с искусственным интеллектом, созданную для поимки телефонных мошенников, которые думают, что ведут бессмысленные разговоры с настоящими пожилыми людьми. Это умное использование технологий, показывающее, насколько хорошо ИИ может имитировать человеческое взаимодействие.
Поразительно, но мошенники могут обучать голоса искусственного интеллекта по очень небольшим записям. По данным компании F-Secure, занимающейся кибербезопасностью, для имитации голоса любимого человека требуется всего несколько секунд аудио. Это можно легко получить из видеороликов, размещенных в социальных сетях.
Основная концепция мошенничества с клонированием голоса аналогична стандартному телефонному мошенничеству: киберпреступник выдает себя за другое лицо, чтобы завоевать доверие жертвы, а затем вызывает у жертвы чувство безотлагательности, побуждая ее раскрыть конфиденциальную информацию или перевести деньги мошеннику.
Отличие от мошенничества с клонированием голоса двоякое. Во-первых, преступники могут использовать код для автоматизации процесса, что позволяет им атаковать больше людей быстрее и с меньшими затратами. Во-вторых, они могут подражать не только государственным чиновникам и знаменитостям, но и людям, которых вы знаете напрямую.
Все, что нужно, — это образец аудио, обычно взятый из онлайн-видео. Затем он анализируется и моделируется с помощью моделей искусственного интеллекта, что позволяет использовать его для обманных взаимодействий. Все более распространенный метод использует модели искусственного интеллекта для имитации членов семьи, просящих деньги в чрезвычайной ситуации.
Технику также можно использовать для подражания голосам высокопоставленных чиновников с целью манипулирования жертвами. Мошенники недавно использовали голосовой клон ИИ премьер-министра Квинсленда Стивена Майлза, чтобы попытаться совершить инвестиционное мошенничество.
По данным цифрового кредитора Starling Bank, 28% взрослого населения Великобритании говорят, что стали жертвой мошенничества с клонированием голоса с помощью искусственного интеллекта, но только 30% уверены, что знают, как это обнаружить. Вот почему Старлинг запустила кампанию «Безопасные фразы», которая призывает друзей и родственников договориться о секретной фразе, которую они могут использовать для подтверждения личности друг друга — это умная тактика.
TL;DR Как оставаться в безопасности
1. Договоритесь о безопасной фразе с друзьями и семьей.
2. Попросите звонящего подтвердить недавнюю личную информацию.
3. Прислушивайтесь к неравномерному акценту или холодной речи.
4. Повесьте трубку и перезвоните.
5. Будьте осторожны с необычными запросами, например запросами банковских реквизитов.
Даже без заранее оговоренной защитной фразы вы можете использовать подобную тактику, если у вас есть сомнения в подлинности личности звонящего. Голосовые клоны искусственного интеллекта могут имитировать модели человеческой речи, но они не обязательно имеют доступ к личной информации. Попросите звонящего подтвердить то, что известно только ему, например информацию, которой вы поделились в последнем разговоре, — это еще один шаг к уверенности.
Также доверяйте своим ушам. Хотя клоны голоса ИИ очень убедительны, они не на 100% точны. Прислушивайтесь к контрольным признакам, таким как неравномерное выделение определенных слов, невозмутимое выражение лица или невнятная речь.
Мошенники знают, как скрыть номер, по которому звонят, и могут даже подумать, что звонят с номера вашего друга. Если у вас есть вопросы, безопаснее всего повесить трубку и перезвонить человеку на ваш обычный номер.
Мошенничества с клонированием голоса также используют ту же тактику, что и традиционное телефонное мошенничество. Цель этих стратегий — оказать эмоциональное давление и создать ощущение безотлагательности, которое заставит вас предпринять действия, которые в противном случае вы бы не предприняли. Пожалуйста, сохраняйте бдительность и следите за необычными запросами, особенно при осуществлении денежных переводов.
Тот же красный флаг применяется к звонящим, утверждающим, что они из вашего банка или другого учреждения. Стоит ознакомиться с процедурами, которые использует ваш банк при обращении к вам. Например, в приложении Starling есть индикатор статуса звонка, который вы можете проверить в любой момент, чтобы убедиться, что ваш банк действительно вам звонит.