Число случаев мошенничества с использованием голосового ИИ растет — вот как обезопасить себя, по словам экспертов по безопасности

Как не стать жертвой мошенничества с голосовым ИИ

Число голосовых мошенничеств с использованием искусственного интеллекта растет: как оставаться в безопасности, говорят эксперты по безопасности

  • Эксперты по безопасности говорят, что мошенничество с клонированием голоса ИИ растет
  • Модель искусственного интеллекта с голосовым управлением можно использовать для подражания близким
  • Эксперты рекомендуют согласовывать безопасные фразы с друзьями и семьей

Следующий спам-звонок, который вы получите, может быть не от реального человека, и ваши уши не заметят разницы. Мошенники используют модели голоса с искусственным интеллектом для автоматизации мошенничества и обмана людей, выдавая себя за реальных людей, включая членов семьи.

Что такое мошенничество с голосовым ИИ?

Мошеннические звонки не новы, но приложения искусственного интеллекта представляют собой новое опасное поколение. Они используют генеративный искусственный интеллект, чтобы подражать не только властям или знаменитостям, но также друзьям и семье.

Появление моделей искусственного интеллекта, обученных на человеческих голосах, открыло новую зону риска для телефонного мошенничества. Эти инструменты, такие как OpenAI Voice API, позволяют общаться в реальном времени между людьми и моделями ИИ. С помощью всего лишь небольшого количества кода эти модели можно запрограммировать на автоматическое мошенничество по телефону, обманом вынуждая жертв раскрыть конфиденциальную информацию.

Так как же оставаться в безопасности? Проблема этой угрозы не в том, насколько легко и дешево ее реализовать, а в том, насколько убедительным становится голос искусственного интеллекта.

Число голосовых мошенничеств с использованием искусственного интеллекта растет: как оставаться в безопасности, говорят эксперты по безопасности

Всего нескольких секунд звука достаточно, чтобы имитировать голос любимого человека. Это можно легко сделать с помощью видеороликов, размещенных в социальных сетях.

Даже инструменты, разработанные для борьбы с мошенниками, показывают, насколько размытыми стали границы. Британская сеть O2 недавно запустила Daisy, бабушку с искусственным интеллектом, созданную для поимки телефонных мошенников, которые думают, что ведут бессмысленные разговоры с настоящими пожилыми людьми. Это умное использование технологий, показывающее, насколько хорошо ИИ может имитировать человеческое взаимодействие.

Поразительно, но мошенники могут обучать голоса искусственного интеллекта по очень небольшим записям. По данным компании F-Secure, занимающейся кибербезопасностью, для имитации голоса любимого человека требуется всего несколько секунд аудио. Это можно легко получить из видеороликов, размещенных в социальных сетях.

Основная концепция мошенничества с клонированием голоса аналогична стандартному телефонному мошенничеству: киберпреступник выдает себя за другое лицо, чтобы завоевать доверие жертвы, а затем вызывает у жертвы чувство безотлагательности, побуждая ее раскрыть конфиденциальную информацию или перевести деньги мошеннику.

Отличие от мошенничества с клонированием голоса двоякое. Во-первых, преступники могут использовать код для автоматизации процесса, что позволяет им атаковать больше людей быстрее и с меньшими затратами. Во-вторых, они могут подражать не только государственным чиновникам и знаменитостям, но и людям, которых вы знаете напрямую.

Все, что нужно, — это образец аудио, обычно взятый из онлайн-видео. Затем он анализируется и моделируется с помощью моделей искусственного интеллекта, что позволяет использовать его для обманных взаимодействий. Все более распространенный метод использует модели искусственного интеллекта для имитации членов семьи, просящих деньги в чрезвычайной ситуации.

Технику также можно использовать для подражания голосам высокопоставленных чиновников с целью манипулирования жертвами. Мошенники недавно использовали голосовой клон ИИ премьер-министра Квинсленда Стивена Майлза, чтобы попытаться совершить инвестиционное мошенничество.

По данным цифрового кредитора Starling Bank, 28% взрослого населения Великобритании говорят, что стали жертвой мошенничества с клонированием голоса с помощью искусственного интеллекта, но только 30% уверены, что знают, как это обнаружить. Вот почему Старлинг запустила кампанию «Безопасные фразы», ​​которая призывает друзей и родственников договориться о секретной фразе, которую они могут использовать для подтверждения личности друг друга — это умная тактика.

TL;DR Как оставаться в безопасности

Число голосовых мошенничеств с использованием искусственного интеллекта растет: как оставаться в безопасности, говорят эксперты по безопасности

1. Договоритесь о безопасной фразе с друзьями и семьей.
2. Попросите звонящего подтвердить недавнюю личную информацию.
3. Прислушивайтесь к неравномерному акценту или холодной речи.
4. Повесьте трубку и перезвоните.
5. Будьте осторожны с необычными запросами, например запросами банковских реквизитов.

Даже без заранее оговоренной защитной фразы вы можете использовать подобную тактику, если у вас есть сомнения в подлинности личности звонящего. Голосовые клоны искусственного интеллекта могут имитировать модели человеческой речи, но они не обязательно имеют доступ к личной информации. Попросите звонящего подтвердить то, что известно только ему, например информацию, которой вы поделились в последнем разговоре, — это еще один шаг к уверенности.

Также доверяйте своим ушам. Хотя клоны голоса ИИ очень убедительны, они не на 100% точны. Прислушивайтесь к контрольным признакам, таким как неравномерное выделение определенных слов, невозмутимое выражение лица или невнятная речь.

Мошенники знают, как скрыть номер, по которому звонят, и могут даже подумать, что звонят с номера вашего друга. Если у вас есть вопросы, безопаснее всего повесить трубку и перезвонить человеку на ваш обычный номер.

Мошенничества с клонированием голоса также используют ту же тактику, что и традиционное телефонное мошенничество. Цель этих стратегий — оказать эмоциональное давление и создать ощущение безотлагательности, которое заставит вас предпринять действия, которые в противном случае вы бы не предприняли. Пожалуйста, сохраняйте бдительность и следите за необычными запросами, особенно при осуществлении денежных переводов.

Тот же красный флаг применяется к звонящим, утверждающим, что они из вашего банка или другого учреждения. Стоит ознакомиться с процедурами, которые использует ваш банк при обращении к вам. Например, в приложении Starling есть индикатор статуса звонка, который вы можете проверить в любой момент, чтобы убедиться, что ваш банк действительно вам звонит.

источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

error: Content is protected !!