AI

Мы не можем бороться с ИИ с помощью ИИ.

Атаки с использованием искусственного интеллекта и социальной инженерии: самая большая угроза кибербезопасности

Самой большой угрозой для людей и бизнеса сегодня является не искусственный интеллект (ИИ), а атаки с использованием социальной инженерии и другие угрозы, основанные на идентификации. ИИ, с его способностью автоматизировать атаки и создавать поддельные идентификационные данные, ускорит эти угрозы, сделав их более дешевыми и простыми в реализации. Хотя «борьба с ИИ с помощью ИИ» может показаться хорошей идеей, это не является долгосрочным решением проблемы.

Что мы должны делать перед лицом быстро развивающейся технологии искусственного интеллекта? Ответ на удивление похож на то, что мы делали всегда. ИИ должен управляться доступом с нулевым доверием, управлением идентификационными данными и политиками, которые контролируют доступ как для людей, так и для нечеловеческих существ.

Искусственный интеллект может быть мощным инструментом, но его необходимо использовать ответственно и безопасно. Нам необходимо обеспечить защиту наших систем от злоумышленников, которые используют искусственный интеллект для получения доступа к конфиденциальной информации. Применяя строгие меры безопасности, мы можем защитить себя от растущей угрозы атак социальной инженерии.

Представьте себе ситуацию, когда ваш работодатель проводит общее собрание сотрудников, чтобы объявить об обновлении системы начисления заработной платы. Во время собрания вам звонит ваш начальник и спрашивает пароль. Вы в замешательстве, но выполняете просьбу.

Однако после встречи вы понимаете, что вам звонил не ваш начальник. Это был фейк, созданный хакером, который следил за социальными сетями, чтобы узнать о встрече. Этот тип атак, который ранее требовал значительных затрат времени и человеческих ресурсов, стал намного проще с помощью генеративного ИИ. Теперь любой, у кого есть доступ к нужным инструментам, может запускать сотни таких атак в день.

Это не гипотетическая ситуация.

Генеративный искусственный интеллект повысил риск атак с использованием социальной инженерии. Такие инструменты, как WormGPT, «хакербот как услуга», используются для создания более убедительных фишинговых кампаний и глубокой подделки личности. Эти инструменты сокращают время и затраты на проведение кибератак, делая их более доступными для злоумышленников.

Увеличение частоты атак на несколько порядков является причиной для беспокойства. Однако некоторые люди совершают ошибку, полагая, что первопричина успешного взлома с использованием искусственного интеллекта отличается от традиционной атаки с помощью социальной инженерии. Фрагментация личных данных — это враг.

Большинство успешных взломов являются результатом того, что злоумышленники нацеливаются на получение какой-либо конфиденциальной информации или «секретов», содержащихся в учетных данных, таких как пароли, файлы cookie браузера или ключи API. Это подтверждается недавними отчетами, такими как отчет Verizon, который показывает, что в 68% кибератак участвуют люди. Учетные данные используются в 86% случаев нарушения безопасности веб-приложений и платформ, а в другом отчете подразделения 42 было обнаружено, что 83% организаций жестко вводят учетные данные в свои базы кода.Независимо от того, насколько активно злоумышленники используют искусственный интеллект в фишинговых кампаниях, социальная инженерия никогда не исчезнет. Кто-нибудь всегда найдет способ обманом заставить нас выдать наши учетные данные (люди просто недостаточно надежны). Поэтому наша цель в области безопасности в эпоху инноваций в области искусственного интеллекта должна заключаться в устранении секретов. Если мы внимательно посмотрим на современную ИТ-инфраструктуру, то быстро поймем, насколько опасными стали секреты. Они разбросаны по различным уровням, составляющим корпоративные технологические стеки, от Kubernetes и серверов до облачных API, устройств Интернета вещей, специализированных информационных панелей и баз данных. Все они по-разному управляют безопасностью, что приводит к серьезной фрагментации идентификационных данных — или изолированности идентификационных данных, как их часто называют. Эти изолированные ресурсы создают больше возможностей для использования злоумышленниками, и по мере того, как организации экспериментируют с интеграцией ИИ в свою деятельность, ИИ становится еще одним изолированным ресурсом, который могут использовать хакеры.

Не позволяйте ИИ стать изолированным средством обеспечения безопасности.

Основная проблема, связанная с внедрением ИИ-агентов в рабочие процессы, заключается в риске утечки данных. Чтобы решить эту проблему, важно понимать: 1) на каких данных был обучен ИИ; 2) к каким данным у него был доступ; и 3) кто имел доступ к агенту. Это важные вопросы, на которые необходимо ответить.

Чтобы ответить на эти вопросы, важно рассматривать ИИ-агент как часть общей системы безопасности и применять к нему те же правила и политики, что и к другим корпоративным ресурсам. Это означает объединение идентификационных данных для агента искусственного интеллекта и других корпоративных ресурсов, таких как ноутбуки, серверы, базы данных и микросервисы, в единую систему инвентаризации, которая обеспечивает унифицированное представление идентификационных данных и разрешений доступа.

Лучшим следующим шагом для компаний, который они могут предпринять, чтобы защитить себя от атак социальной инженерии, основанных на ИИ, является обеспечение того, чтобы личные данные их сотрудников никогда не хранились в цифровом виде. Цель должна заключаться в значительном сокращении количества точек входа, которые злоумышленники могут использовать для атак социальной инженерии. Для достижения этой цели предприятиям следует использовать криптографические методы защиты личных данных, основанные на физических атрибутах, которые нелегко украсть, таких как биометрическая аутентификация. Кроме того, доступ должен предоставляться на временной основе, только на время выполнения необходимых работ.

Вы можете представить себе криптографическую идентификацию сотрудников, состоящую из трех основных компонентов:

1) идентификатор устройства.

2) биометрическая аутентификация.

3) личный идентификационный номер.

Это не новая концепция — это основная модель безопасности, используемая в iPhone, в которой биометрическая аутентификация основана на распознавании лиц, персональный идентификационный номер представляет собой PIN-код, а чип Trusted Platform Module (TPM) в телефоне управляет идентификацией устройства.

Если вы все еще сомневаетесь в целесообразности объединения идентификационных данных, то это не просто преимущества в области кибербезопасности. Хотя объединение идентификационных данных снижает вероятность атаки (в том числе для агентов искусственного интеллекта), оно также значительно упрощает управление ресурсами компании. С точки зрения сотрудников, это только повысит производительность, и это именно то, что нужно многим командам, чтобы уменьшить разногласия между безопасностью и внедрением новых технологий.

Все это не означает, что ИИ бесполезен в предотвращении угроз и реагировании на них. Будет ли искусственный интеллект полезен при анализе действий, связанных с угрозами, и выявлении аномалий в системе организации? Абсолютно. Однако это не решит тот факт, что люди могут совершать ошибки. Мы оставляем конфиденциальную информацию на виду. Мы небрежно передаем пароли. Мы забываем свои устройства на вокзале. Поскольку ИИ увеличивает количество атак социальной инженерии, стратегия «борьбы с ИИ с помощью ИИ» не кажется жизнеспособной.

Ключ к предотвращению атак социальной инженерии, основанных на ИИ, лежит там же, где и всегда: в поведении человека. Человеческие ошибки приводят к утечке данных из инфраструктуры, от чего нам необходимо защищаться. Если мы сможем решить эту проблему, то атаки социальной инженерии — независимо от того, основаны они на искусственном интеллекте или нет — не смогут нанести такого ущерба, который они недавно нанесли.

Один комментарий к “Мы не можем бороться с ИИ с помощью ИИ.

  1. Когда я пытался настроить умную систему для борьбы с спамом, понял, что больше технологий — не всегда лучше. В итоге вместо помощи только запутался. Иногда проще вернуться к старым проверенным способам, чем полагаться на ИИ везде.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

error: Content is protected !!