Кибербезопасность – термин все больше входящий в речевой оборот людей, изначально далеких от информационных технологий. Раньше кибербезопасность для многих ассоциировалась с антивирусами, однако теперь многие воспринимают ее, как самые передовые технологии, используемые для защиты компаний и людей от киберпреступников. Парадокс ситуации в том, что те же направления технологий, используемых в кибербезопасности – искусственный интеллект, облачные среды, квантовые и пост-квантовые вычисления используются киберпреступниками в целях взлома систем кибербезопасности предприятий.
Киберугрозы развиваются быстрее, чем могут адаптироваться средства защиты предприятий, и генеративный ИИ увеличивает разрыв.
Скорость и инновации во внедрении ИИ существенно превосходят инвестиции в безопасность.
В разработке и внедрении ИИ доминирует проактивный подход, тогда как в обеспечении безопасности ИИ – реактивный.
Ранее генеративный искусственный интеллект (Gen AI) рассматривался с точки зрения помощника человека, теперь создатели систем ИИ ориентируются на создание экосистем ИИ – многоуровневых программ, которые управляют различными подсистемами ИИ, управляют и настраивают их. Такой подход позволяет усилить эффективность систем ИИ, повышать внедрение инноваций. Тем не менее, киберпреступники гораздо быстрее внедряют искусственный интеллект в свои схемы и активно пользуются его преимуществами, чем предприятия, использующие ИИ для построения передовых систем защиты от вторжений.
Злоумышленники используют ИИ для фишинга, атак социальной инженерии - дипфейков, вымогательства и уклонения от ответственности, созданию ИИ-червей. Такие инструменты, как FraudGPT, BlackmailerV3 и ElevenLabs автоматизируют создание вредоносных программ, видео-подделок, фишинговых веб-сайтов и искусственных голосов, что делает кампании более масштабируемыми, правдоподобными и эффективными.
В этом году ожидается рост использования хакерами искусственного интеллекта и больших языковых моделей (LLM) для разработки и масштабирования усложненных фишинговых атак, вишинга и других атак социальной инженерии. Ожидается продолжение использования дипфейков для кражи личных данных, мошенничества и обхода системы безопасности "знай своего клиента" (Know Your Customer, KYC).
Наиболее значимым достижением в киберпространстве с использованием ИИ, скорее всего, станут исследования уязвимостей и разработка эксплойтов с помощью ИИ (VRED), которые обеспечивают доступ к системам путем обнаружения и использования уязвимостей в базовом коде или конфигурации.
Ожидается, что через два-три года возможно проведение полностью автоматизированных, продвинутых кибератак. Автоматизация будет включать в себя идентификацию и использование уязвимостей, быстрые изменения во вредоносном ПО и вспомогательной инфраструктуре, позволяющие избежать обнаружения.
Ожидается, что применение ИИ для кибератак будет применяться наиболее эффективно высококвалифицированными госструктурами или организациями, поддерживаемыми государством (т.н. «киберармий» и т.п.).
Они в полной мере смогут использовать потенциал ИИ для эффективных кибератак, используя научный, человеческий, финансовый потенциалы. Другие хакеры также повысят уровень своих атак, используя, доступные для них модели ИИ, но будут значительно уступать в возможностях APT (передовая постоянная угроза) хакерам, поддерживаемым ведущими государствами. В ближайшие годы возможно развитие предложения хакерских инструментов с использованием искусственного интеллекта как услуги, что поможет начинающим киберпреступникам проводить более серьезные кибератаки.
В то же время, компании, проактивно относящиеся к построению систем кибербезопасности, успешно используют ИИ для обнаружения дипфейков, обнаружения и защиты от ботнетов, устранения ложных срабатываний систем киберзащиты, внедрения систем поведенческой биометрии, моделированию кибератак и киберугроз, внедрению исследований с расширением контекста.
В ближайшем будущем почти наверняка возникнет существенный разрыв в уровнях кибербезопасности между компаниями, внедрившими системы, реагирующие на угрозы с использованием искусственного интеллекта, и значительной частью остальных компаний, которых большинство.
Важно отметить, что алгоритмы ИИ требуют обучения на больших объемах данных, что может приводить к их утечкам, в том числе конфиденциальной информации. Также, поскольку данные для обучения алгоритмов ИИ являются историческими и в значительной степени субъективными, это может приводить к неправильному реагированию на угрозы. Кроме того, особое значение имеет не достоверность данных, на которых проводится обучение.
Привлекательность внедрения ИИ в передовые системы кибербезопасности предприятий сталкивается с финансовыми ограничениями – стоимость внедрения и эксплуатации систем ИИ дороже, чем предприятие может себе позволить, исходя из бюджета. Подчас недостаточная квалификация сотрудников отделов информационных технологий предприятия препятствует внедрению ИИ. В итоге, интегрировать передовые системы в существующую, подчас устаревшую ИТ инфраструктуру предприятия, достаточно сложно, а недостаток финансирования и квалификации персонала могут привести к росту уязвимости существующей инфраструктуры.
Несмотря на ряд трудностей, технологии искусственного интеллекта открывают широкие возможности, и их применение становится все более распространенным в различных отраслях. В то же время, в таких сферах как медицина, банки, страхование отраслевое регулирование может препятствовать внедрению ИИ.
Для защиты систем ИИ от кибератак, обеспечения их устойчивости, рекомендуется применять подход, основанный на мерах безопасности до развертывания ИИ (т.е. принцип “безопасности по замыслу”):
- оценке рисков при внедрении ИИ,
- проведении инвентаризации приложений ИИ для понимания, где атаки на них особенно критичны,
- обеспечении инвестиций в передовые системы кибербезопасности для защиты ИИ,
- осуществлении технического контроля за системами ИИ,
- управлении информацией –какие данные будут доступны ИИ и какие средства контроля необходимы для обеспечения политики конфиденциальности.
Эксперты сходятся в том, что без внедрения ИИ в системы кибербезопасности предприятий, противостоять киберугрозам будет все более проблематично.
Статья подготовлена на основании анализа публикаций по результатам зарубежных исследований по теме применения искусственного интеллекта в кибербезопасности.
Автор: Сергей Слепцов, независимый эксперт