Добрый день, друзья. Генеративный ИИ — это обоюдоострый меч, используемый для нападения и защиты от киберпреступности. Генеративный искусственный интеллект (ИИ) в последнее время находится в центре внимания. Чат-бот на базе искусственного интеллекта ChatGPT и другие системы, поддерживаемые обработкой естественного языка, такие как VALL-E, представили генеративный ИИ широкой публике и продемонстрировали его преимущества и негативные последствия.
Одной из основных проблем, связанных с генеративным ИИ, является тот факт, что его можно использовать для обновления вредоносных эксплойтов и проведения более изощренных кибератак. Итак, как хакеры используют генеративный ИИ в своих атаках и что это означает для будущего кибербезопасности?
Что такое генеративный ИИ и как он работает?
Как следует из названия, генеративный ИИ — это тип ИИ, который способен генерировать новый контент — изображения, текст, аудио и синтетические данные.
Одним из известных примеров является ChatGPT, чат-бот на базе искусственного интеллекта, с помощью которого вы можете вести беседы по-человечески и получать превосходные рекомендации по фильмам — это если вы не можете придумать более значимую миссию для отправки ChatGPT.
Позвольте мне дать вам пару идей — вы могли бы заставить ChatGPT писать за вас все эти сложные электронные письма, использовать ChatGPT в качестве инструмента перевода и даже превратить ChatGPT в своего помощника по планированию здорового питания. В целом, за считанные секунды этот чат-бот может придумать, казалось бы, новый, убедительный контент и представить его в довольно политкорректной форме.
Однако, генеративный ИИ пока не может быть творческим в том смысле, в каком это может сделать человек. Это потому, что он использует неконтролируемые алгоритмы машинного обучения для обработки огромного количества данных и генерации пользовательских выходных данных.
Например, если вы хотите заказать картину, похожую на Пикассо, с помощью генеративного ИИ, такого как DALLE2, то вам нужно будет ввести свое описание в специально отведенное поле — скажем, “Герника Пикассо, но с котятами” — и задержаться на нем на пару секунд. За это время ИИ применит все специфические черты стиля художника, которым он научился ранее, добавит котят для верности и придумает что—нибудь оригинальное — у нас есть картинка, которую вы можете увидеть чуть выше.
Как хакеры используют генеративный ИИ в своих атаках?
Плохих парней всегда привлекали хорошие алгоритмы. Поэтому неудивительно, что они используют генеративный ИИ для усиления своих атак. Используя методы ОД, такие как обучение с подкреплением и генеративные сети состязательности, киберпреступники могут придумывать новые, более изощренные кибератаки, которые могут прорвать стандартную киберзащиту.
Одним из примеров такого извращения является “ультрасовременный” чат-бот OpenAI, поскольку ChatGPT используется киберпреступниками для написания вредоносных программ. Вначале ChatGPT казался всего лишь забавой, но теперь он разоблачен как одна из основных угроз безопасности и конфиденциальности. Если вам нравится общаться в ChatGPT, разумно следить за тем, что киберпреступники могут сделать с помощью ChatGPT.
Короче говоря, ChatGPT и другие инструменты генеративного ИИ облегчили жизнь киберпреступникам и усложнили работу служб безопасности. Некоторые из способов, которыми участники киберугроз используют ИИ в своих атаках, включают следующее:
- Создание лучшего, более изощренного вредоносного ПО: в руках хакеров генеративный ИИ может использоваться для создания трудно обнаруживаемых разновидностей вредоносных программ и выполнения атак. В сочетании с моделями ИИ вредоносное ПО может маскировать свои намерения до тех пор, пока не выполнит свою злонамеренную цель.
- Написание персонализированных фишинговых электронных писем на базе искусственного интеллекта: с помощью генеративного ИИ фишинговые электронные письма больше не имеют характерных признаков мошенничества, таких как неправильное написание, плохая грамматика и отсутствие контекста. Кроме того, с таким ИИ, как ChatGPT, злоумышленники могут запускать фишинговые атаки с беспрецедентной скоростью и масштабом.
- Генерация глубоко поддельных данных: поскольку он может создавать убедительные имитации человеческой деятельности, такой как письмо, речь и изображения, генеративный ИИ может использоваться в мошеннических действиях, таких как кража личных данных, финансовое мошенничество и дезинформация.
- Взлом капчи и подбор пароля: используемая сайтами и сетями для вычесывания ботов, ищущих несанкционированный доступ, CAPTCHA теперь может быть обойдена хакерами. Используя ML, они также могут выполнять другие повторяющиеся задачи, такие как подбор пароля и атаки методом перебора.
- Саботаж ML при обнаружении киберугроз: если система безопасности перегружена слишком большим количеством ложных срабатываний, то хакер может застать ее врасплох настоящей кибератакой.
Как мы можем бороться с генеративной угрозой ИИ?
По мере того, как кибератаки становятся все более изощренными, а их последствия — более серьезными, традиционные системы безопасности превращаются в вещи ушедшей эпохи. Благодаря способности извлекать уроки из предыдущих атак и адаптироваться, ИИ является бесценным активом как для киберпреступников, так и для их противников.
Использование ИИ в кибербезопасности имеет ряд серьезных преимуществ, таких как более быстрое обнаружение угроз, идентификация угроз и реагирование на угрозы — так что борьба с огнем кажется правильным решением. Прежде чем киберпреступники научатся наносить сокрушительные удары отдельным лицам и компаниям по всему миру, специалисты по кибербезопасности должны научить свои системы на базе ИИ защищаться от этих атак.
Однако, не все зависит от ИИ. В конце концов, мы также можем укрепить нашу собственную безопасность и конфиденциальность с помощью испытанных методов, таких как многофакторная аутентификация (MFA), биометрические технологии, использование менеджера паролей, использование инструментов совместной работы с наилучшим шифрованием и старого доброго здравого смысла.
Борьба с ИИ с помощью самого ИИ
Итак, станем ли мы свидетелями войн ИИ за кибербезопасность в ближайшем будущем? Что ж, мы надеемся, что нет. Однако, поскольку ИИ продолжает развиваться и становится доступным для всех — как киберпреступников, так и специалистов по кибербезопасности, — роль ИИ и ОД в ближайшие годы возрастет. Успехов!
С уважением, Андрей Зимин 27.04.2023