Киберугрозы и искусственный интеллект
Киберугрозы эволюционируют на фоне стремительного развития технологий. Согласно отчету компании Anthropic (исследовательская организация в области ИИ), единственная кибератака, проведенная с почти полным использованием искусственного интеллекта, выявила огромную опасность для международной безопасности. Нападающие, вероятно, имеющие связи с Китаем, нацелились на около тридцати крупномасштабных организаций, включая технологические компании, банки и государственные учреждения.
Автоматизация кибератак
Josep Albors (директор по исследованиям и осведомленности в компании Eset) подчеркивает, что автоматизированные атаки могут развиваться значительно быстрее, чем те, что выполняются людьми. Это ведет к рискам, которые могут обойти традиционные меры безопасности и усложнить работу защитным командам.
Доступ к киберпреступности
По словам Raphaela Maricheza из Palo Alto Networks, искусственный интеллект разрушает барьеры для входа в киберпреступность; даже малые группы могут теперь осуществлять атаки, которые ранее были доступны только крупным организациям. В случае с Anthropic злоумышленники обманули ИИ, заставив его выполнять изолированные задачи, не разглашая при этом цель киберспионажа.
Ограничения ИИ
Хотя ИИ существенно ускоряет кибератаки, он также сталкивается с ограничениями, такими как «галлюцинации» (ошибки, когда система выдает неверные данные). Это подчеркивает необходимость человеческой проверки для предотвращения полностью автономных атак.
Противоречивые мнения
Противоречия в оценках ситуации также существуют. Yann LeCun (главный ученый в Meta) считает, что беспокойство о рисках ИИ может быть преувеличено, что, по его мнению, используется для достижения определенных регуляторных целей. В то же время, Marichez считает, что мы вступаем в эпоху «роботов против роботов», где киберпреступники используют ИИ для масштабирования своих атак, что вызывает серьезные опасения в сфере кибербезопасности.
Будущее киберугроз
Дополнительно эксперты замечают, что ИИ активно используется в фишинговых атаках, а также для создания более сложного вредоносного ПО. Sancho Lerena (генеральный директор PandoraFMS) подчеркивает, что ИИ позволяет создавать более убедительные фишинговые кампании, способные обмануть даже опытных пользователей. В условиях нарастающих угроз Albors рекомендует компаниям сосредоточиться на разработке эффективных решений для быстрой реакции на кибератаки, комбинируя человеческий опыт с автоматизацией процессов безопасности.