ПЕРСПЕКТИВИ ІНТЕГРАЦІЇ ШТУЧНОГО ІНТЕЛЕКТУ В КІБЕРБЕЗПЕКУ
DOI:
https://doi.org/10.31891/2307-5732-2026-363-2Ключові слова:
штучний інтелект, кібербезпека, виявлення вторгнень, машинне навчання, нейроморфні обчислення, IntruDTree, ADFA-LD, адверсарні атаки, байєсівські методи, CTIАнотація
У статті штучний інтелект (ШІ) визначається як система, що моделює аспекти людського інтелекту на базі комп’ютерних технологій, математики, інформатики та філософії, з метою імітації сприйняття, розуміння та взаємодії з середовищем. У контексті кібербезпеки ШІ інтегрується в системи виявлення вторгнень (IDS), де він підвищує ефективність за рахунок автоматизованого аналізу даних, прогнозування загроз та адаптивного реагування. Дослідження підкреслюють актуальність такої інтеграції, особливо в умовах зростання складності кібератак, включаючи AI-драйвені загрози, як автономне зловмисне ПЗ та соціальну інженерію. Ключові дослідження фокусуються на моделях, таких як IntruDTree – ML-базованій системі на основі дерев рішень, яка ранжує функції безпеки, мінімізує обчислювальну складність та досягає високої точності в виявленні вторгнень, перевершуючи традиційні методи (наївний Байєс, логістичну регресію тощо). Нейроморфний підхід поєднує глибоке навчання (DL) з нейроморфними процесорами, використовуючи автоенкодери (AE) для навчання без нагляду, дискретну факторизацію векторів (DVF) для перетворення ваг та симуляцію на чіпах як IBM True North, досягаючи 90,12% точності в виявленні шкідливих пакетів та 81,31% у класифікації атак. Це забезпечує енергоефективне, реального часу виявлення в високонавантажених мережах. Машинне навчання застосовується для аналізу зловмисного ПЗ, виявлення zero-day атак, аномалій та загроз трафіку, з акцентом на датасети як ADFA-LD, що відповідає сучасним технологіям для оцінки IDS. Ризики включають адверсарні атаки на ML-алгоритми, що вимагають превентивних заходів. Портал AZ Safe Hacker Assets Portal збирає дані з хакерських форумів для проактивного CTI, аналізуючи активи з ML для пошуку, навігації та порівняння коду. Запобігання атакам з ШІ охоплює соціальну інженерію, де вразливості залежать від людського фактора, але ШІ допомагає в освіті та зменшенні впливу. Байєсівські методи дозволяють кількісну оцінку ризиків, ситуаційну обізнаність та автоматизацію. За прогнозами досліджень (Gartner, Trend Micro), AI-агенти домінуватимуть в атаках та захисті, з фокусом на квантову безпеку, explainable AI та автономні системи, що вимагає балансу між інноваціями та ризиками.
Завантаження
Опубліковано
Номер
Розділ
Ліцензія
Авторське право (c) 2026 АРТЕМ АНТОНЕНКО, СЕРГІЙ ВОСТРІКОВ, СЕРГІЙ ЧЕЧИК, ДАНИЇЛ СОЛЬСЬКИЙ (Автор)

Ця робота ліцензується відповідно до ліцензії Creative Commons Attribution 4.0 International License.