ПЕРСПЕКТИВИ ІНТЕГРАЦІЇ ШТУЧНОГО ІНТЕЛЕКТУ В КІБЕРБЕЗПЕКУ

Автор(и)

  • АРТЕМ АНТОНЕНКО Націона́льний університет біоресурсів і природокористування України Автор https://orcid.org/0000-0001-9397-1209
  • СЕРГІЙ ВОСТРІКОВ Державний університет інформаційно-комунікаційних технологій Автор https://orcid.org/0009-0008-8425-8872
  • СЕРГІЙ ЧЕЧИК Державний університет інформаційно-комунікаційних технологій Автор https://orcid.org/0009-0009-9293-5156
  • ДАНИЇЛ СОЛЬСЬКИЙ Державний університет інформаційно-комунікаційних технологій Автор https://orcid.org/0009-0005-0351-5987

DOI:

https://doi.org/10.31891/2307-5732-2026-363-2

Ключові слова:

штучний інтелект, кібербезпека, виявлення вторгнень, машинне навчання, нейроморфні обчислення, IntruDTree, ADFA-LD, адверсарні атаки, байєсівські методи, CTI

Анотація

У статті штучний інтелект (ШІ) визначається як система, що моделює аспекти людського інтелекту на базі компютерних технологій, математики, інформатики та філософії, з метою імітації сприйняття, розуміння та взаємодії з середовищем. У контексті кібербезпеки ШІ інтегрується в системи виявлення вторгнень (IDS), де він підвищує ефективність за рахунок автоматизованого аналізу даних, прогнозування загроз та адаптивного реагування. Дослідження підкреслюють актуальність такої інтеграції, особливо в умовах зростання складності кібератак, включаючи AI-драйвені загрози, як автономне зловмисне ПЗ та соціальну інженерію. Ключові дослідження фокусуються на моделях, таких як IntruDTree – ML-базованій системі на основі дерев рішень, яка ранжує функції безпеки, мінімізує обчислювальну складність та досягає високої точності в виявленні вторгнень, перевершуючи традиційні методи (наївний Байєс, логістичну регресію тощо). Нейроморфний підхід поєднує глибоке навчання (DL) з нейроморфними процесорами, використовуючи автоенкодери (AE) для навчання без нагляду, дискретну факторизацію векторів (DVF) для перетворення ваг та симуляцію на чіпах як IBM True North, досягаючи 90,12% точності в виявленні шкідливих пакетів та 81,31% у класифікації атак. Це забезпечує енергоефективне, реального часу виявлення в високонавантажених мережах. Машинне навчання застосовується для аналізу зловмисного ПЗ, виявлення zero-day атак, аномалій та загроз трафіку, з акцентом на датасети як ADFA-LD, що відповідає сучасним технологіям для оцінки IDS. Ризики включають адверсарні атаки на ML-алгоритми, що вимагають превентивних заходів. Портал AZ Safe Hacker Assets Portal збирає дані з хакерських форумів для проактивного CTI, аналізуючи активи з ML для пошуку, навігації та порівняння коду. Запобігання атакам з ШІ охоплює соціальну інженерію, де вразливості залежать від людського фактора, але ШІ допомагає в освіті та зменшенні впливу. Байєсівські методи дозволяють кількісну оцінку ризиків, ситуаційну обізнаність та автоматизацію. За прогнозами досліджень (Gartner, Trend Micro), AI-агенти домінуватимуть в атаках та захисті, з фокусом на квантову безпеку, explainable AI та автономні системи, що вимагає балансу між інноваціями та ризиками.

Завантаження

Опубліковано

26.03.2026

Як цитувати

АНТОНЕНКО, А., ВОСТРІКОВ, С., ЧЕЧИК, С., & СОЛЬСЬКИЙ, Д. (2026). ПЕРСПЕКТИВИ ІНТЕГРАЦІЇ ШТУЧНОГО ІНТЕЛЕКТУ В КІБЕРБЕЗПЕКУ. Herald of Khmelnytskyi National University. Technical Sciences, 363(2), 26-31. https://doi.org/10.31891/2307-5732-2026-363-2