AI — Изкуствен интелект и киберсигурност
Изкуственият интелект променя структурно играта между нападатели и защитници. Бурята от AI-открити уязвимости вече е тук — времето от разкриване до експлоатация се сви от години до часове. Това ръководство е базирано на „The AI Vulnerability Storm: Building a Mythos-ready Security Program" (CSA, SANS, [un]prompted, OWASP GenAI Security Project) и ви показва как да изградите Mythos-ready програма за AI сигурност.
Какво е AI сигурност?
AI сигурността е дисциплина в киберсигурността, която се фокусира върху две взаимносвързани предизвикателства: (1) защита на самите AI системи (модели, агенти, данни и инфраструктура) от компрометиране и злоупотреба и (2) адаптиране на защитните програми към нова ера, в която нападателите използват AI за откриване и експлоатация на уязвимости с машинна скорост.
До 2025 г. много от нашите предположения за способностите на AI при изследване на уязвимости, експлоатация и автономни атаки се оказаха остарели. Протичащата промяна е структурна, не временна. AI сваля цената и нивото на умения, нужни за откриване и експлоатация на уязвимости по-бързо, отколкото организациите могат да прилагат кръпки. Прозорецът между откриване и weaponization се сви до часове.
През април 2026 г. Anthropic представи Claude Mythos (Preview) — модел, който автономно откри хиляди критични уязвимости във всяка голяма операционна система и браузър, генерирайки работещи експлоати без човешка намеса. Това подтикна Anthropic да създаде Project Glasswing — може би най-голямата многостранна координация за уязвимости в историята — даваща ранен достъп до избрани доставчици на критична инфраструктура.
Защо това има значение
Mean Time-to-Exploit се сви от 2.3 години (2018) до под 24 часа (2026). Кварталните пентестове и реактивното кръпване не могат да догонят непрекъснатото AI-базирано откриване на zero-days.
Нападателите вече работят с машинна скорост, използвайки coding agents. Защитниците, работещи с човешка скорост, са в структурно изоставане. Пропускайки AI, не губим малко — губим мащаба.
Всяка кръпка става blueprint за експлоат, тъй като AI ускорява patch-diffing и reverse engineering. Third-party и open-source зависимости се превръщат в основен риск за всяка организация.
AI агентите са необходими за отбрана, но са privileged, несигурни по подразбиране и не покрити от съществуващите контроли. Представляват нов клас активи със собствени рискове — prompt injection, goal hijacking, memory poisoning.
EU AI Act (август 2026) въвежда автоматизиран одит, инцидентни доклади и изисквания за AI сигурност. Когато AI може да намери значително повече уязвимости, стандартът за разумна защитна грижа се променя.
Екипите са притиснати: увеличаване на уязвимостите, експлодиращ обем код, разширяваща се attack surface. Burnout и отлив представляват пряк оперативен риск. Експертизата отнема години и не може да се замени бързо.
Еволюция на AI-базираните офанзивни способности
Основните събития от 2025 и 2026 г., които преоформиха заплахата. Не става дума за отделен инцидент — това е ускоряваща се траектория.
- XBOW стана #1 на HackerOne US leaderboard — първата автономна система, която надмина всички човешки хакери
- Open-source raptor демонстрира, че автономното изследване на уязвимости е достъпно за всеки
- Anthropic (с Claude Opus 4.6) докладва 500+ high-severity уязвимости в open source софтуер
- AISLE намира 12 OpenSSL zero-days, включително CVSS 9.8 дефект от 1998 г.
- Sysdig документира AI-базирана атака, достигнала admin ниво за 8 минути
- Gambit публикува доклад за AI-воден компромет на мексиканска правителствена инфраструктура
- Linux kernel bug reports — от 2 до 10/седмично, всички верифицирани като реални
- Проектът curl прекъсна bug bounty поради „AI slop" доклади
- Стартира Zero Day Clock — визуализация на колапса на time-to-exploit
Ключови изводи за CISO и за екипите по сигурност
Осем приоритетни теми, които всяка програма за AI сигурност трябва да адресира веднага. Това не е хайп — това е новата базова линия.
За разлика от отбранителните AI технологии, LLM-базираните способности за откриване и ремедиация вече са зрели. Започнете незабавно, като поискате от агент code review на всеки код, и изградете VulnOps способност.
Много от съществуващите метрики и оценки на риска са остарели и могат да засегнат бизнес отчетите. Обмислете как да ги обновите и комуникирайте предизвикателството със заинтересованите страни.
Макар отбранителните AI да изостават, agents вече могат да ускорят човешките действия — от incident response до GRC. Насърчавайте и изисквайте от екипа да използва agents. Triage, тестване на кръпки, red team, автоматизация на одити.
Провеждайте tabletop упражнения за множество едновременни high-severity инциденти в рамките на същата седмица. Включете сегментация, egress filtering, Zero Trust, phishing-resistant MFA и secrets rotation. Supply chain ще бъде засегната.
Основите остават валидни и могат да бъдат приоритизирани за рискове, които не могат да бъдат смекчени по друг начин. Сегментация, кръпване на известни уязвимости, IAM, defense-in-depth.
Темпото и обемът на разкритията ще надминат всичко познато. Приоритизирайте наново, автоматизирайте, подгответе се за burnout. Поискайте допълнителен headcount и резервен капацитет за екипа.
Mythos е вероятно само една от много промени, идващи в киберриска. Ако още не сте започнали, сериозно обмислете включването на Mythos и неговите импликации във вашата стратегия.
Нападателите работят като синдикати — crowdsourcing, споделяне на инструменти, колективно движение. Ангажирайте се със секторни групи, ISAC-и, CERT-ове, стандартизиращи органи. Защитниците трябва да правят същото.
Програма „Mythos-ready" за AI сигурност
Променящият се ландшафт и произтичащият риск изискват подход, който е едновременно оперативен, инцидент-реагиращ и стратегически, фокусиран върху изграждане на програма във времето. Това се реализира в три времеви хоризонта.
Оперативно: очаквайте потенциален поток от нови кръпки, освободени от ~40 доставчика в програмата за ранен достъп — подобно на скорошни supply chain инциденти, изискващи реакция в двуседмичен времеви интервал.
Risk management: бизнес рискът се променя и ангажираността със заинтересованите страни около планиране на риска и толеранс е ключова. Способността на CISO да управлява риска е намалена до степен, която може да има ефекти върху бизнес отчетите и прогнозите.
Стратегически: дългосрочен gap analysis и избирателна реконструкция на различни функции ще бъде полезна, включително governance процеси за поддръжка на по-бързо onboarding на технологии и внедряване на иновативни AI-базирани контроли за сигурност.
За начало, Mythos-ready програмата трябва да постигне минимална жизнеспособна устойчивост. Ще надграждате и ще преизмервате ключови метрики като цена на експлоатация, ранно откриване на компромет и овладяване на blast radius.
10 въпроса за оценка на програмата ви
Подход, базиран на въпроси, за триаж на разбирането ви за собствената ви програма по сигурност — и за оценка на влиянието ви върху различни бизнес функции.
Регистър на рискове за Mythos-ready програма
Проектен регистър на 13 основни риска, свързани с AI сигурността. Всеки риск е маркиран с тежест, тип и референции към признати рамки (OWASP LLM 2025, OWASP Agentic 2026, MITRE ATLAS, NIST CSF 2.0).
| Тежест | Риск | Описание | Тип | Рамки |
|---|---|---|---|---|
| Критични рискове | ||||
| Critical | Ускорена експлоатация на заплахи AI-автономно генериране на експлоати с машинна скорост |
AI модели откриват уязвимости и генерират експлоати от над година. Mythos ускорява това значително, демократизирайки способности, които преди бяха скъпи и изискваха експертиза. Всяка кръпка става exploit blueprint. | Threat | AML.T0040, AML.T0043, PR.PS, PR.IR |
| Critical | Недостатъчни AI automation способности Защитници с човешка скорост срещу AI-нападатели |
Нападателите свободно използват AI coding agents за откриване на уязвимости, разработка на експлоати и оркестрация на атаки. Защитните екипи нямат достатъчно увереност да внедрят еквивалентни способности. | Capability gap | GV.OC, GV.RM, DE.CM, RS.MA |
| Critical | Неуправляема AI агент attack surface Privileged AI агенти извън съществуващите контроли |
Агентите са необходими за борба със заплахи с AI-скорост, но са privileged, несигурни по подразбиране и не покрити от съществуващите контроли. Включва несигурни агенти вътре и компрометирани/манипулирани агенти от трети страни. | Vulnerability | LLM06, ASI02, ASI03, AML.T0047, PR.AA, GV.SC |
| Critical | Неадекватна скорост на detection и response Човешка скорост срещу machine-speed атаки |
AI намали сложността и времето, нужни за конструиране на комплексни атаки. Detection/response способностите не са надградени да отговорят, създавайки асиметрично скоростно предимство за нападателите. | Capability gap | ASI08, AML.T0047, DE.CM, DE.AE, RS.MA |
| Critical | Остарял модел на киберриск Решения базирани на pre-AI модели за риск |
Security reporting метрики, построени върху pre-AI предположения за времеви линии и сложност на атаки, вече може да не отразяват реалната експозиция. Остарелите модели могат да доведат до underfunding на контроли. | Governance | GV.OC, GV.RM, RS.CO |
| Високи рискове | ||||
| High | Непълен inventory на активи Неизвестна attack surface, shadow agents |
AI-ускорените способности на нападателите променят кои активи са с най-висок риск. Без непрекъснато обновяван inventory, контролите имат присъщи пропуски. Пролиферацията на coding agents допълнително фрагментира централната IT видимост. | Vulnerability | ASI04, AML.T0000, ID.AM, GV.SC |
| High | Несигурен software delivery pipeline Код доставен без AI-воден security review |
Код, създаден от хора и AI агенти, се качва без консистентен security review. AI-генериран код въвежда уязвимости при по-висок обем от ръчна разработка. Повече код, същата дефектна норма, срещу по-способен противник. | Vulnerability | LLM01, LLM05, LLM08, ASI01, AML.T0018, PR.PS, ID.IM |
| High | Неадекватна архитектура за containment Плоска или недостатъчно сегментирана мрежа |
Плоска мрежа дава leverage на всеки успешен експлоат. AI-базираните атаки го правят по-лошо: автоматизираното multi-hop lateral movement експлоатира лоша архитектура по-бързо от ръчни нападатели. | Vulnerability | PR.IR, PR.PS |
| High | Пропуск в Continuous Vulnerability Management Реактивна позиция срещу непрекъснати AI zero-days |
AI-базираното откриване на уязвимости, което предхожда Mythos, означава zero-days в собствен и third-party код могат да бъдат открити и weaponized преди екипът ви да знае. Кварталните pen tests не могат да се конкурират. | Capability gap | ASI10, ASI06, AML.T0018, ID.RA, ID.AM, DE.CM |
| High | Threat detection зависещо от изоставаща intelligence CVE/KEV-базирана intelligence структурно надмината |
Threat intelligence изостава от AI-ускорено откриване над година. CVE системата може да не скалира до AI-генерирани discovery темпове, а novel уязвимости нямат listing в KEV по дефиниция. | Capability gap | AML.T0000, DE.CM, ID.RA, GV.OV |
| High | Дефицит в Innovation Governance Governance vacuum създаващ approval friction |
Без cross-functional governance механизъм, onboarding и deployment на всеки нов контрол се натъква на approval friction, която забавя внедряването. AI-ускорените timelines правят тази friction особено опасна. | Governance | GV.OC, GV.RM, GV.RR, GV.OV |
| High | Regulatory & Liability експозиция Променящ се standard of care |
EU AI Act (август 2026) въвежда автоматизиран одит, incident reporting и cybersecurity изисквания за AI. Когато AI може да намери значително повече уязвимости на достъпна цена, стандартът за разумна защитна грижа се променя. Бордовете ще задават въпроси за използването на налични AI tools. | Governance | GV.OC, GV.RM, GV.RR |
| Средни рискове | ||||
| Medium | AI хайп и объркване Signal-to-noise колапс в препоръките |
Обемът на AI-свързаните security guidance, коментари и vendor twierdzi надхвърля всичко, което индустрията е виждала. Security лидерите трудно се ориентират в шума. Самото объркване е consequential риск — екипи, които отхвърлят промяната като хайп, ще пропуснат критични промени. | Governance | GV.OC, GV.RM |
11 приоритетни действия за Mythos-ready програма
За CISO, който трябва да влезе в стая в понеделник сутрин с план. Агресивен времеви график — може да е нереалистичен за всички организации, но ви дава отправната точка. Съобразете с размер, сложност и бюджет.
Насочете agents и LLM способностите навътре — към собствения ви код и зависимости. Започнете незабавно, като поискате security review от агент, след това изградете пълен одит в CI/CD. Всеки код (човешки или AI-генериран) трябва да премине LLM-воден review преди merge. Комерсиални: Claude Code Security, Codex Security. Open source: OpenAnt (Knostic), raptor, exploitation-validator, agentic skills (Trail of Bits).
Формализирайте използването на AI agents (предимно coding agents) като част от всички security функции, с мандатни контроли и oversight. Докато отбранителните AI не са на ниво, тези агенти позволяват работа отвъд „човешка скорост". Optional adoption не преодолява културните бариери.
Без агенти, повечето задачи в този списък ще са неизпълними — но агентите трябва да бъдат защитени. Не са покрити от съществуващите контроли и въвеждат cyber defense и agentic supply chain рискове. Agent harness (prompts, tool definitions, retrieval pipelines, escalation logic) е където се случват най-значимите провали. Дефинирайте scope граници, blast-radius лимити, human override.
Cross-functional механизъм (Security, Legal, Engineering) за оценка на нови офанзивни заплахи и ускорен onboarding на отбранителни технологии. Без това, всяко друго действие се натъква на approval friction, която забавя deployment в ущърб на защитника.
С увеличаването на откриването и докладването на уязвимости (Glasswing направи Mythos достъпен за значителни софтуерни vendor-и), подгответе triage и deployment капацитет за потенциален поток от кръпки, когато новите критични уязвимости се разкрият.
Прегледайте security risk метрики, reporting и business risk калкулации, за да отразят AI-ускорени exploit timelines и сложност. Pre-AI предположения за patch windows, exploit scarcity и incident frequency може вече да не са валидни. Обменете с заинтересовани страни и картирайте ефектите.
Използвайте, обновете или създайте inventory. С агенти процесът може да бъде значително ускорен. Започнете с критични internet-facing системи, изградете пълен обхват за 45 дни. Генерирайте реални SBOM. Агресивно изключете ненужна функционалност, изолирайте at-risk системи. Не можете да защитите това, което не знаете че съществува.
Основите остават валидни. Внедрете egress filtering (което блокира всеки публичен log4j експлоат). Наложете дълбока сегментация и Zero Trust където е възможно. Lockdown на dependency chain. Мандатно phishing-resistant MFA за всички privileged акаунти. AI може да ускори това — напр. software minimization, замяна на third-party библиотеки с framework primitives.
Deception е независимо от attack tool и уязвимост, идентифицирайки атаки и нападатели базирано на техните TTP. Внедрете canaries и honey tokens, наслоявайте behavioral monitoring, pre-authorize containment действия, изградете response playbooks които се изпълняват с машинна скорост.
Подобрете detection engineering и incident response способностите да бъдат системни и, до възможна степен, автономни. Примери: asset и user behavioral анализ, pre-authorized containment действия, response playbooks които се изпълняват с машинна скорост.
Дългосрочно няма алтернатива на изграждане на постоянна Vulnerability Operations (VulnOps) функция, staff-ната и автоматизирана като DevOps, но за автономно vulnerability research и ремедиация. Притежава непрекъснато откриване на zero-days в целия ви софтуерен estate (от собствен код до third-party софтуер), установява автоматизирани remediation pipelines. Дизайнирайте VulnOps около triage дисциплина.
Тежест: Critical = незабавна експозиция ако не се адресира; High = значителна експозиция в рамките на 45 дни. Категория: Governance = структурна предпоставка; Risk Control = директно намаляване на риска; Operational Enabler = прави risk controls изпълними.
Рамки и стандарти за AI сигурност
Четири ключови рамки, които всяка Mythos-ready програма трябва да познава и използва. Кодовете от тези рамки са включени в регистъра на рискове по-горе.
Рискове в LLM, използвани като компоненти на приложения. Включва Prompt Injection, Sensitive Info Disclosure, Improper Output Handling, Excessive Agency, Vector & Embedding Weaknesses.
Виж рамката →Рискове в автономни AI системи, които планират и действат. Agent Goal Hijack, Tool Misuse, Identity & Privilege Abuse, Agentic Supply Chain, Memory & Context Poisoning, Rogue Agents.
Виж рамката →Adversarial техники, насочени към AI/ML системи. Включва ML Model Reconnaissance, Backdoor ML Model, ML Inference API Access, Craft Adversarial Data, ML-Enabled Product Abuse, LLM Prompt Injection (Direct & Indirect).
Виж рамката →Govern (GV), Identify (ID), Protect (PR), Detect (DE), Respond (RS). Пълен жизнен цикъл на киберсигурността. GV покрива governance, risk strategy, supply chain; DE покрива continuous monitoring и adverse event analysis.
Виж рамката →Рамка за управление на риска, специфично насочена към AI. Govern, Map, Measure, Manage — четирите функции, които оформят жизнения цикъл на AI риска в организацията.
Виж рамката →Европейският регламент за AI (август 2026). Въвежда автоматизиран одит, incident reporting и cybersecurity изисквания около AI. Риск-базирана класификация на AI системи — Unacceptable, High, Limited, Minimal risk.
Виж рамката →Brief за борда: AI Risk Summary
Mythos вече е въпрос на борда, и това създава възможност. Тази секция е работещ инструмент за CISO, подготвящ leadership/board update — организиран около две неща: обосноваване на настоящата програма и създаване на case за това, което идва.
Промяната: AI на ниво демонстрирано от Mythos ще трансформира как организациите оперират — компресирайки циклите за разработка и ускорявайки time-to-market. Същата способност в ръцете на противника компресира времето между съществуването на уязвимост и бизнес disruption от седмици до часове; постоянно ускорение, не временен пик.
Talking point — AI ускорява двете страни: Тези същите способности правят нападателите по-бързи и по-опасни. Време до сериозен инцидент вече е часове, не седмици. Обърнати навътре, тези tools ни позволяват да намерим и фиксираме слабости преди противници. Без внимание към buying down риск, се движим по-бързо като бизнес и трупаме риск също толкова бързо.
Talking point — Нужен е агресивен план: Това не е open-ended AI инициатива. Търсим alignment за изпълнение на targeted 90-дневен план с ясни собственици и резултати.
План за пренасочване на съществуващ staff (в security org и engineering teams) и/или onboarding на допълнителен headcount и contractor капацитет за обработка на очакваните увеличения в triage, ремедиация и инциденти — особено при първата Glasswing вълна от кръпки.
Формализирайте използването на AI agents през всички security функции като стандартна практика: сканиране на собствен код, AI-воден review преди код да стигне production, обогатяване на екипи с purpose-built agents. Това позиционира екипите да работят с темпо, близко до това на противниците.
Приоритизирайте обновяване на asset inventories; намалете ненужна експозиция; наложете сегментация, Zero Trust, egress filtering и phishing-resistant authentication. Валидирайте тези елементи в вътрешни системи и ключови third-party доставчици (MSPs, SOCs).
Синхронизирайте между функционалните екипи (security, legal, engineering) за оценка на заплахи и fast-track приоритетно onboarding на отбранителни технологии. Настоящите approval цикли са твърде бавни за идващата threat среда.
Обновете technical и communications response планове за изпълнение с нужната скорост и мащаб, включително pre-authorized containment и координация за едновременни инциденти.
Осигурете регулярни check-in през 90-дневния период за улавяне на резултати и идентификация на roadblocks.
Как да започнете с AI сигурност — учене и тестване
Практическо ръководство за специалисти по сигурност, искащи да изградят компетентност в AI сигурността. Започнете с основите, после надградете към тестване и изграждане на програма.
- Започнете с LLM fundamentals — Разберете как работят LLM, какво е prompt engineering, context windows, tokens. Достатъчно е ниво, позволяващо ви да обсъждате архитектурата — не задълбочено ML обучение.
- Научете OWASP Top 10 for LLM & Agentic Applications — Това е базовата линия. Запаметете 10-те риска, техните прояви и контроли. Започнете с LLM01 (Prompt Injection) — най-честият риск.
- Използвайте coding agents активно — Най-бързият начин да разберете какво могат е да ги използвате ежедневно. Claude Code, GitHub Copilot, Cursor, Aider. Започнете да използвате agent за security review, log analysis, incident triage.
- Практикувайте LLM pentesting — Gandalf (Lakera), HackTheBox AI Red Teamer, PortSwigger Web Security Academy LLM labs, AI Village CTF. Безплатни лабораторни среди за prompt injection и jailbreak техники.
- Изучавайте MITRE ATLAS — Adversarial ML/AI техники. Картирайте какво може да се случи с AI системите ви: data poisoning, model extraction, adversarial examples, prompt injection.
- Внедрете NIST AI RMF — Ако водите AI governance, преминете през Govern/Map/Measure/Manage функциите. Картирайте AI системите на организацията и техните рискове.
- Експериментирайте с AI red teaming инструменти — Garak (NVIDIA), PyRIT (Microsoft), promptfoo, llm-guard. Тествайте собствените си AI приложения преди някой друг да ги тества.
- Проследявайте ресурси в реално време — OWASP GenAI Security Project, Cloud Security Alliance AI Safety Initiative, Zero Day Clock (zerodayclock.com), AI Village, [un]prompted conference.
- Присъединете се към общности — CSF.BG, OWASP Sofia Chapter, BSides Sofia, CyberSecurityTalks Bulgaria, ISACA Sofia. AI сигурността изисква колективна защита — нападателите вече работят като синдикати.
Препоръчани ресурси за AI сигурност
Основната общност за GenAI сигурност. Домакин на OWASP LLM и Agentic Top 10. Работни групи за Red Teaming, AI Threat Intel, Agentic Security.
Посети →Cloud Security Alliance — изследвания за AI в enterprise. CISO community, AI Controls Matrix, STAR за AI.
Посети →SEC545, SEC595 — курсове за AI security, red teaming, defender AI. Индустриален стандарт за AI обучение на security професионалисти.
Посети →Adversarial Threat Landscape for AI Systems. База от знания за adversarial tactics и techniques срещу ML системи.
Посети →Визуализация на колапса на time-to-exploit. Sergej Epp. Живи данни за състоянието на attacker capability.
Посети →Open source LLM vulnerability scanner. Тества за prompt injection, data leakage, toxicity, jailbreaks и други. Like nmap за LLMs.
GitHub →Python Risk Identification Toolkit for generative AI. Автоматизира red teaming на GenAI системи.
GitHub →Безплатна интерактивна игра за учене на prompt injection. Седем нива с нарастваща сложност. Идеален вход в LLM offensive security.
Играй →Източник: Това ръководство е базирано на „The AI Vulnerability Storm: Building a Mythos-ready Security Program" — Expedited Strategy Briefing от CSA CISO Community, SANS, [un]prompted, OWASP GenAI Security Project и широката общност (Gadi Evron, Rich Mogull, Robert T. Lee и др.). Документът е под лиценз Attribution-NonCommercial 4.0 International (CC BY-NC 4.0).
Заключение
AI-базираните атаки представляват структурна промяна в това как работят офанзивата и защитата, и няма да се обърне. Цената и способностите за откриване на експлоати падат, времето от разкриване до weaponization се компресира към нула, и способности, които преди изискваха държавни ресурси, стават широко достъпни.
Правили сме това и преди. Y2K беше системна заплаха с твърд deadline, и индустрията я посрещна чрез координирани, дисциплинирани усилия. Това е същият тип проблем, изискващ същия тип отговор — с по-мощни инструменти, достъпни за защитниците.
Изграждането на „Mythos-ready" security програма не е реакция към един модел или обявление. Става въпрос за постоянно затваряне на пропаст между това колко бързо се намират уязвимостите и колко бързо вашата организация може да отговори. Дайте власт на екипите си да използват AI за защита, започвайки днес. Всяко действие в това ръководство може да започне тази седмица.