Utilizarea Inteligenței Artificiale a multiplicat provocările de securitate cibernetică. Infractorii utilizează situațiile de vulnerabilitate create tocmai de utilizarea necorespunzătoare a aplicațiilor de Inteligență Artificială și reușesc să treacă de sistemele de securitate ale companiilor.
Experții în domeniul securității cibernetice spun că utilizarea Inteligenței Artificiale este o sabie cu două tăișuri. Inteligența Artificială poate automatiza procese și poate eficientiza munca unor angajați. Însă tot ea poate fi poarta prin care, din neglijență, se scurg date sensibile în afara companiei. Infractorii cibernetici utilizează algoritmii de Inteligență Artificială pentru a depăși sistemele clasice de securitate, însă tot aplicațiile bazate pe Inteligența Artificială reprezintă, deocamdată, cel mai rapid răspuns în acest domeniu. Specialiștii în securitate cibernetică au remarcat două lucruri.
Primul este acela că personalul uman insuficient pregătit reprezintă una dintre cele mai importante vulnaberabilități a unei companii. De aceea, investițiile în pregătirea angajaților sunt unele dintre cele mai rentabile.
Cel de-al doilea lucru este acela că asistăm la un război automatizat între infractorii cibernetici care utilizează aplicații cu Inteligență Artificială de mare precizie și responsabilii de securitate cibernetică. Aceștia utilizează tot Inteligența Artificială pentru a detecta activitățile neobișnuite și pentru a avea răspunsuri foarte rapide la noile amenințări din mediul virtual. Concret, algoritmii de Inteligență Artificială pot rescrie codul unui virus de mii de ori pe secundă, pentru a fi mai greu de detectat. Acești algoritmi sunt folosiți pentru a detecta vulnerabilitățile din codul sursă al unor aplicații. Însă tot ei sunt folosiți de experții în securitate pentru a remedia problemele. Sfaturile specialiștilor se referă la salvarea datelor sensibile pe mai multe servere independente și pregătirea continuă a celor cu atribuții în domeniul utilizării Inteligenței Artificiale.
Ingineria socială 2.0: era deepfake-ului și a phishing-ului hiper-personalizat
Cea mai imediată și vizibilă amenințare generată de IA este rafinarea tehnicilor de manipulare. Atacurile de tip phishing, care odinioară erau ușor de reperat din cauza greșelilor gramaticale sau a designului stângaci, au devenit impecabile.
-
Deepfake audio și video: În ultimul an, companii din România au raportat incidente în care angajați de la departamentele financiare au fost păcăliți să transfere sume mari de bani după ce au primit apeluri video de la „directori” a căror voce și înfățișare au fost replicate perfect de IA.
-
Phishing contextual: Algoritmii pot analiza acum amprenta digitală publică a unei victime (postări pe rețele sociale, articole, profiluri profesionale) pentru a genera mesaje de e-mail atât de specifice și convingătoare, încât rata de succes a acestora a crescut cu peste 400% față de epoca pre-IA.
Automatizarea programelor malware: virușii care „învață”
Riscul major în 2026 nu mai este doar virusul în sine, ci capacitatea acestuia de a evolua. IA este acum utilizată pentru a crea programe malware polimorfice, care își schimbă codul sursă de fiecare dată când întâlnesc un sistem de apărare.
-
Exploatarea vulnerabilităților „zero-day”: IA poate scana codul software al marilor corporații sau al infrastructurilor critice la viteze supraumane. Practic, identifică breșe de securitate necunoscute anterior (zero-day) mult mai rapid decât o pot face experții în securitate.
-
Malware evaziv: Odată pătruns într-o rețea, un astfel de program poate monitoriza comportamentul utilizatorilor legitimi și își poate ajusta activitatea pentru a imita traficul normal, astfel că rămâne nedetectat de soluțiile antivirus clasice timp de luni de zile.
Adversarial AI: atacarea creierului digital
O formă de risc mai subtilă, dar extrem de periculoasă, este atacul direct asupra modelelor de IA folosite de organizații. Această tehnică, cunoscută sub numele de „Adversarial AI”, vizează coruperea procesului de decizie al algoritmului.
-
Otrăvirea datelor (Data Poisoning): Atacatorii pot introduce date eronate în seturile de antrenament ale unei IA. De exemplu, un sistem de securitate bazat pe recunoaștere facială poate fi „învățat” să ignore anumite fețe sau un filtru de spam poate fi programat să lase să treacă e-mailuri malițioase prin manipularea discretă a bazei sale de date.
-
Prompt Injection: Prin comenzi complexe de text, atacatorii pot păcăli asistenții virtuali sau chatbot-ii să dezvăluie date confidențiale din serverele interne la care aceștia au acces.
Statistici ale riscului cibernetic (estimări 2025-2026)
| Tip de amenințare | Creștere a incidenței | Impact financiar estimat |
| Atacuri deepfake (corporate) | +150% | 12 miliarde $ global |
| Malware generat de IA | +320% | 8 miliarde $ global |
| Phishing automatizat | +410% | Impact major IMM-uri |
| Scurgeri de date prin chatbot | +85% | Risc ridicat de confidențialitate |
Apărarea prin IA: singura soluție viabilă
Vestea bună este că aceeași tehnologie care generează aceste riscuri este și principala armă de apărare. În 2026, securitatea cibernetică a devenit o „luptă între algoritmi”. Companiile de top utilizează acum IA defensivă pentru a monitoriza traficul în timp real și pentru a bloca atacurile la milisecunde după ce au fost declanșate.
Războiul din Orient reorientează fluxurile turistice – Transilvania, o destinație tot mai atractivă
