prof. dr. Adriean PÂRLOG
Să pornim de la considerente, relativ simple, din lumea agresiunilor cibernetice. Acestea sunt în centrul zonei de interes centrate pe utilizarea inteligenţei artificiale. În urmă cu 10-15 ani, puţini cercetători în domeniul securităţii tehnologice întrevedeau posibile conexiuni între abordările referitoare la riscurile biologice (pandemice) şi con-trolul automatizat al echipamentelor industriale. În 2010, inspectori ai Agenţiei Inter-naţionale de Energie Atomică constatau că multe dintre centrifugele folosite pentru îmbogăţirea uraniului instalate în Natanz, Iran, se defectau rapid. Cauza defecţiunilor a rămas necunoscută până când un inginer IT din Belarus, Serghei Ulasen, a descoperit, în urma unei investigaţii derulate împreună cu un prieten iranian, motivul căderilor în cascadă ale instalaţiilor de la Natantz. Ulasen a identificat atunci în software-ul de automatizare a centrifugelor un virus informatic, care a fost considerat prima armă digitală, creată pentru scoaterea din funcţiune (distrugerea) unui echipament controlat de un calculator. Virusul a fost denumit Stuxnet şi s-a descoperit că se mul-tiplică automat şi vizează sisteme automatizate de control industrial, inclusiv sistemele de control, supraveghere şi achiziţie de date (SCADA) similare celor produse de compania Siemens. Deoarece sistemul de control al facilităţilor de centrifugare de la Natantz nu era monitorizat şi prin internet, „pacientul zero” pentru acest eveniment a fost căutat printre companiile care furnizau echipamente necesare programului nuclear iranian şi care toate achiziţionaseră echipamente Siemens. Virusul a fost proiectat să se propage având ca vector purtător stick-uri de memorie USB infectate. Atacul a generat defectarea şi scoaterea din uz a peste 1.000 de centrifuge şi a generat întârzieri majore ale proiectului nuclear. Dată fiind complexitatea atacului, cât şi noutatea metodelor utilizate, cel mai probabil că dezvoltarea Stuxnet a implicat cheltuieli mari de resurse financiare şi tehnologice de ordinul milioanelor de dolari. Pe principii exersate în alte spaţii ale confruntărilor în domeniul securităţii, paternitatea Stuxnet nu a fost asumată de nimeni (individ, organizaţie sau ţară), dar se presupune că producerea lui a durat peste 5 ani, SUA şi Israel nefiind străine de acest proiect, cunoscut sub denumirea de Operaţiunea Jocuri Olimpice.
În ultimul deceniu, mai ales, multe instrumente de hacking create de către com–panii private de securitate americane, dar şi de universităţi şi agenţii guvernamentale, inclusiv de NSA, au ajuns în urma unor operaţii de spionaj cibernetic în posesia altor ţări neprietene ale SUA. Scurgerile de informaţii de tip WikiLeaks (inclusiv detalii ale programelor de securitate cibernetică dezvăluite de către Edward Snowden) au avut implicaţii majore asupra intensităţii confruntărilor din ziua de azi. În studii repetate (2017-2020) ale companiei americane specializate în securitate cibernetică Symantec, preluate şi de New York Times, se arată că mai multe grupuri chineze specializate în atacuri cibernetice au reuşit, în 2016, să obţină accesul la instrumente
de hacking create de NSA, ca apoi acestea să fie folosite împotriva SUA, a aliaţilor americani, dar şi împotriva unor firme guvernamentale şi private din Europa şi Asia. Aceleaşi grupuri, specializate în operaţii de hacking, coordonate de Unitatea militară 61419 a Armatei Populare de Eliberare a Chinei, au penetrat servere a peste 100 de companii şi organizaţii din lume pentru furt intelectual. Astfel s-a ajuns la un adevărat paradox existenţial – nu se poate garanta că propriile unelte nu vor fi folosite împotriva ta şi a aliaţilor tăi, în aşa numitele confruntări (războaie) cibernetice sau în paradigma unui nou război mondial, sugerat de prescurtarea WW3 – 2.0.
În zonele geografice cu o importanţă sporită din punct de vedere geopolitic şi geostrategic, unde sprijinul social este greu de realizat, se apelează la metode hibride de ducere a conflictului, inclusiv prin apel la companii private de securitate, la inflamarea stărilor conflictuale prin recurs la mass media, la permeabilizarea situaţiei de incertitudine, la slăbirea încrederii în guvernare, ce este mai facilă în societăţile cu un grad redus de gândire critică şi cultură a democraţiei sau în acelea în care sunt exacerbate forţat teme sensibile precum cele legate de religie sau de orientări sexuale. Ţări precum Rusia, China, Turcia, Iran, Siria etc., care au înţeles potenţialul negativ al reţelelor sociale, au înfiinţat noi platforme şi reţele, al căror grid de comunicaţii îl controlează, sau au restricţionat accesul la cele clasice. De asemenea, au operaţionalizat canale de televiziune şi agenţii de presă ce adresează direct la peste 100 de ţări (exemplele cele mai cunoscute fiind RT, Sputnik şi CCTV).
Dezvoltările recente ale inteligenţei artificiale în ţări precum cele mai sus amintite au determinat şi repoziţionări în Statele Unite, Marea Britanie, Japonia şi Coreea de Sud în acest domeniu. SUA au lansat programul denumit Iniţiativa Americană privind Inteligenţa Artificială, sub egida căruia NSCAI (Comisia de Securitate Naţională pentru Inteligenţa Artificială) a identificat mai multe direcţii de efort financiar, uman şi tehnologic la nivel federal:
a) investiţii în cercetare şi dezvoltare;
b) aplicarea IA în folosul securităţii naţionale;
c) pregătirea şi recrutarea de tineri cu potenţial în domeniu;
d) protejarea şi fructificarea avantajelor tehnologice ale SUA;
e) cooperarea internaţională.
Asociaţia Industriei de Securitate (SIA) din SUA a publicat raportul periodic 2020 Security Megatrends (Tendinţe majore de securitate în 2020), în care identifică principalii factori de risc, despre care se preconizează că vor avea efecte profunde pe termen scurt sau lung asupra securităţii globale. Principalele tendinţe incluse în raport s-au conturat pe baza unor sondaje statistice şi consultări cu grupuri ţintă, precum şi pe baza analizării informaţiilor colectate de la lideri marcanţi ai unor companii din industria de securitate şi personalităţi invitate la conferinţa Securing New Ground (SNG), din 2019.
Primele zece tendinţe majore de securitate identificate sunt:
-
Impactul ameninţărilor cibernetice asupra securităţii fizice
-
Inteligenţa artificială (IA)
-
Recunoaştere facială
-
Importanţa confidenţialităţii datelor
-
Cloud Computing
-
Preocupări privind securitatea naţională
-
Conectivitate şi IoT (Internetul Obiectelor, n.red.)
-
Dezvoltarea forţei de muncă
-
Trecerea la modelele de servicii
-
Identitatea ca Noul Perimetru.
Securitatea cibernetică şi inteligenţa artificială ocupă primele poziţii, fiind iden-tificate ca tendinţele dominante care modelează abordările securităţii şi obiectivele majore de preocupare pentru liderii politici şi responsabilii cu funcţii executive în departamente şi agenţii guvernamentale, inclusiv cei de companii integratoare în domeniile securităţii şi apărării. Practic, ambele se regăsesc în toate celelalte 8 tendinţe enumerate mai sus, dar se evidenţiază domeniul inteligenţei artificiale care a urcat de pe locul cinci în raportul din 2019 până pe poziţia a doua, urmare a rolului fundamental al acesteia în ceea ce priveşte aproape toate progresele tehnologice. Ca formă particulară de manifestare a IA, recunoaşterea facială apare ca un trend major de securitate, fiind pentru prima dată când acest factor intră în listă. De asemenea, merită reţinute şi alte tendinţe noi apărute în raportul pentru 2020, cum sunt preocupările privind securitate naţională şi conceptul de Identitate ca noul perimetru. Şi această tendinţă este subsumată conceptului de IA, urmare a faptului că aduce în discuţie ideea de frontiera spaţială a unei reţele sociale, idee care capătă noi dimensiuni în noul context. Realitatea arată că vechiul perimetru al reţelei s-a modificat radical, practic a dispărut urmare a formelor concrete de manifestare a proceselor de transformare digitală, a mobilităţii fizice a actorilor (nodurilor) unei reţele şi a apariţiei considerentelor legate de conceptul de cloud. Noul perimetru al reţelei nu mai este definit de firewall-ul acesteia, ci de identitatea fiecărei persoane şi dispozitiv care accesează fluxurile de lucru şi datele de stare ale sistemului. În acest context, noile tehnologii de securitate pun accentul din ce în ce mai mult pe soluţii de tip Zero Trust, adică soluţii care să răspundă noilor realităţi prin strategii aprofundate de protecţie / siguranţă / apărare, incluzând autentificare multi-factor, micro-segmentare şi acces diferenţiat în funcţie de prioritatea de acces acordată solicitantului. În domeniul informaţiilor pentru securitate se conturează un nou concept, adaptat din informatica aplicată, cel de „intelligence augmentat”, care include beneficiile oferite de securitatea cibernetică, inteligenţa artificială, conectivitate, Internetul Obiectelor – IoT şi Identitatea ca noul perimetru, care este menit să prelungească posibilităţile intelectului uman, nu să le înlocuiască. Intelligence-ul augmentat va dezvolta noul tip de parteneriat om – maşină, cu asigurarea înţelegerii mediului de securitate. Opera-ţionalizarea componentelor de IA vizează toate fazele clasicului ciclu al intelligence-ului acţionabil, perfecţionarea capabilităţilor mijloacelor de luptă în toate categoriile de forţe armate, precum şi sprijinirea deciziilor ce se vor a fi optimale pentru obţinerea succesului. În acest context, Departamentul Apărării al SUA a realizat şi un ghid al eticii necesare dezvoltării sistemelor de IA, date fiind complicaţiile în acest domeniu. În acest sens, la 10 iulie 2021, preşedintele Joe Biden s-a adresat preventiv (în spiritul ghidului de principii ce includ responsabilitatea, echitatea, trasabilitatea, fiabilitatea şi guvernanţa) omologului său rus, Vladimir Putin, în legătură cu iminenta reacţie ame-ricană la continuarea agresiunilor cibernetice combinate cu elemente de IA, ce îşi au originea pe teritoriul Federaţiei Ruse.
În era digitală, abundenţa de informaţii sugerează faptul că IA îşi găseşte cele mai importante aplicaţii acolo unde există foarte multe informaţii de accesat, selectat şi ordonat şi interpretat în vederea exploatării, cât mai aproape de contextul concret al realităţii. Astfel, în intelligence, cea mai intensă utilizare a IA vizează etapa de culegere şi analiză primară (calitativă) de informaţii. IA îşi găseşte un teren generos de aplicare în disciplinele tehnice de culegere de informaţii, inclusiv în exploatarea surselor deschise, preocupare ce a devenit preponderent tehnică după cvasi-generalizarea mass media electronice în dauna presei tipărite şi, mai ales, datorită exploziei reţelelor sociale. S-a ajuns în situaţia ca din clasicul OSINT (intelligence din surse deschise) să se desprindă un subdomeniu, cel al SOCMINT (intelligence la graniţa HUMINT cu reţelele sociale). Uneori, apar şi o serie de confuzii cu privire la conceptul teoretic de „reţea socială“. Multe persoane confundă această sintagmă cu cea de „reţea socială online“ sau „platformă de socializare“, referindu-se la „Facebook“, „Twitter“, „My Space“, „Instagram“ sau alte site-uri de socializare asemănătoare. Reţea socială poate fi orice structură de tip graf compusă din indivizi, grupuri, organizaţii, unităţi administrativ teritoriale, state etc. Aceasta conţine o serie de tipuri de interde-pendenţe (cum ar fi legăturile de prietenie, rudenie, afinitate, cognitive, bazate pe roluri rezultate din diviziunea muncii etc.), ce pot fi analizate. Platformele online „Facebook“ sau „Twitter“, spre exemplu, sunt resurse foarte importante pentru analiza reţelelor motivate sociologic, datorită datelor puse la dispoziţie, însă aceste platforme nu sunt sinonime cu reţelele sociale, descrise ca mai sus. Aici, utilitatea IA este uşor de intuit, este vorba despre potenţialul super-motoarelor de căutare, de identificare de tendinţe şi corelaţii între informaţii disparate, toate în timp real şi în volume enorme de materiale în format digital (big data). În Statele Unite, comunitatea de intelligence a pus bazele sistemului Open Source Enterprise, destinat acoperirii volumului imens de informaţii disponibile în spaţiul public, în diferite limbi şi formate pe întreg globul. În condiţiile omniprezenţei Internetului, IA este utilizată pentru explorarea tiparelor de trafic inclusiv în Deep Web, dincolo de posibilităţile reţelelor neuronale prin recurs la aşa numiţii „algoritmi genetici”, fundamentaţi în biologie, care evoluează secvenţial aşa cum evoluează organismele vii. Deep Learning, componentă a IA, a fost utilizat în aplicaţii de recunoaştere facială, recunoaşterea vorbirii, filtrarea reţelelor de socializare etc., de multe ori cu rezultate superioare din punctul de vedere al vitezei şi acurateţei, comparativ cu cele obţinute de experţi umani. IA ajută operatorii SIGINT să extragă informaţii utile din aparentul haos al semnalelor din spectrul electromagnetic. Agenţia americană NSA utilizează IA în domeniul SIGINT pentru a identifica, înţelege şi prefigura tipare de comportament al unui actor localizat în spectrul electromagnetic. În acest fel, IA operează asupra informaţiilor extrinseci conţinute în fluxuri de unde electromagnetice emise de actori de interes, nu numai asupra informaţiilor intrinseci, adică nu numai asupra conţinutului informativ al comunicărilor. Programele IA în SIGINT monitorizează spectrul electromagnetic şi din identificarea de anomalii de comportament, învaţă caracteristici comportamentale în spectrul electromagnetic valabile pentru diferite situaţii concrete (schimbări doctrinare, crize, pregătire şi mod de operare în cazuri concrete de război electronic). IA este prezentă şi în obţinerea de informaţii provenite din imagini. IMINT este o disciplină de culegere tot mai versatilă pentru multe domenii ale vieţii sociale, datorită dezvoltării posibilităţilor tehno-logice de captare de imagini de toate categoriile. În acest domeniu de interes operativ evident s-a depus un efort major pentru gruparea şi ordonarea a peste 14 milioane de imagini ale unor obiecte diferite, în, aproximativ, 200.000 de categorii de obiecte. Acest „catalog” s-a constituit în taxonomia de referinţă a formelor prezente în imagini stocate în baze de date specializate.
În alte discipline ale culegerii de informaţii, HUMINT de exemplu, IA se află la început, dar dispune de posibilităţi de dezvoltare în continuare. Aspectele psiho-com-portamentale ale fiinţei umane rămân provocări majore pentru domeniul neuroştiin-ţelor aplicate.
Urmând logica ciclului intelligence şi ordinea de diminuare a volumului de informaţii de examinat, urmează etapa de analiză a informaţiilor. Potrivit doctrinei Pentagonului, există o etapă intermediară, între culegere şi analiză, anume etapa de procesare a informaţiilor culese, pentru a le aduce în forme pe care analiştii le pot folosi. Cerinţele actuale de prelucrare a informaţiilor culese susţin varianta unei etape separate, considerate pentru procesarea informaţiilor, iar aspectele tehnologice moderne întăresc acest punct de vedere prin creşterea cerinţelor logistice şi organizatorice impuse de specificul, diversitatea şi volumul de activităţi de procesare. Dar această dilemă taxonomică nu influenţează cu nimic activitatea practică. Multe dintre operaţiile specifice etapei / sub-etapei de procesare sunt sprijinite de produse software de nivel clasic, inclusiv programe de traducere. Dar IA este utilizată pentru recunoaşterea vocii, care permite analiştilor detectarea unor dialecte, particularităţi regionale sau identificarea unor persoane, coroborarea de informaţii şi chiar identificarea unor evoluţii psihologice sau comportamente anormale. De asemenea, sunt folosite programe specializate pentru stabilirea de meta-date privitoare la informaţiile culese şi pentru gestionarea acestor meta-date în folosul analiştilor. Este vorba despre marcarea informaţiilor după toate criteriile necesare căutării în baza de date, cum ar fi data producerii, numărul de inventar, domeniul, sursa, limba şi multe altele. Dacă aici este nevoie, sau nu, de IA depinde de volumul şi complexitatea datelor (bazele de date sunt big data sau nu), cât şi de politica şi resursele serviciului de informaţii respectiv.
După realizarea produselor de intelligence, diseminarea lor către beneficiari nu constituie o etapă primordială, ci o procedură de transfer. Se distinge, însă, ca fiind o etapă de bază, valorificarea produselor în decizie şi acţiune, chiar dacă, de cele mai multe ori, activităţile desfăşurate cu informaţii nu au loc în interiorul serviciilor de infor-maţii, ci în cadrul managementului de risc sau al operaţiilor, dar în interiorul ciclului.
Între categoriile funcţionale ale sprijinului informativ, o astfel de acţiune este avertizarea diferiţilor beneficiari pe baza informaţiilor culese şi analizate de agenţiile de intelligence. De exemplu, NGIA, agenţia americană de intelligence geo-spaţial (care foloseşte intens imagini de la sateliţi), utilizează IA pentru a realiza un ciclu rapid de culegere, analiză şi acţiune de avertizare oportună a navelor maritime (civile şi militare) privind diferite pericole, cum ar fi acţiuni ale piraţilor, ale unor terorişti sau pericole naturale, precum şi pentru actualizarea datelor de navigaţie. Pentru realizarea scopului de avertizare, datele obţinute şi prelucrate în secret sunt „sanitizate” şi declasificate.
Mai mult decât avertizarea sunt acţiunile / operaţiile bazate pe intelligence. Aici, IA este folosită, de exemplu, în războiul electronic, menţionat mai sus, dar în acest caz pentru identificarea de vulnerabilităţi în sistemele şi modul de operare ale adversarului, în vederea asigurării succesului în confruntare. Mediul de acţiune este spectrul electromagnetic, iar operaţiile se desfăşoară simultan cu managementul spectrului, care este acelaşi cu cel folosit de mijloacele proprii. În condiţiile aglomerării spectrului şi prezenţei unor actori ostili, această complexitate impune folosirea IA. O altă categorie de măsuri şi operaţii bazate pe produse de intelligence care utilizează IA este activitatea de protecţie a informaţiilor, la nivelul cyber-security, pentru detectarea, identificarea şi tratarea riscurilor de compromitere a sistemelor computerizate proprii. Companii producătoare de software anti-virus folosesc de ani buni IA pentru detectarea de tipare şi anomalii ce prevestesc atacuri cibernetice, iar o companie americană foloseşte IA (natural language processing) pentru a supraveghea continuu reţelele de socializare în vederea detectării pregătirilor unor atacuri cibernetice de către grupuri infracţionale sau identificării unor ameninţări viitoare. De altfel, experţii recomandă supravegherea activităţii hackerilor pe reţelele de socializare, pentru a ţine pasul cu inventivitatea lor şi pentru a înţelege din timp ce fel de atacuri sunt în pregătire, pentru contracararea imediată a atacurilor (O fi legal?).
În încheierea considerentelor noastre, supunem atenţiei o idee legată de pericolul major al folosirii IA în scopuri ostile agravate de perspectiva ca sistemele IA să preia coordonarea unor procese care sunt deja automatizate. Iar dacă discutăm despre intenţie ostilă, riscul cel mai mare vine nu de la hackeri individuali, ci de la guverne ostile, care dispun de resurse considerabile şi se pot ascunde perfect în spatele anonimatului oferit de domeniul cibernetic. Algoritmii de învăţare automată (Machine Learning – ML) sunt din ce în ce mai utilizaţi în aplicaţii sensibile la confi-denţialitate, cum ar fi „proiecţia ecoului de viaţa socială”, stabilirea diagnosticelor medicale şi recunoaşterea facială. Învăţarea automată este utilizată pentru eviden-ţierea de informaţii genomice sensibile, care individualizează persoane reale cărora le pot fi „atribuite” artificial responsabilităţi concrete.
Coments