AI Act și implicațiile pentru instituțiile publice din România

Actul privind inteligența artificială ("AI Act") al Uniunii Europene reprezintă primul cadru legal global comprehensiv dedicat reglementării inteligenței artificiale. Adoptat de instituțiile UE și publicat ca Regulament (UE) 2024/1689, acesta a intrat în vigoare la 1 august 2024 și va fi aplicat treptat începând cu 2 august 2025 până în 2027, în funcție de categoria de risc a sistemelor AI. 

Pentru instituțiile publice din România, AI Act nu este doar un set de reguli tehnice: el creează un nou ecosistem de guvernanță, responsabilitate și transparență în utilizarea tehnologiei AI, echivalent cu impactul GDPR în domeniul protecției datelor.

1. Ce este AI Act și care este cadrul său de aplicare

AI Act stabilește un sistem juridic unic pentru piața unică europeană, cu scopul de a:

  • Asigura dezvoltarea și utilizarea AI sigure și de încredere;

  • Proteja drepturile fundamentale ale cetățenilor UE;

  • Încuraja inovația și investițiile în AI în Europa. 

Regulamentul adoptă o abordare bazată pe risc, împărțind sistemele AI în următoarele categorii:

  1. Risc inacceptabil – utilizări AI interzise (de exemplu, social scoring, manipulare comportamentală, recunoaștere biometrică în timp real fără justiție) 

  2. Risc ridicat – aplicări AI care afectează drepturi fundamentale sau decizii critice, supuse unor cerințe stricte de conformitate 

  3. Risc redus – cerințe de transparență (de exemplu, notificarea utilizatorilor că interacționează cu un sistem AI) 

  4. Risc minim – majoritatea sistemelor AI utilizate în prezent, pentru care nu se aplică cerințe specifice. 

Important: AI Act se aplică providerilor de AI (cei care dezvoltă sau pun pe piață sistemele) și deployerilor (utilizatorilor) de AI, inclusiv instituțiilor publice, dacă aceste sisteme sunt utilizate în spațiul UE. 

2. Implicații practice pentru administrația publică din România

Pentru instituțiile publice din România, AI Act determină o serie de schimbări concrete în modul în care tehnologiile AI pot fi dezvoltate, implementate și utilizate.

a) Evaluarea riscului și clasificarea sistemelor AI

Instituțiile trebuie să identifice și să clasifice sistemele AI pe care le dezvoltă sau folosesc conform criteriilor de risc ale Actului. Pentru sistemele considerate "risc ridicat", vor exista obligații stricte, inclusiv:

  • evaluări de conformitate înainte de utilizare;

  • documentație completă și auditabilă;

  • supraveghere umană adecvată;

  • transparență și dreptul la explicare pentru persoanele afectate de decizii AI. 

Aceasta înseamnă că instituțiile trebuie să elaboreze proceduri interne pentru clasificarea și documentarea acestor sisteme.

b) Interdicții specifice pentru utilizări AI

AI Act interzice anumite utilizări care au apărut ca fiind problematice în sectorul public, printre care:

  • recunoașterea biometrică în timp real în spații publice, fără autorizare judiciară;

  • profilarea pentru predicția comportamentului criminal, fără verificări umane adecvate;

  • social scoring de către autorități sau prin intermediul acestora. 

Pentru instituțiile publice, acest lucru poate implica revizuirea proiectelor de supraveghere sau predictive analytics bazate pe AI și identificarea alternativelor conforme.

c) Transparență și comunicare

În cazul utilizării sistemelor AI cu risc redus, AI Act impune obligativitatea de a informa cetățenii atunci când interacționează cu un sistem AI – de exemplu prin chatbot-uri publice sau aplicații de servicii online. Această cerință aduce un plus de responsabilitate comunicativă pentru administrație, care trebuie să gestioneze percepția publică și așteptările privind tehnologiile automate. 

d) Coordonare instituțională și supraveghere

Statele membre, inclusiv România, trebuie să desemneze autorități naționale de supraveghere care vor monitoriza aplicarea AI Act și vor colabora cu EU AI Office – noul organism european pentru implementarea regulamentului. 

Pentru administrația românească, aceasta înseamnă necesitatea construirii de capacități instituționale dedicate guvernanței AI, pentru coordonare, audit și raportare.

3. Provocări pentru instituțiile publice din România

a) Capacitate administrativă și competențe

Implementarea AI Act necesită competențe tehnice, juridice și operaționale – inclusiv în evaluarea riscurilor AI și auditarea sistemelor. Instituțiile care adoptă AI trebuie să investească în formare și resurse specializate.

b) Integrarea cu alte reglementări

AI Act nu funcționează izolat. El trebuie armonizat cu GDPR, DORA, legislația privind securitatea cibernetică și etica guvernării digitale, pentru a evita conflicte de conformitate.

c) Gestionarea fiscală și resursele

Eforturile de conformare pot avea costuri semnificative – de la audituri independente la revizuirea sistemelor existente și infrastructura tehnică necesară pentru supraveghere și raportare.

4. Oportunități pentru administrație

În ciuda provocărilor, AI Act creează oportunități importante:

  • Încredere crescută a cetățenilor – prin transparență și responsabilitate;

  • Standardizare europeană – instituțiile pot beneficia de un cadru comun de reglementare și practici de conformare recunoscute în UE;

  • Inovație responsabilă – prin crearea unui mediu legal stabil în care soluțiile AI pot fi testate și dezvoltate fără riscuri juridice majore. 

Instituțiile publice din România pot, de asemenea, să dezvolte programe pilot pentru AI în acord cu cerințele Actului, facilitând astfel experimentarea controlată și învățarea treptată a guvernanței AI.

5. Concluzie și recomandări pentru decidenți

AI Act este un instrument legislativ complex, cu impact direct asupra modului în care instituțiile publice românești pot utiliza tehnologiile AI. Pentru a transforma obligațiile într-un avantaj strategic, recomandările cheie sunt:

  1. Evaluarea curentă a utilizării AI în administrație și identificarea sistemelor cu risc ridicat.

  2. Dezvoltarea unei strategii de guvernanță AI la nivel național și instituțional.

  3. Formarea de competențe interne în auditul și supervisiunea AI.

  4. Colaborarea cu autoritățile naționale de supraveghere și EU AI Office pentru interpretare și conformare.

  5. Comunicarea transparentă către public, inclusiv în privința deciziilor asistate de AI.

Pe termen mediu și lung, conformitatea cu AI Act nu doar că va asigura respectarea normelor europene, dar va contribui la modernizarea administrației publice, la consolidarea încrederii cetățenilor și la poziționarea României ca actor responsabil în economia digitală europeană.