Într-adevăr este o tehnologie cu potențial enorm, dar vine la pachet cu provocări serioase. Succesul pe termen lung depinde de echilibrul dintre inovație tehnologică și responsabilitate umană.
Etica și legalitatea nu sunt opționale, ci esențiale pentru orice afacere care adoptă AI

1.Legea AI în Uniunea Europeană (AI Act – 2024/2025)
2.GDPR și AI
3.Legislație națională
4. Alte regulamente
5. Directive
6. Standarde internaționale
1. Regulamentul (UE) 2024/1689 – Regulamentul privind inteligența artificială (AI ACT)
https://eur-lex.europa.eu/legal-content/RO/TXT/?uri=CELEX:32024R1689
Legea privind Inteligența Artificială a Uniunii Europene – cunoscută oficial ca AI Act – este primul cadru legislativ cuprinzător din lume destinat să reglementeze dezvoltarea și utilizarea inteligenței artificiale
A fost adoptată în martie 2024 și publicată oficial în iulie 2024 în Jurnalul Oficial al Uniunii Europene.
AI Act este o reglementare a Uniunii Europene care:
- Stabilește reguli obligatorii pentru dezvoltarea, punerea pe piață și utilizarea sistemelor AI.
- Creează un cadru legal pentru utilizarea responsabilă și etica AI-ului în UE.
- Urmărește să echilibreze protecția drepturilor cetățenilor cu încurajarea inovației.
UE are o abordare complexă în ceea ce privește reglementarea inteligenței artificiale. Aceasta se bazează pe legi deja existente, precum Regulamentul General privind Protecția Datelor („GDPR”) și pe cele mai recente, cum ar fi Regulamentul (UE) 2022/2065 privind serviciile digitale (‚DSA”) si Regulamentul (UE) 2022/1925 privind piețele digitale („DMA”), iar Regulamentul IA va completa acest cadru.
AI Act clasifică sistemele AI în 4 categorii de risc, fiecare cu obligații legale diferite:
- Risc inacceptabil – complet interzise:
- Sisteme care manipulează subconștientul uman.
- Sisteme de credit social în stil chinezesc.
- Recunoaștere facială în timp real în spațiul public (cu excepții stricte).
- Risc ridicat – strict reglementate:
- AI folosit în: educație, recrutare, infrastructură critică, justiție, poliție.
- Obligații: evaluare a conformității, transparență, supraveghere umană.
- Risc limitat – obligații de transparență:
- Chatboturi (trebuie să anunțe că sunt AI).
- Sisteme care creează imagini, texte sau audio sintetice (deepfake).
- Risc minim sau zero – fără reglementare:
- Sisteme AI pentru jocuri, filtre spam, sugestii de filme etc.
Intrare în vigoare: 1 august 2024
- 6 luni mai târziu (2 feb 2025) – Interdicții pentru AI cu risc inacceptabil (ex. recunoaștere biometrică în timp real, scoring social) .
- 9 luni (2 mai 2025) – Codul de conduită pentru general-purpose AI (GPAI) trebuia să fie gata până atunci; final a fost prezentat în mai 2025
- 12 luni (2 aug 2025) – Obligații de transparență și documentare pentru GPAI devin aplicabile, inclusiv pentru modele precum ChatGPT sau Gemini
- 24 luni (1 aug 2026) – Majoritatea regulilor pentru AI cu risc ridicat intră în vigoare: evaluări de conformitate, supraveghere, logare, securitate cibernetică
- 36 luni (1 aug 2027) – Obligații pentru anumite sisteme din categoriile detaliate de risc ridicat (Anexa I) .
Sancțiuni:
- Risk inacceptabil: până la €35 milioane sau 7% din cifra de afaceri globală.
- Alte încălcări (GPAI, high‑risk): până la €15 milioane sau 3%
- Informații false / lipsă transparență: până la €7,5 milioane sau 1%
Cine supraveghează :
Oficiul European pentru IA /European AI Office – coordonează aplicarea legii la nivel european
Comitetul European pentru Inteligența Artificială/European Artificial Intelligence Board – EAIB) -coordonează autoritățile naționale
Autorități Naționale de Supraveghere -fiecare stat membru va desemna o autoritate responsabilă cu aplicarea Regulamentului
2. Regulamentul (UE) 2016/679 – Regulamentul General privind Protecția Datelor (GDPR)
https://eur-lex.europa.eu/eli/reg/2016/679/oj?locale=ro
GDPR (General Data Protection Regulation) este un regulament european care se aplică în toate țările UE, inclusiv România, începând cu 25 mai 2018.
A intrat în vigoare la 25 mai 2018 și se aplică: în toate țările membre UE și oricărei entități (publică sau privată), inclusiv din afara UE, care prelucrează datele cetățenilor UE
Cine trebuie să respecte GDPR?
Toate organizațiile și persoanele fizice (inclusiv firme, ONG-uri, autorități publice, freelanceri sau administratori de site-uri) care:
- colectează date personale
- le stochează, prelucrează sau transmit
- trimit newslettere, fac profilare, folosesc instrumente de analiză (ex: Google Analytics)
Inclusiv site-urile simple, blogurile sau magazinele online trebuie să respecte cerințele GDPR.
Drepturile persoanelor vizate :
- Dreptul la informare
- Dreptul de acces la datele proprii
- Dreptul la rectificare
- Dreptul la ștergere („dreptul de a fi uitat”)
- Dreptul la restricționarea prelucrării
- Dreptul la portabilitatea datelor
- Dreptul de opoziție
- Dreptul de a nu fi supus unei decizii automate
Cine asigură respectarea GDPR:
ANSPDCP – Autoritatea Națională de Supraveghere a Prelucrării Datelor cu Caracter Personal
Sancțiuni:
Amenzile pot ajunge până la:
- 10 milioane € sau 2% din cifra de afaceri (pentru abateri mai ușoare)
- 20 milioane € sau 4% din cifra de afaceri globală (pentru abateri grave)
Legea 190/2018 este legea națională care completează și detaliază GDPR în România.
GDPR și Inteligența Artificială – relația esențială
Inteligența artificială (AI), în special sistemele care învață din date (machine learning), se bazează pe volume mari de date — inclusiv date personale. Asta înseamnă că, în multe cazuri, GDPR se aplică direct atunci când:
- AI-ul prelucrează date personale
- AI-ul generează decizii care afectează oameni
- AI-ul folosește profilare automată
Ce trebuie să faci dacă folosești AI și ești în România:
- Informează clar utilizatorii că folosești AI
- Oferă o politică de confidențialitate care include prelucrarea automată
- Oferă opțiunea de a contesta deciziile automate
- Asigură-te că ai un temei legal (consimțământ, contract, interes legitim etc.)
- Evită să folosești AI pentru decizii automate sensibile fără intervenție umană
3. Legislația națională
Nu există încă
În Uniunea Europeană (UE), regulamentele sunt acte legislative cu aplicabilitate directă în toate statele membre, inclusiv România. Ele sunt obligatorii în întregime și nu trebuie transpuse în legislația națională, spre deosebire de directive.
4. Alte regulamente
Regulamentul (UE) 2022/2065 – Regulamentul privind Serviciile Digitale (Digital Services Act – DSA)
https://eur-lex.europa.eu/eli/reg/2022/2065/oj/ron
Regulamentul DSA este un act legislativ al Uniunii Europene adoptat pentru a reglementa platformele online și serviciile digitale, asigurând un mediu digital mai sigur și mai transparent pentru utilizatori. A intrat în vigoare în noiembrie 2022, iar aplicabilitatea sa a început oficial în februarie 2024.
Regulamentul (UE) 2022/1925 – Regulamentul privind Piețele Digitale (Digital Markets Act – DMA)
https://eur-lex.europa.eu/eli/reg/2022/1925/oj/ron
DMA este un regulament al Uniunii Europene adoptat pentru a reglementa și asigura o concurență echitabilă pe piețele digitale. Se concentrează în special pe platformele digitale mari, denumite „controlori de acces” (gatekeepers), care dețin o poziție dominantă pe piață și pot influența semnificativ competiția și accesul utilizatorilor. A intrat în vigoare în noiembrie 2022 și se aplică începând cu mai 2023.
5. Directive
NIS 2 (Network and Information Security Directive) – 2023
https://eur-lex.europa.eu/TodayOJ/
Directiva europeană NIS2 (2023) înlocuiește NIS1 și stabilește un nivel comun ridicat de securitate cibernetică în UE.
Se aplică entităților din sectoare critice: energie, sănătate, transport, infrastructură digitală, administrație publică și impune măsuri de gestionare a riscurilor, monitorizare, raportare a incidentelor și responsabilitatea conducerii.
Ordonanța de Urgență nr. 155/2024 stabilește cadrul pentru securitatea cibernetică a rețelelor și sistemelor informatice din România, aplicabil entităților esențiale și importante, cu obligații privind managementul riscurilor, raportarea incidentelor și cooperarea instituțională, iar Legea nr. 124/2025 aprobă OUG 155/2024, clarificând domeniul de aplicare, relația cu protecția datelor și confidențialitatea informațiilor transmise.
6. Standarde internaționale
Pentru ca sistemele de inteligență artificială să fie sigure, transparente și responsabile, dezvoltatorii și companiile pot urma standardele internaționale ISO/IEC (Organization for Standardization (ISO) / International Electrotechnical Commission (IEC)
| Standard | Scop / Utilitate | Explicație pentru practică |
|---|---|---|
| ISO/IEC 22989:2022 | Terminologie și concepte de bază AI | Oferă un limbaj comun pentru dezvoltatori, cercetători și autorități, astfel încât toată lumea să înțeleagă conceptele fundamentale. |
| ISO/IEC 23053:2022 | Cadru pentru AI bazat pe învățare automată | Ajută la structurarea sistemelor AI cu componente, funcții și interacțiuni clar definite. |
| ISO/IEC 42001:2023 | Managementul sistemelor AI | Ghid pentru implementarea și îmbunătățirea continuă a unui sistem de management AI în organizații. |
| ISO/IEC 23894:2023 | Managementul riscurilor AI | Permite identificarea și reducerea riscurilor asociate cu sistemele AI înainte ca acestea să devină probleme reale. |
| ISO/IEC 5259 (serie) | Calitatea datelor pentru AI și ML | Asigură că datele folosite în modele AI sunt de calitate, reducând erorile și biasul. |
| ISO/IEC 5338:2023 | Procesele de viață ale sistemelor AI | Descrie etapele de proiectare, dezvoltare, operare și retragere ale unui sistem AI, pentru gestionarea eficientă a întregului ciclu de viață. |
OpenAI. (2025). ChatGPT (GPT-4). https://chat.openai.com