
Cum aplici AI Act în HR Tech (2025)
AI Act clasifică sistemele de inteligență artificială în 4 categorii de risc: interzise, risc înalt, risc limitat și risc minim. În HR tech, majoritatea funcțiilor se încadrează în risc înalt, pentru că influențează direct viața profesională a oamenilor.
În acest articol, vom explora ce înseamnă acest lucru pentru companii, cum să respectăm regulile fără să blocăm inovația și cum să comunicăm etic cu candidații.
1. Sistemele de AI din HR – de ce sunt considerate de risc ridicat și ce înseamnă asta pentru companii
În domeniul HR, majoritatea sistemelor de inteligență artificială sunt încadrate automat în categoria „risc ridicat”, deoarece ele pot influența direct decizii care afectează viața profesională a unei persoane. Un algoritm care filtrează CV-uri, de exemplu, poate decide dacă un candidat este chemat la interviu sau respins, iar o soluție de AI care analizează tonul vocii într-un interviu video poate genera un scor ce va influența percepția recrutorului. Un astfel de impact necesită, inevitabil, o abordare riguroasă.
Exemplu concret: Un startup HR Tech dezvoltă un modul de pre-screening care acordă fiecărui candidat un „scor de potrivire”. Dacă acest scor este folosit de recrutor ca filtru principal, sistemul este de risc ridicat. Dacă însă scorul este doar o sugestie vizuală, iar recrutorul vede toate candidaturile în mod egal, se apropie mai mult de risc limitat — dar, în practică, majoritatea clienților folosesc scorul ca decizie practică, deci produsul trebuie tratat ca high risk.
2. Documentație tehnică robustă – cum explicăm algoritmul fără a-l simplifica excesiv
AI Act cere ca organizațiile să poată explica modul în care funcționează sistemul AI – nu doar la nivel teoretic, ci într-un mod care permite autorităților și utilizatorilor profesioniști să evalueze riscurile. Pentru HR, asta înseamnă să descrii traseul complet al datelor: de la cum sunt extrase din CV-uri, la cum sunt transformate în embedding-uri, până la modul în care un model de clasificare sau un LLM generează scoruri sau recomandări.
Exemplu concret: Un sistem de analiză a CV-urilor folosește un model care extrage competențe și experiențe. Documentația trebuie să explice:
- ce date au fost folosite pentru antrenare;
- cum se extrag competențele (regex? embeddings? LLM?);
- cum se calculează scorul final (ponderi? regresie? matching semantic?);
- limitările tehnice (de ex., CV-uri în formate neobișnuite pot fi interpretate eronat);
- ce tipuri de biasuri sunt posibile (preferință pentru anumite universități, industrii etc.).
Această transparență nu este doar o cerință legală, ci și un mijloc de a crește calitatea produsului.
3. Supravegherea umană – o responsabilitate reală, nu o bifă formală
Conform AI Act, supravegherea umană trebuie să fie „semnificativă”, ceea ce înseamnă că oamenii implicați în procesul decizional trebuie să poată înțelege și evalua critic outputul algoritmului. Supravegherea umană devine un filtru de responsabilitate, nu un ornament procedural.
Exemplu concret: Dacă un algoritm respinge 80% dintre aplicanți pentru un job de marketing bazându-se pe criterii învățate din date istorice, recrutorii trebuie:
- să vadă clar motivele scorului generat;
- să poată accepta candidați respinși de AI;
- să știe că sunt responsabili pentru decizia finală, nu algoritmul.
Astfel, nu este suficient ca o persoană să „vadă scorul”; persoana trebuie să aibă libertatea reală de a-l ignora.
4. Calitatea datelor – de ce datele istorice pot amplifica nedreptățile
Orice algoritm este limitat de calitatea datelor pe care le primește, iar în HR această problemă devine cu atât mai acută cu cât practicile de angajare din trecut conțin, inevitabil, biasuri. Politica internă trebuie să explice cum sunt colectate, analizate și curățate datele, astfel încât modelul să nu preia preferințe istorice și să le transforme în reguli predictive.
Exemplu concret: Dacă o companie a angajat mai mulți bărbați decât femei în domenii tehnice în ultimii 10 ani, un model AI poate învăța — chiar fără intenție — că CV-urile de femei au o probabilitate mai mică de potrivire. Pentru a evita aceste situații, echipa trebuie să:
- identifice dezechilibrele;
- rebalanseze datele;
- excludă caracteristicile sensibile când este posibil;
- testeze modelul pe grupuri definite demografic.
5. Audit și monitorizare continuă – de ce un model bun azi poate fi un model riscant mâine
Unul dintre riscurile majore în HR este „model drift” — degradarea performanței în timp. AI Act cere verificări periodice, iar în HR acestea sunt critice deoarece natura joburilor, competențelor și comportamentelor pieței se schimbă constant.
Exemplu concret: Un algoritm antrenat pe CV-uri din 2020 poate interpreta greșit competențe noi apărute în 2024, cum ar fi specializări din AI generativă, roluri hibride (prompt engineer), sau competențe transversale mai actuale.
Auditul periodic poate detecta astfel de probleme înainte ca ele să afecteze deciziile de recrutare.
6. Transparența față de utilizatori – cum explicăm AI fără să speriem candidații
AI Act cere ca fiecare candidat evaluat cu ajutorul AI să fie informat clar. Aceasta nu înseamnă texte juridice lungi, ci o comunicare simplă, transparentă și ușor de înțeles.
Exemplu concret: Un mesaj corect ar putea suna astfel:
„Analizăm CV-ul tău cu ajutorul unui sistem AI pentru a identifica competențele relevante. Decizia finală aparține unui recrutor. Dacă preferi ca aplicația ta să fie evaluată exclusiv de o persoană, ne poți solicita acest lucru în orice moment.”
Un astfel de mesaj întărește încrederea și previne acuzațiile de lipsă de transparență.
7. Trasabilitate și loguri – pentru a putea explica deciziile, trebuie să le putem reconstrui
AI Act insistă asupra păstrării logurilor deoarece, în caz de dispută sau audit, organizația trebuie să poată arăta ce inputuri au dus la un anumit output. Această trasabilitate protejează compania și oferă claritate candidaților.
Exemplu concret: Dacă un candidat cere explicații privind respingerea, logurile pot arăta:
- ce competențe au fost extrase din CV;
- ce scoruri au fost generate;
- ce versiune a modelului a procesat datele;
- ce criterii au fost determinate relevante.
Astfel, decizia nu pare arbitrară, ci poate fi discutată și justificată.



Cum pot startup-urile și companiile mici din HR Tech să implementeze AI Act fără să blocheze inovația
Deși multe discuții despre AI Act se concentrează pe marile companii sau pe platformele complexe care operează la scară globală, realitatea este că o bună parte dintre inovațiile din HR Tech sunt generate de startup-uri mici, adesea alcătuite din echipe reduse, foarte agile, care construiesc produse în ritm accelerat și care trebuie să facă față unei presiuni constante: aceea de a livra funcționalități noi fără să compromită calitatea, echitatea sau încrederea clienților. Pentru aceste organizații, conformitatea cu AI Act poate părea, inițial, o povară administrativă disproporționată, însă dacă este abordată inteligent, ea poate deveni un catalizator de maturizare tehnologică și un diferențiator pe o piață tot mai competitivă.
În acest sens, primul pas decisiv este înțelegerea faptului că nu toate obligațiile prevăzute de AI Act trebuie implementate simultan sau într-un mod masiv, ci dimpotrivă, pot fi integrate treptat în fluxurile deja existente de dezvoltare, într-un mod natural, aproape organic, astfel încât fiecare etapă — de la colectarea datelor până la lansarea unui nou feature — să devină o ocazie de a consolida atât produsul, cât și încrederea utilizatorilor. De exemplu, multe startup-uri pot începe prin a documenta modul în care datele sunt prelucrate, nu într-un document juridic sofisticat, ci într-un ghid tehnic intern, scris în termeni simpli, care descrie în mod clar ce face sistemul, ce nu face și care sunt limitele sale; ulterior, această documentație poate fi extinsă, rafinată și adaptată către standardele AI Act fără a întrerupe fluxul de dezvoltare.
Un alt element crucial pentru startup-uri este stabilirea unei forme de supraveghere umană care să fie, în același timp, realistă și eficientă. În loc să creeze roluri noi sau procese complicate, companiile mici pot desemna un „responsabil de echitate și integritate AI”, un rol care nu trebuie să fie ocupat neapărat de un expert în etică sau de un jurist, ci de o persoană care înțelege produsul, logica modelului și impactul acestuia asupra utilizatorilor. Acest rol poate funcționa ca un filtru de responsabilitate, asigurând că fiecare schimbare majoră — fie în date, fie în algoritm, fie în interfața cu utilizatorul — este analizată și din perspectiva impactului asupra candidaților și angajaților.
De asemenea, startup-urile pot adopta o filozofie simplă, dar extrem de eficientă: „mai bine explicăm mai mult decât mai puțin”. În practică, aceasta înseamnă să includă în platformă mesaje scurte, dar explicite, care informează candidații despre folosirea AI în procesul de evaluare, despre rolul oamenilor în decizie și despre posibilitatea de a solicita o analiză umană completă a candidaturii. Chiar dacă legea nu impune mereu detalii exhaustive, acest tip de deschidere construiește un capital de încredere pe care organizațiile mari îl obțin mult mai greu, tocmai pentru că percepția utilizatorilor asupra lor este adesea mai rigidă.
Pentru companiile mici este util și să adopte o abordare incrementală în ceea ce privește auditul algoritmic, folosind instrumente open-source sau teste interne simple, dar relevante, prin care pot identifica rapid eventualele biasuri sau degradări ale performanței. De exemplu, înainte de lansarea unei noi versiuni a modelului, startup-ul poate crea un set de CV-uri fictive — unele care reprezintă candidatul ideal, altele care reprezintă cazuri-limită, plus un set de CV-uri divers demografice — și poate vedea dacă algoritmul se comportă într-un mod consecvent și echitabil. Acest tip de testare, deși simplu, poate preveni situații neplăcute înainte ca acestea să ajungă la clienți reali.
Nu în ultimul rând, startup-urile pot transforma conformitatea cu AI Act într-o strategie de poziționare competitivă, deoarece piața HR Tech este saturată de soluții care promit performanță, dar relativ puține dintre ele oferă garanții reale în ceea ce privește corectitudinea, transparența sau responsabilitatea tehnologică. Comunicarea clară a faptului că produsul respectă principiile AI Act, că este auditat periodic și că oferă utilizatorilor control asupra modului în care sunt folosite datele lor poate diferenția brandul într-un mod semnificativ, mai ales în fața clienților enterprise sau a celor din industrii reglementate.
Ghid pentru comunicarea etică cu candidații în contextul utilizării AI în HR

Într-un ecosistem profesional în care tehnologiile bazate pe inteligență artificială devin tot mai integrate în fluxurile de evaluare și selecție, comunicarea cu candidații nu poate rămâne un simplu element procedural, ci trebuie să se transforme într-o componentă centrală a eticii organizaționale, deoarece modul în care explicăm utilizarea acestor tehnologii influențează nu doar percepția asupra companiei, ci și nivelul de încredere pe care oamenii sunt dispuși să îl acorde procesului de recrutare. O comunicare cu adevărat etică nu înseamnă doar a respecta obligațiile legale, ci presupune să explicăm lucrurile într-un mod clar, accesibil și lipsit de ambiguități, astfel încât fiecare candidat să înțeleagă pe deplin rolul AI-ului în analiza profilului său, fără să simtă că se află în fața unei „cutii negre” care produce rezultate neexplicabile.
Prima regulă fundamentală este să oferim informații înainte ca AI-ul să fie utilizat, nu după, și să formulăm această informare într-un limbaj care evită jargonul tehnic sau frazele juridice stufoase. Candidatul trebuie să știe, încă din momentul aplicării, dacă profilul lui va fi analizat cu ajutorul unui instrument AI, ce fel de date vor fi procesate, ce tip de output poate genera sistemul și, mai ales, ce rol are o persoană în decizia finală. Atunci când un candidat înțelege că algoritmul nu este un înlocuitor al judecății umane, ci doar un instrument de sprijin, nivelul de anxietate scade, iar percepția asupra corectitudinii procesului crește semnificativ.
O comunicare etică presupune, de asemenea, să nu exagerăm capabilitățile sistemului și să nu creăm impresia că modelul are o precizie infailibilă sau că poate evalua trăsături psihologice, emoționale sau comportamentale pe baza unor indicii superficiale. Mulți candidați se tem de sisteme automate tocmai pentru că au fost expuși la narațiuni exagerate despre tehnologia de evaluare, iar un mesaj care clarifică în mod explicit limitele modelului — de exemplu, că AI-ul nu „judecă” inteligența emoțională, motivația reală sau personalitatea — contribuie la crearea unui climat de onestitate.
Un alt element crucial îl reprezintă posibilitatea candidatului de a solicita o evaluare complet umană sau de a contesta un rezultat automat, iar această opțiune trebuie prezentată într-un mod care să nu facă persoana să se simtă incomodă, stânjenită sau ca și cum ar încălca o regulă nescrisă. O comunicare etică oferă alternative fără presiune, explicând că procesul este flexibil și orientat către drepturile candidatului, nu către rigiditatea tehnologiei.
Tot în spiritul transparenței, companiile ar trebui să ofere candidaților explicații ușor de înțeles despre motivele pentru care au primit un anumit rezultat, acolo unde acest lucru este posibil, fără a dezvălui secrete comerciale sau aspecte sensibile ale modelului. De exemplu, dacă un candidat solicită detalii, este mult mai util să explicăm că evaluarea s-a bazat pe potrivirea competențelor tehnice cu cerințele rolului decât să oferim un scor abstract sau o formulă matematică inaccesibilă.
În fine, un element adesea ignorat, dar extrem de valoros, este tonul comunicării. O abordare caldă, empatică și orientată spre claritate umanizează procesul de evaluare și atenuează percepția de impersonalitate pe care tehnologia o poate crea. În HR, cuvintele au un impact profund, iar comunicarea etică nu înseamnă doar ce spunem, ci și cum o spunem: cu respect, cu deschidere și cu recunoașterea faptului că în spatele fiecărui CV se află o persoană reală, cu aspirații, vulnerabilități și așteptări legitime.
Concluzii
Aplicarea AI Act în HR Tech nu este doar o obligație legală, ci o oportunitate strategică de a reconstrui încrederea în procesele de recrutare și selecție. Tehnologia poate accelera deciziile și poate crește eficiența, dar adevărata valoare stă în modul în care oamenii gestionează aceste instrumente: prin supraveghere umană semnificativă, audit continuu, transparență totală și comunicare etică cu candidații.
Companiile și startup-urile care integrează aceste principii nu doar respectă legea, ci transformă conformitatea într-un avantaj competitiv, construind produse corecte, sigure și respectuoase față de utilizatori.
În HR Tech, succesul nu înseamnă doar inovație tehnologică, ci și echilibru între AI și responsabilitatea umană, astfel încât fiecare decizie să fie justificată, explicabilă și percepută ca fiind corectă.
OpenAI. (2025). ChatGPT (GPT-5 mini). https://chat.openai.com