O treime dintre angajați folosesc unelte GenAI plătite din propriul buzunar, fără ca organizațiile să aibă vreo idee despre asta. Situația seamănă izbitor cu perioada de pionierat a cloud-ului, când servicii precum Dropbox sau WeTransfer erau folosite fără acordul IT-ului, și nimeni nu avea control asupra riscurilor. De ce a apărut acest fenomen de BYOAI (Bring Your Own AI)? Pentru că 60% dintre organizații încă nu au un plan clar pentru adopția AI, însă angajații vor să beneficieze de GenAI, și nu mai așteaptă ca firmele să țină pasul.
Este o realitate surprinsă și de raportul „2024 Work Trend Index”, realizat de Microsoft și LinkedIn, care arată că 52% dintre angajați ezită să recunoască faptul că folosesc aceste GenAI pentru activități legate de muncă. Situația generează tototdată și unele riscuri legate de utilizarea GenAI. EU AI ACT intrat în vigoare în august 2024 oferă o clasificare clară a riscurilor GenAI la care suntem expuși.
Inteligența artificială generativă, atunci când este folosită fără control, poate expune companiile la riscuri serioase reglementate de EU AI Act. Cele mai grave sunt aplicațiile cu risc inacceptabil, complet interzise – cum ar fi manipularea comportamentului fără consimțământ, clasificarea biometrică pe bază de etnie sau gen, scorurile sociale sau identificarea biometrică în timp real în spații publice. Astfel de practici contravin valorilor fundamentale ale UE și pot atrage sancțiuni severe. Pe lângă acestea, sistemele considerate cu risc înalt, precum cele care gestionează infrastructuri critice sau servicii esențiale, trebuie să respecte standarde stricte pentru a preveni efectele asupra sănătății, siguranței sau drepturilor oamenilor.
În zona de risc limitat intră sisteme precum chatboții sau recunoașterea emoțiilor, care trebuie să fie transparente – utilizatorii trebuie să știe clar că interacționează cu un AI. Cele cu riscuri GenAI minime, cum ar fi filtrele de spam sau AI-ul din jocuri, nu impun obligații majore, dar rămân totuși sub supraveghere. Pentru companii, asta înseamnă că implementarea genAI trebuie făcută responsabil, cu o evaluare clară a riscurilor și respectarea cadrului legal european.
Dar ce riscuri GenAI regăsim în activitățile zilnice?
Majoritatea angajaților (72%) accesează instrumente de GenAI folosind conturi personale. Dintre cei care folosesc conturi corporative, doar 12% se conectează prin autentificare unică (SSO). Așa se face că 90% din activitatea GenAI rămâne invizibilă pentru companie, arată raportul LayeX Enterprise GenAI Security 2025.

Încălcarea drepturilor de autor și a proprietății intelectuale
Unele modele de GenAI folosesc fără permisiune conținut protejat prin drepturi de autor, iar termenii de utilizare sunt adesea neclari în privința modului în care datele utilizatorilor sunt colectate și folosite. De exemplu, au existat cazuri în care cod sursă al companiilor a fost expus. În plus, lipsa de transparență privind datele de antrenament poate duce la probleme legale, așa cum s-a întâmplat în Italia, unde ChatGPT a fost interzis temporar din motive legate de confidențialitate și protecția datelor. O soluție poate fi utilizarea de versiuni enterprise sau private de GenAI, care oferă control sporit asupra datelor.
Halucinațiile GenAI
GenAI pot produce așa-numite „halucinații” – informații care par credibile, dar care nu reflectă realitatea. În loc să ofere fapte verificate, sistemele generează răspunsuri pe baza unor predicții extrase din datele de antrenament, ceea ce poate duce la conținut fals sau înșelător, prezentat drept adevăr. Să luăm ca exemplu o instituție financiară care folosește GenAI pentru recomandări de investiții. Sistemul generează un raport bazat pe date false, clientul investește și pierde bani. Rezultatul: pierderi financiare și de reputație pentru organizație, dar și posibile acțiuni legale. Verificarea umană rămâne singura soluție pentru validarea conținutului generat de AI.
Discriminare
Sistemele publice de GenAI sunt antrenate folosind date care pot încuraja prejudecăți, discriminare și inegalități. Ca urmare, AI poate produce texte, imagini, conținut audio și video care reflectă/amplifică discriminări bazate pe rasă, dizabilități, gen sau etnie. Un sistem GenAI folosit de HR pentru selecția candidaților poate favoriza anumite genuri sau etnii fără ca aceasta să reflecte politica companiei. Astfel, o organizație riscă să angajeze persoane nepotrivite, dar și să se confrunte cu consecințe legale și probleme de imagine. În astfel de situații, verificarea umană este esențială pentru a corecta eventualele bias-uri ale modelului.

Riscuri GenAI în zona de securitate cibernetică
GenAI este vulnerabilă în fața atacurilor de tip jailbreaking (hackerii ocolesc restricțiile inițiale ale modelului pentru a-l folosi în scopuri malițioase), data poisoning (introducerea intenționată de date false sau malițioase în setul de antrenament al unui model AI) și prompt injection (manipularea răspunsului/acțiunilor AI prin prompturi înșelătoare). Un chatbot de sănătate mintală bazat pe GPT poate fi manipulat să ofere răspunsuri inadecvate sau să divulge date confidențiale. Cum ne putem proteja? Limitând informațiile personale pe care le împărtășim în conversațiile cu AI și utilizând doar chatboți oferiți de organizații de încredere. La nivel de organziație, recomandăm derularea teste de securitate frecvente pentru a evita aceste riscuri.
Dependența operațională de GenAI
O întrebare importantă pentru toți cei care folosesc GenAI: cât ne-ar afecta munca dacă această tehnologie nu ar mai fi disponibilă? Pe măsură ce tot mai multe companii folosesc GenAI pentru diverse activități – de la suport clienți la analiză de date sau creare de conținut – riscul de blocaje crește. Dacă pică serverele, rezultate generate sunt eronate sau se modifică condițiile de licențiere, activitatea companiilor cu grad înalt de dependență de AI poate fi serios afectată sau chiar întreruptă.
Cum să limitezi aceste riscuri GenAI?
Utilizarea GenAI nu poate fi împiedicată, deși sunt manageri care au încercat. Totuși, fără reguli clare, GenAI e un factor de risc, de aceea tot mai multe organizații prioritizează implementarea de politici privind utilizarea GenAI. În plus, când AI devine coleg de birou, trebuie să fie de încredere.
Cea mai bună abordare reprezintă utilizarea GenAI într-un mod controlat cu asumarea termenelor și condițiilor comerciale. Este important să știi dacă datele încărcare sunt utilizate pentru antrenarea LLM-urilor, dacă sunt stocate, daca sunt utilizate în furnizarea de răspunsuri pentru alți utilizatori etc. În acest sens, o soluție enterprise precum Microsoft Copilot oferă un cadru sigur pentru utilizarea AI, cu guvernanță centralizată, protecția datelor organizaționale, trasabilitatea conținutului generat și integrare nativă cu aplicațiile de business – totul pentru ca AI-ul să accelereze procesele, nu să le complice.