La mijlocul lunii iunie, Parlamentul European a adoptat mult discutatul EU AI Act, cu 499 de voturi în favoare, 28 împotrivă și 93 de abțineri. Această legislație are ca scop asigurarea faptului că sistemele de inteligență artificială dezvoltate și utilizate în Europa respectă drepturile și valorile UE, inclusiv supravegherea umană, siguranța, confidențialitatea, transparența, nediscriminarea și bunăstarea socială și mediul înconjurător.
Textul propus de Parlamentul European subliniază câteva aspecte esențiale:
- interzicerea totală a utilizării Inteligenței Artificiale pentru supraveghere/recunoaștere biometrică, evaluare emoțională și stabilire scoruri sociale
- sistemele AI generative precum ChatGPT trebuie să fie revizuite înainte de lansarea comercială și să divulge că utilizatorii primesc un conținut generat de AI
- utilizarea sistemelor de AI pentru influențarea votanților în alegeri reprezintă un factor de mare risc
EU AI Act este primul set comprehensiv de reglementări pentru industria de inteligență artificială, o tehnologie care bulversează la propriu întreaga lume. În ultimul an, ceea ce pot realiza platformele de Inteligentă Artificială generativă (ChatGPT, Dall-E, Google Bard) de la scrierea de poezii, la generarea de cod, a impresionat atât industria şi consumatorii, cât şi mediul academic şi legislativ.
Simultan au apărut însă şi îngrijorări legate de înlocuirea locurilor de muncă, dezinformare și discriminare, aspecte pe care EU şi-a propus să le elimine. Ce e drept, EU AI Act a fost propus încă din 2021, dar negocierile s-au accelerat după lansarea ChatGPT anul trecut. Aprobarea Parlamentului Europeană asupra proiectului de lege este doar un pas în acest proces, iar până la aplicarea efectivă vor mai trece câțiva ani.
EU AI Act: Obiective
EE AI Act este prima lege asupra Inteligenței Artificiale adoptată la nivel global. Legea atribuie aplicațiilor AI trei categorii de risc. În primul rând, aplicațiile și sistemele care creează un risc inacceptabil, cum ar fi evaluarea socială condusă de guvern de tipul folosit în China, sunt interzise. În al doilea rând, aplicațiile de mare risc, cum ar fi un instrument de scanare CV care clasifică candidații la locuri de muncă, sunt supuse unor cerințe legale specifice. În cele din urmă, aplicațiile care nu sunt interzise în mod explicit sau listate ca fiind de mare risc sunt în mare parte nereglementate.
Legea europeană are câteva obiective clare:
- sistemele AI plasate pe piața Uniunii să fie sigure şi să respecte legislația existentă privind drepturile fundamentale ale omului și valorile Uniunii;
- sistemul juridic al EU să faciliteze investițiile și inovarea în domeniul AI;
- sistemele AI să fie sigure şi de încredere, iar piaţa să nu fie extrem de fragmentată
Prin viitoarea înființare a unor autorități naționale pentru AI, legislația va permite cetățenilor să depună sesizări sau plângeri împotriva furnizorilor de sisteme AI și, evident, va permite aplicarea unor măsuri punitive. Oarecum similar modului de aplicare a GDPR.
EU AI Act: Cerințe
EU AI Act pune accent pe etică și consideră că cetățenii ar trebui să aibă control deplin asupra propriilor date și datele lor nu ar trebui utilizate pentru a le prejudicia sau discrimina. În practică, acest lucru înseamnă că sistemele de AI ar trebui proiectate pentru a garanta confidențialitatea și protecția datelor.
Textul adoptat de Parlamentul European este complex, dar pe scurt lista prevederilor include:
- Crearea unui registru al aplicațiilor AI cu grad ridicat de risc în cadrul UE. Acest registru ar trebui să fie liber și accesibil publicului
- Transparența surselor datelor utilizate în antrenarea platformelor Large Language Models (LLMs) și furnizarea informațiilor asupra drepturilor de autor/copyright.
- Descrierea resurselor de calcul necesare pentru funcționarea platformei, timpul de antrenament și alte informații relevante legate de dimensiunea și puterea modelului, inclusiv energia consumată.
- Descrierea clară a performanței platformelor, inclusiv prin raportare la referințe din industrie (benchmark-uri).
- Transparență în descrierea rezultatelor obținute prin teste interne și externe.
- Descrierea clară a capacităților și limitărilor sistemelor
- Informarea consumatorilor că solicitările sunt gestionate de un sistem bazat pe IA și nu de angajați umani.
- Descrierea oricăror riscuri posibile sau previzibile asociate utilizării platformelor LLM-uri.
- Utilizarea seturilor de date etice în antrenarea platformelor, pentru a evita apariția de prejudecăți, evaluări părtinitoare, discriminare, etc.
- Asigurarea conformității cu reglementările înainte de lansarea efectivă pe piață, indiferent de tipul de licențiere sau distribuție (gratuită, abonament, directă sau indirectă).
- Sistemele trebuie să fie construite și dezvoltate într-un mod care să informeze utilizatorii că interacționează cu o platformă bazată pe Inteligență Artificială.
- Păstrarea documentațiilor tehnice relevante pentru o perioadă de cel puțin 10 ani.
Orizont de aplicabilitate
După decizia Parlamentului European, urmează negocierile privind forma finală a legii în cadrul Consiliului Europei. După acest pas, legea devine validă și intră în vigoare la 20 de zile după publicarea în Jurnalul Oficial al UE. De la această dată, statele membre au la dispoziție doi ani pentru armonizarea legislațiilor naționale, deci cel mai devreme în 2025.
Va mai trece timp până când EU AI Act se va regăsi în legislațiile tuturor țărilor europene, iar mulți analiști se întreabă dacă domeniul AI evoluează mult mai rapid și dacă, până când EU AI Act va avea putere de lege, acesta nu va fi deja depășit.
Cel mai probabil, da, însă tehnologiile disruptive (Internetul și Social Media sunt printre cele mai potrivite exemple) au fost întotdeauna greu de reglementat, pentru că au evoluat extrem de rapid. Uneori nici furnizorii acestor tehnologii nu au nu au o viziune completă asupra modului în care lucrurile vor evolua, iar din această perspectivă reglementările sunt utile chiar dacă apar cu o inevitabilă întârziere.