„Efectul Bruxelles”. Cât de eficient va fi pentru controlarea inteligenței artificiale?

Data:

spot_img

Parlamentul European a făcut în această săptămână un pas istoric în privința reglementării inteligenței artificiale (IA), pe fondul îngrijorărilor tot mai mari cu privire la efectele nocive ale acestor tehnologii asupra societăților.

Eurodeputații au votat propunerea Comisiei Europene privind reglementarea inteligenței artificiale, un proiect legislativ cunoscut sub numele de IA Act. Blocul celor 27 se afirmă astfel drept lider mondial în ce privește reglementarea acestui domeniu, ale cărui progrese generează numeroase temeri, exprimate chiar de fondatorii marilor companii de tehnologie.

Ca și în cazul GDPR sau al serviciilor digitale (Digital Service Act) UE joacă un rol de lider, modelând apoi întregul spațiu global, avânt în spate argumentul celei mai mari piețe integrate a lumii.

Este ceea ce în limbajul politic se numește „efectul Bruxelles”.

Proiectul european imaginează o piramidă a riscului, având în vârf aplicațiile considerate drept cele mai periculoase. Și trebuie spus că mai bine de 80% dintre aplicații rămân în afara reglementării, tocmai pentru că nu prezintă riscuri la adresa societăților – cum ar fi aplicațiile menite să optimizeze procese industriale, consumuri de materii prime și energie, proiectarea unor produse inovative și așa mai departe.

Citește și: Moldova va avea un DNA după exemplul României

Problema apare atunci când aplicațiile IA intră în interferență directă cu oamenii – cu comportamentele și cu emoțiile lor.

Astfel că există o serie de aplicații care urmează să fie cu totul interzise în Uniunea Europeană.

Vor fi interzise aplicațiile care utilizează evaluarea comportamentului social, clasificând oamenii pe baza obiceiurilor, atitudinilor sau a caracteristicilor personale.

Acesta este principiul care stă la baza celebrelor „credite sociale” folosite de regimul comunist chinez – un set de recompense și sancțiuni în funcție de atitudini și comportamente ale fiecărei persoane. Acest tip de aplicații va fi interzis în Uniunea Europeană.  

Alte interdicții se referă la sistemele de identificare biometrică la distanță „în timp real” sau „ulterior” în spații accesibile publicului – acele sisteme de tip Big Brother care permit urmărirea și identificarea oricărei persoane aflate pe o stradă sau în orice alt spațiu public.  

Aici, Parlamentul European a avut mult de dezbătut un amendament al grupului PPE, care a dorit o excepție pentru acțiunile polițienești, antiteroriste sau de căutare a persoanelor dispărute.

Amendamentul a fost respins, majoritatea eurodeputaților dorind să elimine din start orice posibilitate, cât de mică, de producere a unor abuzuri.

Moscova folosește deja pe scară largă astfel de sisteme, care fac obiectul a numeroase suspiciuni și acuzații privind folosirea lor pentru urmărirea disidenților.

Franța ar dori să folosească supravegherea digitală, limitat pe perioada Jocurilor Olimpice de la Paris din 2024, o intenția primită cu critici din partea apărătorii drepturilor omului.  

Rămâne de văzut cum va arăta textul legislativ în urma medierii dintre parlament și Consiliu, știut fiind că unele state membre ar dori să folosească astfel de sisteme, în anumite condiții.

Surse din Parlamentul European susțin însă că respingerea amendamentului permite o poziționare puternică în fața Consiliului.

Vor fi interzise și sistemele biometrice de clasificare care folosesc caracteristici sensibile – de exemplu, genul, rasa, etnia, statutul de cetățenie, religia, orientarea politică.

De asemenea, nu vor fi permise sistemele polițienești bazate pe analiza predictivă, bazate pe profilare, localizare sau comportamentul infracțional anterior.    

Tot sub interdicție se vor afla sistemele de recunoaștere a emoțiilor la locul de muncă sau în cadrul instituțiilor de învățământ, ori în domeniul aplicării legii sau al gestionării frontierelor.

Nu va fi permisă nici extragerea fără scop precis a datelor biometrice din imaginile faciale de pe internet sau înregistrări făcute de televiziunile cu circuit închis, pentru a crea baze de date de recunoaștere facială.

Aceasta ar constitui o încălcare a drepturilor omului și dreptul la viață privată.  

Există apoi sisteme care, chiar dacă nu încalcă direct drepturile omului și normele democratice, pot constitui riscuri.  

Eurodeputații consideră drept aplicații cu grad ridicat de risc sistemele de IA care afectează în mod semnificativ sănătatea, siguranța sau drepturile fundamentale ale oamenilor ori mediul înconjurător.  

De pildă, sistemele folosite pentru a influența alegătorii și rezultatul alegerilor, ca și sistemele de recomandare utilizate de platformele de comunicare socială cu peste 45 de milioane de utilizatori.  

Furnizorii vor fi obligați să pună la dispoziția autorităților de reglementare și a publicului întregul setul de date și algoritmi care au stat la baza realizării aplicațiilor. Pe baza acestor date, autoritățile vor putea decide dacă aplicațiile sunt periculoase, astfel încât se poate ajunge la interzicerea lor.  

Deținătorii aplicațiilor vor fi obligați să evalueze și să atenueze posibilele riscuri – cum ar fi cele față de sănătate, siguranță, drepturile fundamentale, mediu, democrație sau statul de drept. Ei trebuie și să își înregistreze modelele în baza de date a Uniunii, înainte de a le lansa pe piață.  

Sistemele de IA generative, cum ar fi ChatGPT, ar trebui să respecte cerințele de transparență. Trebuie să divulge când un conținut a fost generat de IA, inclusiv pentru a ajuta la distingerea așa-numitelor imagini „deep fake” de cele reale.  

Citește și: Școala vieții împotriva școlii

Este de asemenea obligatorie introducerea de garanții împotriva generării de conținut ilegal. Furnizorii sunt obligați să pună la dispoziția publicului și rezumate detaliate ale datelor protejate prin drepturi de autor folosite pentru a antrena aceste sisteme.

Astfel, orice persoană care consider că opera i-a fost folosită fără drept se poate întoarce împotriva furnizorului de IA pentru a cere despăgubiri.  

Supravegherea acestei lumi complicate, fascinante, dar și înfricoșătoare în aceeași măsură ar urma să revină unui Oficiu al UE pentru IA dar și autorităților de reglementare din statele membre, ceea ce presupune o profesionalizare desăvârșită a acestora din urmă.

Iar întrebarea este în ce măsură această reglementare europeană se poate dovedi eficientă câtă vreme IA poate acționa „la liber” în restul lumii.

Unul dintre argumentele pro este acela că autoritățile europene au puterea de a scoate furnizorii de pe piață, iar UE reprezintă cea mai atractivă piață din lume. Concluzia: mai bine te adaptezi cerințelor decât să fii scos afară.  

În al doilea rând, există acest „efect Bruxelles” care constă în generarea de standard globale – de la normele de poluare pentru mașini la sistemele GDPR.

Citește și: „Efectul Bruxelles”. Cât de eficient va fi pentru controlarea inteligenței artificiale?

Din moment ce piața cea mai mare și mai râvnită a lumii îți impune anumite standarde, atunci devine mai costisitor să concepi și să fabrici două tipuri de produse, unul pentru UE și celălalt pentru restul lumii.  

Domeniul IA are însă suficiente părți întunecate pentru ca multe dintre aplicațiile sale să poată scăpa supravegherii, cel puțin pentru o perioadă.

Când va intra în vigoare, AI Act va marca, de fapt, startul unei bătălii continue pentru identificarea și sancționarea celor care încalcă legile și amenință societățile sau chiar democrațiile.

Înseamnă, de fapt, intrarea într-o nouă eră.

Urmăriți PressHUB și pe Google News!

spot_imgspot_img
Ovidiu Nahoi
Ovidiu Nahoihttp://rfi.ro
Ovidiu Nahoi este redactor șef al Radio France Internationale România. A fost redactor-șef al publicațiilor „Historia“ și „Foreign Policy“ (2007-2010) și corespondent la Bruxelles pentru Adevărul, în perioada 2010-2012. A realizat emisiuni pe teme de politică internațională la The Money Channel și TVR. A realizat documentarul „La Răsărit de Europa“, în regiunea Bugeac și Odesa, în 2014, pentru The Money Channel. Este autor al cărții „Povestiri de peste Prut“, apărută în 2019 la Editura Seneca.
1 COMENTARIU

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.

Distribuie articolul

spot_img

Știri de astăzi

Mai multe articole similare
Related

Cazul Mario Iorgulescu: „ICCJ își încalcă grav propria jurisprudență”

Cazul Mario Iorgulescu: „ICCJ își încalcă grav propria jurisprudență”....

Amestecul lui Hodorkovski. De ce nu face față Geoană

Are legături Mircea Geoană cu Moscova? De ce le...

Iliescu inocentul și ceilalți trei președinți

Iliescu inocentul și ceilalți trei președinți. După aproape 35...

Viitorul ca o viitură  | Revista22

Viitorul ca o viitură. Când părea că nimic nu...