Iata care sunt noile reguli pentru AI impuse de Biden

Categories ActualitatePosted on

Presedintele Joe Biden a emis un ordin executiv amplu care urmareste sa protejeze impotriva amenintarilor reprezentate de inteligenta artificiala, asigurandu-se ca actorii rai nu folosesc tehnologia pentru a dezvolta arme devastatoare sau pentru a organiza atacuri cibernetice supraalimentate. Miscarea evidentiaza un rol pentru guvernul federal intr-o industrie de aproape jumatate de trilion de dolari, in centrul concurentei acerbe dintre unele dintre cele mai mari companii ale natiunii, inclusiv Google si Amazon.

Administratia Biden cere, de asemenea, Congresului sa adopte legislatia privind confidentialitatea datelor, o realizare care a scapat de ani de zile parlamentarii, in ciuda multiplelor incercari.

Ordinul executiv exercita supravegherea testelor de siguranta pe care companiile le folosesc pentru a evalua robotii de conversatie precum ChatGPT si introduce standarde din industrie, cum ar fi filigranele pentru identificarea produselor alimentate cu inteligenta artificiala, printre alte reglementari.

Setul de reforme reprezinta „cel mai puternic set de actiuni pe care orice guvern din lume le-a intreprins vreodata cu privire la siguranta, securitatea si increderea in inteligenta artificiala”, a declarat Bruce Reed, seful adjunct al cabinetului Casei Albe, intr-un comunicat.

Iata ce este in ordinul executiv care incearca sa controleze AI:

Companiile AI trebuie sa efectueze teste de siguranta si sa impartaseasca rezultatele cu guvernul federal

O regula cheie stabilita prin ordinul executiv cere ca companiile de inteligenta artificiala sa efectueze teste ale unora dintre produsele lor si sa impartaseasca rezultatele cu oficialii guvernamentali inainte ca noile capabilitati sa devina disponibile consumatorilor.

Testele de siguranta intreprinse de dezvoltatori, cunoscute sub numele de „echipa rosie”, asigura ca noile produse nu reprezinta o amenintare majora pentru utilizatori sau publicul larg.

Daca o evaluare a sigurantei revine cu privire la rezultate, guvernul federal ar putea forta o companie fie sa imbunatateasca produsul, fie sa abandoneze o anumita initiativa.

Noile puteri guvernamentale sunt permise in temeiul Legii privind productia de aparare, o lege adoptata cu trei sferturi de secol in urma care a acordat Casei Albe un rol larg in supravegherea industriilor legate de securitatea nationala, a spus administratia Biden.

„Aceste masuri vor asigura ca sistemele AI sunt sigure, securizate si demne de incredere inainte ca companiile sa le faca publice”, a adaugat Casa Alba.

Un nou set de standarde stabileste normele din industria AI

Ordinul executiv stabileste un set extins de standarde din industrie in speranta de a crea produse transparente protejate de rezultate periculoase, cum ar fi materialele biologice inventate de IA sau atacurile cibernetice.

Un nou standard de mare profil ar codifica utilizarea filigranelor care alerteaza consumatorii atunci cand intalnesc un produs activat de AI, ceea ce ar putea limita amenintarea reprezentata de continutul impostor, cum ar fi deepfakes.

O alta regula ar asigura ca firmele de biotehnologie iau masurile de precautie corespunzatoare atunci cand folosesc IA pentru a crea sau manipula material biologic.

Ghidul industriei va functiona mai degraba ca sugestii decat ca mandate, lasand firmelor libere sa lase deoparte recomandarile guvernamentale.

Guvernul federal isi va folosi parghia ca finantator cheie al cercetarii stiintifice pentru a sustine conformitatea cu avertismentul privind materialul biologic, a spus Casa Alba. Intre timp, pentru a intari impulsul pentru filigrane, Casa Alba va cere agentiilor federale sa foloseasca markerii atunci cand implementeaza produse AI.

Totusi, ordinul executiv risca sa prezinte o viziune ambitioasa pentru viitorul AI, dar o putere insuficienta pentru a produce schimbarea la nivel de industrie, a declarat Sarah Kreps, profesor de guvern si director al Institutului de Politica Tehnologica de la Universitatea Cornell, intr-un comunicat.

„Noul ordin executiv da tonul potrivit, recunoscand atat promisiunea, cat si pericolele inteligentei artificiale”, a spus Kreps. „Ceea ce lipseste este un mecanism de punere in aplicare si de implementare. Este nevoie de o multime de actiuni care nu este probabil sa primeasca un raspuns.”

Agentiile guvernamentale se confrunta cu o supraveghere stricta a utilizarii AI

Ordinul executiv instruieste o gama larga de agentii guvernamentale sa implementeze modificari in utilizarea IA de catre acestea, ridicand institutiile federale drept exemple de practici pe care administratia spera in cele din urma sa fie adoptate de sectorul privat.

Programele de beneficii federale si contractantii, de exemplu, vor lua masuri pentru a se asigura ca AI nu inrautateste partinirea rasiala in activitatile lor, a spus Casa Alba. In mod similar, Departamentul de Justitie va stabili reguli privind cel mai bun mod de a investiga abuzurile drepturilor civile legate de IA.

Intre timp, Departamentul de Energie, precum si Departamentul de Securitate Interna vor lua masuri pentru a aborda amenintarea pe care AI o reprezinta pentru infrastructura critica.

Robert Weissman, presedintele grupului de promovare a consumatorilor Public Citizen, cu sediul in Washington DC, a laudat ordinul executiv, recunoscand in acelasi timp limitarile acestuia.

„Ordinul executiv de astazi este un pas esential al administratiei Biden pentru a incepe procesul lung de reglementare a tehnologiei AI care avanseaza rapid”, a spus Weissman. „Dar este doar un prim pas”.