Avem nevoie de o noua lege pentru IA?
Reglementarea a fost candva un cuvant murdar in companiile de tehnologie din intreaga lume. Ei au sustinut ca, daca oamenii isi doreau smartphone-uri si masini zburatoare mai bune, trebuia sa privim dincolo de vechile legi prafuite, imaginate in era pre-internet.
Dar ceva profund se intampla. Mai intai o soapta, iar acum un vuiet: legea s-a intors.
Ed Husic, ministrul federal Australiei responsabil pentru politica tehnologica, conduce o revizuire o data la o generatie a legislatiei australiene, intrebandu-i pe australieni cum ar trebui sa se schimbe legea noastra pentru era AI. El a spus recent pentru ABC: „Cred ca era autoreglementarii s-a incheiat”.
Sigur, au existat avertismente. Husic a precizat ca reglementarile pentru IA ar trebui sa se concentreze pe „elementele cu risc ridicat” si „obtinerea echilibrului corect”. Dar schimbarea retorica a fost inconfundabila: daca am fi permis crearea unui fel de vest salbatic digital, trebuie sa se termine.
Companiile de tehnologie cer reglementari – dar de ce?
Un moment ar putea rezuma zorii acestei noi ere. Pe 16 mai, Sam Altman – directorul executiv al OpenAI, compania responsabila de ChatGPT – a declarat in Congresul SUA, „reglementarea AI este esentiala”.
Pe fata, aceasta pare o transformare uluitoare. In urma cu mai putin de un deceniu, motto-ul Facebook era „misca-te repede si sparge lucrurile”. Cand fondatorul sau, Mark Zuckerberg, a rostit acele cuvinte pe care le-a rostit pentru o generatie de frati din domeniul tehnologiei din Silicon Valley, care au vazut legea ca pe o frana de mana pentru inovatie.
Reforma este urgenta, asa ca trebuie sa profitam de acest moment. Dar mai intai ar trebui sa ne intrebam de ce lumea tehnologiei a devenit brusc indragostita de reglementare.
O explicatie este ca liderii tehnologiei pot vedea ca, fara o reglementare mai eficienta, amenintarile asociate cu inteligenta artificiala ar putea umbri potentialul sau pozitiv.
Am avut recent mementouri tragice despre valoarea reglementarii. Ganditi-va la OceanGate, compania din spatele submersibilului care cauta Titanic, care s-a dezintegrat la inceputul acestui an, ucigand pe toti cei aflati la bord. OceanGate a evitat certificarea de siguranta, deoarece „a aduce o entitate externa la curent cu fiecare inovatie inainte de a fi testata in lumea reala este anatema inovatiei rapide”.
Poate ca a existat o schimbare reala a inimii: companiile de tehnologie stiu cu siguranta ca produsele lor pot dauna si pot ajuta. Dar se joaca si altceva. Cand companiile de tehnologie solicita guvernelor sa faca legi pentru IA, exista o premisa nedeclarata: in prezent, nu exista legi care sa se aplice AI.
Dar acest lucru este pur si simplu gresit.
Legile existente se aplica deja AI
Legile noastre actuale precizeaza ca, indiferent de ce forma de tehnologie este utilizata, nu va puteti implica intr-un comportament inselator sau neglijent.
Sa presupunem ca sfatuiti oamenii cu privire la alegerea celei mai bune polite de asigurare de sanatate, de exemplu. Nu conteaza daca iti bazezi sfatul pe un abac sau pe cea mai sofisticata forma de IA, este la fel de ilegal sa iei comisioane secrete sau sa oferi sfaturi neglijente.
Te-ar putea interesa si: 3 moduri inteligente de a rula o cautare inversa a imaginii pentru orice fotografieO parte semnificativa a problemei in era AI nu este continutul legii noastre, ci faptul ca aceasta nu este aplicata in mod constant atunci cand vine vorba de dezvoltarea si utilizarea AI. Aceasta inseamna ca autoritatile de reglementare, tribunalele, avocatii si sectorul comunitar trebuie sa-si imbunatateasca jocul pentru a se asigura ca drepturile omului si protectia consumatorilor sunt aplicate in mod eficient pentru AI.
Aceasta va fi o treaba mare. In prezentarea noastra la revizuirea AI a guvernului, noi, la Universitatea de Tehnologie din Sydney Human Technology Institute, solicitam crearea unui Comisar AI – un expert consultant independent pentru guvern si sectorul privat. Acest organism ar reduce hype-ul si zgomotul alb si ar oferi sfaturi clare autoritatilor de reglementare si intreprinderilor cu privire la modul de utilizare a AI in litera si spiritul legii.
Australia trebuie sa ajunga din urma cu lumea
Australia a trecut printr-o perioada de letargie politica extrema pe frontul AI. In timp ce Uniunea Europeana, America de Nord si mai multe tari din Asia (inclusiv China) au creat balustrade legale, Australia a intarziat sa actioneze.
In acest context, revizuirea reglementarilor pentru IA este cruciala. Nu ar trebui sa copiem fara minte alte jurisdictii, dar legea noastra ar trebui sa asigure paritatea de protectie pentru australieni.
Aceasta inseamna ca parlamentul australian ar trebui sa adopte un cadru legal adecvat pentru sistemul nostru politic si juridic. Daca acest lucru inseamna abaterea de la proiectul de lege al UE AI, totul este bine, dar legea noastra trebuie sa protejeze australienii de riscurile IA cel putin la fel de eficient precum oamenii sunt protejati in Europa.
Informatiile personale sunt combustibilul pentru AI, asa ca punctul de plecare ar trebui sa fie actualizarea legii noastre privind confidentialitatea. Departamentul Procurorului General a publicat o revizuire care ar moderniza legea noastra privind confidentialitatea, dar inca nu vedem niciun angajament pentru schimbare.
Reforma este deosebit de urgenta pentru utilizarile cu risc ridicat ale inteligentei artificiale, cum ar fi tehnologia de recunoastere faciala. O serie de investigatii efectuate de CHOICE au aratat ca companiile folosesc din ce in ce mai mult aceasta tehnologie in centrele comerciale, stadioanele sportive si la locul de munca – fara o protectie adecvata impotriva inechitatii sau a supravegherii in masa.
Exista solutii clare de reforma care permit utilizarea in siguranta a recunoasterii faciale, dar avem nevoie de leadership politic.
Guvernul trebuie sa faca AI corect
Guvernul trebuie, de asemenea, sa dea un exemplu bun. Comisia Regala Robodebt a aratat in detaliu ingrozitor cum sistemul automatizat al guvernului federal de recuperare a datoriilor in sistemul de asistenta sociala a mers ingrozitor de prost, cu prejudicii enorme si larg raspandite asupra comunitatii.
Lectia din aceasta experienta nu este ca ar trebui sa aruncam toate computerele. Dar arata ca avem nevoie de balustrade clare si puternice, care sa asigure ca guvernul este lider in utilizarea AI in siguranta si in mod responsabil.