Meta, OpenAI, TikTok, Microsoft si Amazon au fost printre semnatarii acordului la Conferinta de securitate de la Munchen. X a lui Elon Musk s-a inscris si el. Marile companii de tehnologie au semnat un pact pentru a adopta in mod voluntar „masuri rezonabile” pentru a preveni utilizarea instrumentelor de inteligenta artificiala (AI) pentru a perturba alegerile democratice din intreaga lume.
Directori de la Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI si TikTok s-au reunit la Conferinta de Securitate de la Munchen pentru a anunta un nou cadru pentru modul in care raspund la deepfake-urile generate de AI care pacalesc in mod deliberat alegatorii.
Alte douasprezece companii – inclusiv X a lui Elon Musk – semneaza, de asemenea, acordul.
„Toata lumea recunoaste ca nicio companie de tehnologie, niciun guvern, nicio organizatie a societatii civile nu este capabila sa faca fata singure aparitiei acestei tehnologii si posibilei ei utilizari nefaste”, a declarat Nick Clegg, presedintele afacerilor globale pentru Meta, companie-mama a Facebook si Instagram, intr-un interviu inaintea summit-ului.
Acordul este in mare parte simbolic, dar vizeaza imagini, sunet si videoclipuri din ce in ce mai realiste generate de AI „care falsifica sau modifica inselator aspectul, vocea sau actiunile candidatilor politici, oficialilor electorali si ale altor parti interesate cheie intr-o alegere democratica sau care furnizarea de informatii false alegatorilor despre cand, unde si cum pot vota in mod legal”.
Companiile nu se angajeaza sa interzica sau sa elimine deepfake-urile. In schimb, acordul prezinta metodele pe care le vor folosi pentru a incerca sa detecteze si sa eticheteze continutul AI inselator atunci cand este creat sau distribuit pe platformele lor.
Acesta noteaza ca companiile vor impartasi cele mai bune practici si vor oferi „raspunsuri rapide si proportionale” atunci cand acel continut va incepe sa se raspandeasca.
Lipsa cerintelor obligatorii
Neclaritatea angajamentelor si lipsa oricaror cerinte obligatorii au ajutat probabil sa castige o gama diversa de companii, dar avocatii dezamagiti cautau asigurari mai puternice.
„Limbajul nu este atat de puternic pe cat s-ar fi asteptat”, a spus Rachel Orey, director asociat senior al Proiectului Electoral la Centrul de politici bipartizane.
„Cred ca ar trebui sa acordam credit acolo unde se cuvine creditul si sa recunoastem ca companiile au un interes personal ca instrumentele lor sa nu fie folosite pentru a submina alegeri libere si corecte. Acestea fiind spuse, este voluntar si vom fi cu ochii pe ochi. daca vor urma”.
Clegg a spus ca fiecare companie „are pe buna dreptate propriul set de politici de continut”.
„Aceasta nu este incercarea de a impune o camasa de forta tuturor”, a spus el.
„Si, in orice caz, nimeni din industrie nu crede ca poti face fata unei paradigme tehnologice cu totul noua, maturand lucrurile sub covor si incercand sa joci la cartita si gasind tot ce crezi ca poate induce in eroare pe cineva”.
Mai multi lideri politici din Europa si SUA s-au alaturat, de asemenea, anuntului de vineri. Vicepresedintele Comisiei Europene, Vera Jourova, a spus ca, desi un astfel de acord nu poate fi cuprinzator, „contine elemente pozitive si de mare impact”.
De asemenea, ea i-a indemnat pe colegii politicieni sa-si asume responsabilitatea de a nu folosi instrumentele inteligentei artificiale in mod inselator si a avertizat ca dezinformarea alimentata de inteligenta artificiala ar putea aduce „sfarsitul democratiei, nu numai in statele membre ale UE”.
Interferenta electorala a AI este deja in curs
Acordul de la reuniunea anuala de securitate a orasului german vine in momentul in care peste 50 de tari urmeaza sa organizeze alegeri nationale in 2024. Bangladesh, Taiwan, Pakistan si cel mai recent Indonezia au facut deja acest lucru.
Incercarile de interferenta electorala generata de inteligenta artificiala au inceput deja, cum ar fi atunci cand apelurile automate ale inteligentei artificiale care imitau vocea presedintelui american Joe Biden au incercat sa descurajeze oamenii sa voteze la alegerile primare din New Hampshire de luna trecuta.
Cu doar cateva zile inainte de alegerile din Slovacia din noiembrie, inregistrarile audio generate de inteligenta artificiala au uzurpat identitatea unui candidat care discuta despre planurile de a creste preturile la bere si de a truca alegerile. Verificatorii de fapte au incercat sa le identifice ca fiind false pe masura ce se raspandeau pe retelele sociale.
De asemenea, politicienii au experimentat cu tehnologia, de la utilizarea chatbot-urilor AI pentru a comunica cu alegatorii pana la adaugarea de imagini generate de AI la reclame.
Acordul solicita platformelor „sa acorde atentie contextului si in special protejarii exprimarii educationale, documentare, artistice, satirice si politice”.
Acesta a spus ca companiile se vor concentra pe transparenta utilizatorilor cu privire la politicile lor si vor lucra pentru a educa publicul despre cum pot evita sa se indrageasca de falsurile AI.
Majoritatea companiilor au declarat anterior ca pun masuri de protectie propriilor instrumente AI generative care pot manipula imaginile si sunetul, lucrand in acelasi timp pentru a identifica si eticheta continutul generat de AI, astfel incat utilizatorii retelelor sociale sa stie daca ceea ce vad este real. Dar cele mai multe dintre aceste solutii propuse nu au fost inca lansate, iar companiile s-au confruntat cu presiuni sa faca mai mult.
Aceasta presiune este sporita in SUA, unde Congresul nu a adoptat inca legi care sa reglementeze AI in politica, lasand companiile sa se auto autogumineze in mare masura.
Comisia Federala de Comunicatii a confirmat recent ca clipurile audio generate de AI in apelurile automate sunt impotriva legii, dar asta nu acopera deepfakes audio atunci cand circula pe retelele sociale sau in reclamele de campanie.
Multe companii de social media au deja in vigoare politici pentru a descuraja postarile inselatoare despre procesele electorale – generate sau nu de inteligenta artificiala.
Meta spune ca elimina informatiile gresite despre „date, locatii, orele si metodele de votare, inregistrarea alegatorilor sau participarea la recensamant”, precum si alte postari false menite sa interfereze cu participarea civica a cuiva.
Absentii de la acord
Jeff Allen, co-fondator al Institutului de Integritate si fost om de stiinta de date pe Facebook, a spus ca acordul pare un „pas pozitiv”, dar si-ar dori totusi sa vada companiile de social media iau alte actiuni pentru a combate dezinformarea, cum ar fi construirea de recomandari de continut. sisteme care nu acorda prioritate angajamentului mai presus de orice.
Lisa Gilbert, vicepresedinte executiv al grupului de advocacy Public Citizen, a sustinut vineri ca acordul „nu este suficient” si ca companiile de inteligenta artificiala ar trebui sa „retina tehnologia”, cum ar fi generatoarele hiperrealiste de text-to-video „pana cand exista substante si masuri de protectie adecvate care sa ne ajute sa evitam multe probleme potentiale”.
Pe langa companiile care au ajutat la intermediarea acordului de vineri, alti semnatari includ dezvoltatorii de chatbot Anthropic si Inflection AI; ElevenLabs, pornire cu clona vocala; designer de cipuri Arm Holdings; companiile de securitate McAfee si TrendMicro; si Stability AI, cunoscuta pentru realizarea generatorului de imagini Stable Diffusion.
In mod deosebit, lipseste un alt generator de imagini AI popular, Midjourney. Startup-ul din San Francisco nu a raspuns imediat unei solicitari de comentarii vineri.
Includerea lui X – nementionat intr-un anunt anterior despre acordul in asteptare – a fost una dintre surprizele acordului de vineri.
Musk a redus drastic echipele de moderare a continutului dupa ce a preluat fostul Twitter si s-a descris drept un „absolutist al libertatii de exprimare”.
Intr-o declaratie de vineri, CEO-ul X, Linda Yaccarino, a declarat ca „fiecare cetatean si companie are responsabilitatea de a proteja alegeri libere si corecte”.
„X este dedicat sa-si joace rolul, colaborand cu colegii pentru a combate amenintarile AI, protejand totodata libertatea de exprimare si maximizand transparenta”, a spus ea.