Lupta cu deepfake-urile in anul electoral 2024. Acord semnat de marile companii americane de inteligenta artificiala, X-ul lui Elon Musk nu s-a alaturat

externe

Votare in Romania

Principalele companii de inteligenta artificiala intentioneaza sa semneze un „acord” prin care se angajeaza sa dezvolte tehnologii pentru a identifica, eticheta si controla imaginile, videoclipurile si inregistrarile audio generate de inteligenta artificiala care au ca scop inselarea alegatorilor inainte de alegerile cruciale din mai multe tari din acest an, relateaza Washington Post.

Acordul, dezvoltat de Google, Microsoft si Meta, precum si de OpenAI, Adobe si TikTok, nu interzice insa continutul politic inselator al AI, potrivit unei copii obtinute de The Washington Post. X, anterior Twitter, nu a fost semnatar al acordului.

In schimb, documentul echivaleaza cu un manifest referitor la continutul generat de inteligenta artificiala, o mare parte din acesta fiind creat de instrumentele companiilor si postat pe platformele acestora, care prezinta riscuri pentru alegerile corecte si prezinta masuri pentru a incerca sa atenueze acest risc, cum ar fi etichetarea continutului suspectat de inteligenta artificiala si educarea publicului cu privire la pericolele acesteia.

„Generarea si distribuirea intentionata si nespecificata a continutului electoral inselator al IA poate induce in eroare publicul in moduri care pun in pericol integritatea proceselor electorale”, se arata in acord.

Imaginile generate de AI, sau „deepfakes”, exista de mai multi ani. Insa, in ultimul an, acestea si-au imbunatatit rapid calitatea, pana in punctul in care unele videoclipuri, imagini si inregistrari audio false sunt greu de distins de cele reale. De asemenea, instrumentele pentru a le crea sunt acum disponibile pe scara larga, ceea ce face ca producerea lor sa fie mult mai usoara.

Continutul generat de inteligenta artificiala a aparut deja in campaniile electorale din intreaga lume. In Pakistan, candidatul prezidential Imran Khan a folosit IA pentru a tine discursuri – din inchisoare. In ianuarie, un apel telefonic robot care pretindea ca este presedintele Biden a incurajat oamenii sa nu voteze la alegerile primare din New Hampshire. Apelurile au folosit o versiune generata de AI a vocii lui Biden.

Companiile din domeniul tehnologiei au fost presate de autoritatile de reglementare, de cercetatorii in domeniul inteligentei artificiale si de activistii politici sa limiteze raspandirea continutului electoral fals. Noul acord este similar cu un angajament voluntar pe care aceleasi companii, precum si alte cateva, l-au semnat in iulie, dupa o intalnire la Casa Alba, in cadrul careia s-au angajat sa incerce sa identifice si sa eticheteze continutul fals de inteligenta artificiala pe site-urile lor. In noul acord, companiile se angajeaza, de asemenea, sa educe utilizatorii cu privire la continutul AI inselator si sa fie transparente in ceea ce priveste eforturile lor de a identifica deepfakes.

Companiile de tehnologie au deja propriile politici privind continutul politic generat de AI. Meta, compania mama a Facebook si Instagram, cere agentilor de publicitate politica sa dezvaluie daca folosesc AI in reclamele de pe platformele sale. YouTube cere creatorilor sa eticheteze continutul generat de AI care pare realist atunci cand il posteaza pe site-ul video detinut de Google.

Cu toate acestea, incercarile de a construi un sistem amplu in care continutul de inteligenta artificiala sa fie identificat si etichetat pe retelele de socializare nu au fost inca finalizate. Google a prezentat tehnologia de „filigranare”, dar nu le cere clientilor sai sa o foloseasca. Adobe, proprietarul Photoshop, s-a pozitionat ca lider in ceea ce priveste limitarea continutului de inteligenta artificiala, dar propriul sau site de fotografii a fost recent plin de imagini false despre razboiul din Gaza.

Urmareste-ne si pe:

Comentarii: