Inteligenta artificiala este folosita pentru a da copiilor morti sau disparuti o voce pe care acestia nu au cerut-o

analize

inteligenta artificiala

Unele dintre cele mai mediatizate cazuri penale din lume in care sunt implicati copii sunt readuse la viata cu ajutorul inteligentei artificiale. Sunt povesti de abuz, rapire, tortura si crima care au bantuit mult timp tarile in care au avut loc aceste crime, transmite The Washington Post.

Acum, unii creatori de continut folosesc inteligenta artificiala pentru a recrea chipul acestor copii decedati sau disparuti, dandu-le „voci” care sa povesteasca detaliile tulburatoare despre ceea ce li s-a intamplat. Expertii spun ca, desi progresele tehnologice in materie de inteligenta artificiala aduc oportunitati creative, acestea risca, de asemenea, sa prezinte informatii eronate si sa-i jigneasca pe cei dragi victimelor. Unii creatori si-au aparat postarile ca fiind o noua modalitate de sensibilizare.

„Buna ziua, numele meu este James Bulger”, spune imaginea dintr-un videoclip TikTok, realizata dupa chipul si asemanarea copilului britanic de 2 ani care a fost rapit in 1993 in timp ce mama sa platea cumparaturile.

„Daca mama mea se intorcea la dreapta, as fi putut fi in viata astazi. Din nefericire, ea a facut stanga”, spune vocea copilaroasa, citand ceea ce mama lui James a spus candva ca a fost unul dintre cele mai mari regrete ale sale: daca ar fi facut dreapta, si-ar fi vazut fiul fiind luat de cei doi copii de 10 ani care mai tarziu l-au torturat si ucis.

In timp ce TikTok a eliminat mai multe videoclipuri care il infatiseaza pe James povestindu-si rapirea si moartea in Kirkby, Anglia, multe dintre ele raman disponibile pentru vizualizare pe YouTube.

Mama lui James, Denise Fergus, a declarat pentru Daily Mirror ca postarile au fost „dezgustatoare”.

„Sa folosesti chipul si o gura in miscare a unui copil care nu mai este aici, care a fost luat cu brutalitate de langa noi, nu exista cuvinte”, a declarat ea pentru ziar.

Un purtator de cuvant al TikTok a descris continutul despre James ca fiind „deranjant”, spunand ca „nu exista loc” pe platforma pentru astfel de postari. „Continuam sa eliminam continutul de aceasta natura pe masura ce il gasim”.

Ghidurile TikTok spun ca avansarea inteligentei artificiale „poate face mai dificila distinctia dintre realitate si fictiune, ceea ce implica riscuri atat societale, cat si individuale” si cer ca utilizatorii care partajeaza continut media sintetic sau manipulat care prezinta scene realiste sa includa o clauza care sa precizeze faptul ca acest continut nu este real.

Felix M. Simon, cercetator in domeniul comunicarii la Oxford Internet Institute, a declarat ca este convins ca videoclipurile mentionate in acest articol au fost produse cu ajutorul „unuia sau mai multor instrumente de inteligenta artificiala”, dar nu a putut spune care software exact.

„Ele par a fi create cu o forma de instrumente de inteligenta artificiala si poarta unele dintre semnele tipice ale videoclipurilor mai ieftine generate de inteligenta artificiala”, cum ar fi o estetica asemanatoare cu cea a benzilor desenate sau anime, a declarat el.

Potrivit Mirror, Stuart Fergus, sotul mamei lui James Bulger, a declarat ca, dupa ce a contactat un creator, cerandu-i sa isi retraga videoclipul, a primit un raspuns in care i s-a spus: „Nu intentionam sa jignim pe nimeni. Facem aceste videoclipuri doar pentru a ne asigura ca incidentele nu se vor mai intampla nimanui. Va rugam sa continuati sa sustineti si sa distribuiti pagina mea pentru a raspandi constientizarea”.

In ciuda incercarilor TikTok de a elimina astfel de videoclipuri, multe dintre ele pot fi gasite in continuare pe platforma, unele dintre ele generand milioane de vizualizari.

„Numele meu este Madeleine Beth McCann”, spune o voce copilaroasa intr-un alt videoclip, in care apare o imagine a fetitei britanice de 3 ani care a disparut dintr-o statiune portugheza in 2007. „Sunt inca disparuta”. Acel videoclip TikTok, pe care The Post l-a analizat, a fost vizualizat de zeci de mii de ori inainte ca TikTok sa-l elimine. Proprietarul contului scrisese alaturi de videoclip ca era o incercare de „povestire imersiva”.

Un alt videoclip arata o figura asemanatoare Annei Frank facand publicitate la haine pentru copii inainte de a discuta despre ororile Holocaustului. „Inca mai cauti haine pentru bebelusi frumoase si concepute de tine insuti? Atunci acceseaza link-ul din biografia mea si lasa-te surprins”, „spune” in germana tanara cu parul saten pana la umeri. „Si acum va voi spune povestea Annei Frank”.

Intr-o alta inregistrare video din acelasi cont, tot in limba germana, un baiat cu parul blond si fata plina de cicatrici apare pentru a spune povestea lui Peter Connelly, cunoscut si sub numele de „Baby P” in Marea Britanie. Baietelul de 17 luni a murit in 2007 in urma unor luni de abuzuri fizice din partea mamei sale si a prietenului acesteia.

Videoclipul despre scurta viata a lui Peter este insotit de un avertisment care indica faptul ca poate provoca suferinta, dar nu include o clauza referitoare la faptul ca videoclipul a fost modificat sau generat de inteligenta artificiala, asa cum este cerut de platforma. Proprietarul contului a refuzat sa comenteze cand a fost abordat de The Post.

Un alt videoclip de pe platforma, de pe un alt cont, spune povestea lui Gabriel Fernandez, baiatul de 8 ani din California care a fost torturat pana la moarte de mama sa si de prietenul acesteia. El a murit in 2013. „Cand am inceput sa frecventez o scoala noua, profesorul a raportat serviciilor sociale ca aveam vanatai pe corp. Am intrebat-o daca era normal sa sangerez atunci cand mama ma lovea cu cureaua”, spune imaginea unui baiat care pretinde a fi Gabriel in videoclipul care a fost vizualizat de peste 25 de milioane de ori pe TikTok.

Cercetatorul Simon a declarat ca productia unor astfel de videoclipuri devine mai usoara datorita cresterii functionalitatilor inteligentei artificiale si a faptului ca aplicatiile devin mai ieftine si mai usor de utilizat de catre oameni.

In timp ce progresele AI au permis software care poate imita sau chiar clona cu precizie vocile oamenilor, vocile copilaresti din aceste videoclipuri par a fi generate de calculator si nu se bazeaza pe vocile reale ale victimelor. Vocea din unul dintre videoclipurile cu Madeleine vizualizate de The Post, de exemplu, are un accent american.

Simon a avertizat ca aceste videoclipuri – care sunt adesea insotite de muzica dramatica sau trista, sau arata copii cu cicatrici si fete insangerate – „au potentialul de a re-traumatiza persoanele indurerate”.

„Este o credinta larg raspandita in multe societati si culturi ca cei decedati ar trebui sa fie tratati cu demnitate si sa aiba anumite drepturi”, a spus el. „Astfel de videoclipuri mi se par a fi posibile incalcari ale acestui principiu in doua moduri. In primul rand, ele isi insusesc personalitatea persoanei decedate, ignorand sau sfidand dorintele probabile ale acesteia. In al doilea rand, ele pot incalca ceea ce rudele defunctului percep ca fiind demnitatea lor”.

Pe retelele de socializare, continutul emotional tinde sa duca la o implicare mai mare, ceea ce poate creste posibilitatea ca acesta sa fie partajat, conform cercetarilor. In sectiunea de comentarii a acestor videoclipuri, multi telespectatori lasa omagii tinerelor victime, in timp ce altii ii critica pe creatori pentru ca se folosesc de aceste victime pentru a obtine audienta.

Cory Bradford, un TikToker care a castigat aproape 1 milion de urmaritori producand videoclipuri istorice, a declarat ca, desi, in general, evita sa foloseasca inteligenta artificiala in propriile postari, cei care o fac incearca probabil sa creasca gradul de implicare, in special pe o platforma unde publicul este mai tanar. „Banuiesc ca cei care folosesc AI pentru a face aceste reconstituiri o fac pentru a soca, a uimi si pentru a genera un numar mare de vizualizari”, a spus el.

Hany Farid, profesor de criminalistica digitala la Universitatea din California la Berkeley, a remarcat, de asemenea, ca media manipulata stimuleaza implicarea utilizatorilor probabil pentru ca este „morbida si senzationalista”. Farid a spus ca imaginile cu copiii se incadreaza in „categoria generala a falsurilor profunde, care acum sunt numite mai frecvent IA generativa”.

Exista „cu siguranta” un apetit pentru videoclipuri istorice pe TikTok si, cu siguranta, un loc pentru AI pentru a spune aceste povesti, a spus Bradford.

El a precizat ca tehnologia pentru a recrea imagini istorice realiste nu este inca „destul de aproape”, adaugand: „Cred ca atata timp cat inteligenta artificiala este atat de nerealista, vor exista oameni care vor spune ca este mult prea infiorator”.

Dar „se ajunge acolo”, a spus Bradford. „Si va fi acolo in curand. Iar noi toti trebuie sa ne confruntam cu consecintele la care va duce acest lucru”.

 

Urmareste-ne si pe:

Comentarii: