Prima utilizare a deepfake intr-un conflict armat. Cum au fost folosite clipurile falsificate cu AI ca arma in razboiul Rusiei impotriva Ucrainei

externe

Vladimir Putin, discurs, cinematografe, invazie, Transnistria

Videoclipurile deepfake de pe retelele de socializare au devenit adevarate arme pe timp de razboi, subminand increderea si alimentand teoriile conspiratiei in timpul invaziei Rusiei in Ucraina, potrivit unui nou studiu realizat de cercetatorii de la University College Cork din Irlanda, relateaza Kyiv Independent.

„Pentru prima data am vazut propaganda deepfake si dezinformare care a incercat sa influenteze un razboi”, se spune in studiu, condus de John Twomey si publicat in revista PLOS ONE pe 25 octombrie.

Deepfakes sunt videoclipuri construite de o inteligenta artificiala pentru a manipula spectatorii sa creada ca au avut loc evenimente inexistente in realitate. Desi false, videoclipurile par convingatoare si sunt adesea produse pentru a imita o persoana reala.

Twomey si colegii sai au examinat peste 4.800 de postari pe X (fostul Twitter) care contineau deepfakes in primele sapte luni ale anului 2022, folosind o metoda cunoscuta sub numele de analiza calitativa.

Ei au descoperit ca deepfakes erodeaza increderea telespectatorilor in autenticitatea imaginilor legate de razboi, ceea ce duce la o pierdere de incredere in tot continutul vizualizat.

„Din pacate, majoritatea acestui tip de discurs Deepfake in timpul razboiului a indus un scepticism nesanatos”, se arata in studiu.

Unul dintre cele mai importante deepfake-uri folosite in timpul razboiului a fost o inregistrare video care il arata in mod fals pe presedintele Volodimir Zelenski predandu-se Rusiei. Un altul il infatisa pe dictatorul rus Vladimir Putin declarand pacea. Cercetatorii au mentionat, de asemenea, filmarea „Ghost of Kyiv”, care pretindea ca arata un pilot de vanatoare ucrainean, dar care era de fapt preluata dintr-un joc video.

Studiul a avertizat ca deepfakes precum acestea submineaza increderea in videoclipurile reale, spectatorii confundand mai des imaginile autentice cu deepfakes.

Urmareste-ne si pe:

Comentarii: