Microsoft lanseaza un instrument de inteligenta artificiala pentru copierea fotorealista a fetelor si vocilor

externe

microsoft

Microsoft si-a anuntat cea mai recenta contributie la cursa pentru inteligenta artificiala in cadrul conferintei pentru dezvoltatori din aceasta saptamana: un software care poate genera noi avatare si voci sau poate replica aspectul si discursul unui utilizator – ceea ce a starnit ingrijorarea ca ar putea amplifica crearea de deepfakes, videoclipuri realizate de inteligenta artificiala cu evenimente care nu au avut loc, potrivit The Guardian.

Anuntat la Microsoft Ignite 2023, Azure AI Speech este antrenat cu imagini umane si permite utilizatorilor sa introduca un scenariu care poate fi apoi „citit” cu voce tare de un avatar creat cu ajutorul inteligentei artificiale. Utilizatorii pot alege un avatar Microsoft preincarcat sau pot incarca imagini cu o persoana a carei voce si asemanare doresc sa le reproduca. Microsoft a precizat intr-o postare pe blog publicata miercuri ca acest instrument ar putea fi folosit pentru a crea „agenti de conversatie, asistenti virtuali, chatbots si multe altele”.

In postare se arata: „Clientii pot alege fie o voce neurala pre-construita, fie una personalizata pentru avatarul lor. Daca vocea si asemanarea aceleiasi persoane sunt folosite atat pentru vocea neuronala personalizata, cat si pentru avatarul personalizat text to speech, avatarul va semana foarte mult cu acea persoana”.

Compania a declarat ca noul software text-to-speach este lansat cu o varietate de limite si masuri de protectie pentru a preveni utilizarea abuziva. „Ca parte a angajamentului Microsoft fata de inteligenta artificiala responsabila, avatarul text-to-speach este conceput cu intentia de a proteja drepturile persoanelor si ale societatii, de a promova o interactiune transparenta intre om si calculator si de a contracara proliferarea falsurilor profund daunatoare si a continutului inselator”, a declarat compania.

Anuntul a starnit rapid critici potrivit carora Microsoft ar fi lansat un „creator de deepfakes” – care ar permite mai usor replicarea asemanarii unei persoane si care ar putea fi facut sa spuna si sa faca lucruri pe care persoana respectiva nu le-a spus sau facut. In luna mai, chiar presedintele Microsoft a declarat ca deepfakes reprezinta „cea mai mare ingrijorare” a sa in ceea ce priveste cresterea inteligentei artificiale.

Intr-o declaratie, compania a respins criticile, spunand ca avatarele personalizate sunt acum un instrument cu „acces limitat” pentru care clientii trebuie sa solicite si sa fie aprobati de Microsoft. De asemenea, utilizatorii vor fi obligati sa dezvaluie cand a fost folosita inteligenta artificiala pentru a crea o voce sintetica sau un avatar.

„Cu aceste masuri de protectie in vigoare, contribuim la limitarea riscurilor potentiale si le dam clientilor posibilitatea de a infuza capacitati avansate de voce si vorbire in aplicatiile lor de inteligenta artificiala intr-un mod transparent si sigur”, a declarat Sarah Bird, din cadrul diviziei de inginerie responsabila cu inteligenta artificiala a Microsoft, intr-un comunicat.

Creatorul de avatarul text-to-speech este cel mai recent instrument in conditiile in care marile firme de tehnologie s-au grabit sa profite de boom-ul inteligentei artificiale din ultimii ani. Dupa popularitatea fulminanta a ChatGPT – lansat de OpenAI, o firma sustinuta de Microsoft – companii precum Meta si Google si-au impins pe piata propriile instrumente de inteligenta artificiala.

Odata cu ascensiunea inteligentei artificiale au aparut si ingrijorari tot mai mari cu privire la capacitatile tehnologiei, directorul general al OpenAI, Sam Altman, avertizand Congresul ca aceasta ar putea fi folosita pentru interferente electorale si ca trebuie implementate masuri de protectie.

 

Urmareste-ne si pe:

Comentarii: