Tehnologia de recunoastere faciala este „profund rasista”: in ultimii cinci ani, sase persoane de culoare au fost acuzate de infractiuni pe care nu le comisesera

externe

inteligenta artificiala, rasista, tehnologie de recunoastere faciala, rasism

In urma cu trei ani, in Detroit, Robert Williams a ajuns acasa de la serviciu si a gasit politia asteptandu-l la usa din fata, gata sa-l aresteze pentru o infractiune pe care nu o comisese. Tehnologia de recunoastere faciala folosita de politisti il confundase pe Williams cu un suspect care furase ceasuri in valoare de mii de dolari.

Sistemul a facut legatura intre o imagine neclara a suspectului si Williams, in ceea ce este considerat a fi primul caz cunoscut de arestare abuziva datorata utilizarii tehnologiei bazate pe inteligenta artificiala. Experienta a fost „exasperanta”, a declarat Williams, citat de Sky News. „Imaginati-va ca stiti ca nu ati facut nimic gresit… Si ei apar la tine acasa si te aresteaza pe alee inainte de a putea iesi cu adevarat din masina si sa iti imbratisezi si sa iti saruti sotia sau sa iti vezi copiii”

Williams, in varsta de 45 de ani, a fost eliberat dupa 30 de ore de arest si a intentat un proces, care este in curs de desfasurare, impotriva departamentului de politie din Detroit, solicitand despagubiri si interzicerea utilizarii software-ului de recunoastere faciala pentru identificarea suspectilor.

Se cunosc sase cazuri cunoscute de arestari abuzive in SUA, iar victimele in toate cazurile au fost persoane de culoare. Inteligenta artificiala reflecta prejudecatile rasiale din societate, deoarece este antrenata pe date din lumea reala.

Un studiu al guvernului SUA publicat in 2019 a constatat ca tehnologia de recunoastere faciala avea intre 10 si 100 de ori mai multe riscuri sa identifice gresit persoanele de culoare decat persoanele albe.

Acest lucru este cauzat de faptul ca tehnologia este antrenata pe seturi de date predominant albe si nu are la fel de multe informatii despre cum arata persoanele de alte rase, deci este mai probabil sa faca greseli. O abordare pentru rezolvarea problemei ar fi utilizarea datelor sintetice, care sunt generate de un computer pentru a fi mai diverse decat seturile de date din lumea reala.

Problema prejudecatilor rasiale nu este unica pentru tehnologia de recunoastere faciala, ea a fost inregistrata la diferite tipuri de modele de inteligenta artificiala.

Marea majoritate a imaginilor generate de AI cu „lucratori de la fast-food” au aratat persoane cu tonuri de piele mai inchise, chiar daca cifrele privind piata muncii din SUA arata ca majoritatea lucratorilor de la fast-food din aceasta tara sunt albi, potrivit unui experiment realizat de Bloomberg cu ajutorul generatorului de imagini Stability AI la inceputul acestui an.

Urmareste-ne si pe:

Comentarii: