Medierea cu ajutorul inteligentei artificiale ar putea ajuta la reducerea divergentelor culturale, spun cercetatorii
Inteligenta artificiala ar putea oferi o noua modalitate de a rezolva problemele privind diviziunile transfrontaliere, potrivit unui studiu realizat de cercetatorii de la Google DeepMind si de la Universitatea din Oxford. Cercetarea sugereaza ca medierea bazata pe inteligenta artificiala poate ajuta la rezolvarea dezacordurilor culturale si sociale prin generarea de declaratii care reflecta atat parerile majoritatii, cat si cele ale minoritatii, potrivit euroweeklynews.
Un sistem dezvoltat de echipa, cunoscut sub numele de „Masina Habermas”, ar putea juca un rol crucial in a ajuta oamenii sa gaseasca un numitor comun. Pentru expatii care traiesc in Uniunea Europeana, unde mediile culturale diverse aduc adesea perspective diferite, astfel de instrumente ar putea fi de nepretuit in promovarea coeziunii si intelegerii sociale.
Sistemul AI preia opiniile indivizilor dintr-un grup si creeaza o declaratie colectiva care se straduieste sa fie acceptabila pentru toti. Intr-un experiment care a implicat peste 5.000 de participanti, procesul de mediere al AI a ajutat participantii sa atinga un nivel mai mare de acord in comparatie cu mediatorii umani traditionali. De fapt, declaratiile generate de inteligenta artificiala au fost preferate de participanti in 56% din timp fata de cele create de oameni, scrie The Guardian.
Masina Habermas functioneaza prin preluarea raspunsurilor individuale scrise de la un grup si folosindu-le pentru a genera o declaratie colectiva. Participantii sunt apoi invitati sa evalueze aceste declaratii generate de AI, ceea ce ajuta la imbunatatirea sistemului. Intr-o a doua runda, sistemul ofera declaratii bazate pe feedback, permitand grupului sa finalizeze o declaratie cu o acceptare larga.
Echipa a folosit sistemul intr-o serie de experimente care au implicat un total de peste 5.000 de participanti din Marea Britanie, multi dintre acestia fiind recrutati printr-o platforma online.
In fiecare experiment, cercetatorii au cerut participantilor sa raspunda la subiecte, variind de la rolul maimutelor in cercetarea medicala pana la predarea religiei in scolile publice.
Una dintre concluziile cheie ale studiului a fost ca procesul mediat de AI a crescut acordul de grup cu o medie de opt puncte procentuale. Aceasta inseamna ca aproximativ patru din 100 de persoane din grup au fost dispusi sa-si schimbe opiniile dupa medierea AI, transformand potential un grup divizat intr-unul cu o pozitie mai unificata.
Echipa a gasit rezultate similare atunci cand a folosit masina Habermas intr-o adunare virtuala a cetatenilor in care 200 de participanti, reprezentanti ai populatiei din Regatul Unit, au fost rugati sa delibereze asupra intrebarilor privind mai multe subiecte, de la Brexit la ingrijirea universala a copiilor.
Cercetatorii spun ca o analiza ulterioara arunca lumina asupra modului in care genereaza declaratiile de grup.
„Ceea ce pare sa faca [Masina Habermas] este sa respecte in linii mari punctul de vedere al majoritatii din fiecare dintre micile noastre grupuri, dar sa incerce sa scrie o bucata de text care sa nu faca minoritatea sa se simta profund lipsita de drepturi– asa ca recunoaste oarecum si punctul de vedere minoritar”, a spus prof. Chris Summerfield, de la Universitatea din Oxford, coautor al cercetarii.
Fie ca este vorba de dispute la locul de munca, dezacorduri ale comunitatii sau dezbateri politice la scara mai larga, un instrument AI care asigura ca fiecare voce este auzita ar putea stimula un sentiment mai mare de incluziune.
Cu toate acestea, dupa cum scrie The Guardian, unii experti sunt precauti cu privire la implicatiile mai largi ale utilizarii AI intr-o zona atat de sensibila.
Dr. Melanie Garson, expert in solutionarea conflictelor la University College London (UCL), si-a exprimat ingrijorarea ca, desi instrumentul poate ajuta la crearea consensului, ar putea, de asemenea, sa marginalizeze grupurile minoritare daca
vocile lor sunt prea mici pentru a influenta declaratiile grupului.
Ea a mentionat, de asemenea, ca Masina Habermas nu ofera participantilor sansa de a-si explica sentimentele si, prin urmare, de a dezvolta empatie cu cei cu o viziune diferita.
In esenta, a spus ea, atunci cand se foloseste tehnologia, contextul este cheia.
„Uneori, daca este in contextul unei relatii in curs de desfasurare, este vorba despre invatarea comportamentelor.” a spus ea pentru The Guardian, ceea ce AI nu ar putea face.
Desi exista rezerve cu privire la acest instrument, potentialul AI de a ajuta la rezolvarea diviziunilor culturale din Europa este promitator. Intr-o regiune in care imigratia si tensiunile politice pot starni opinii puternice, o astfel de tehnologie ar putea juca un rol in crearea unor societati mai unite. Nici Europa nu este straina de inteligenta artificiala, iar Spania urmareste sa devina principalul centru european de inteligenta artificiala. Cu toate acestea, AI este inca la inceput si inca poate face greseli, asa cum subliniaza un articol despre „Dr Google” si autodiagnosticarea incorecta.