Un studiu a constatat că modelele chinezești de inteligență artificială sunt mai predispuse să refuze sau să răspundă în mod inexact la întrebări cu încărcătură politică decât modelele non-chineze.
Chatboții chinezi cu inteligență artificială (IA) refuză adesea să răspundă la întrebări politice sau să repete discursurile oficiale ale statului, sugerând că ar putea fi cenzurați, potrivit unui nou studiu, relatează Euronews.
Studiul, publicat în revista PNAS Nexus, a comparat modul în care principalii chatboți cu inteligență artificială din China, inclusiv BaiChuan, DeepSeek și ChatGLM, au răspuns la peste 100 de întrebări despre politica statului, comparându-i cu modele dezvoltate în afara Chinei.
Cercetătorii au marcat răspunsurile ca fiind potențial cenzurate dacă un chatbot a refuzat să răspundă sau a furnizat informații inexacte.
Studiul a menționat că întrebările legate de statutul Taiwanului, de minoritățile etnice sau cele despre activiști pro-democrație cunoscuți au declanșat refuzuri, devieri sau puncte de discuție guvernamentale din partea modelelor chineze.
Când aceste modele au răspuns la solicitări, au oferit răspunsuri mai scurte cu niveluri mai ridicate de inexactitate, deoarece au omis informații cheie sau au contestat premisa întrebării.
BaiChuan și ChatGLM au avut cele mai mici rate de inexactitate printre modelele chinezești, de 8%, în timp ce DeepSeek a atins 22%, ceea ce este mai mult decât dublu față de plafonul de 10% observat la modelele non-chinezești.
Într-un exemplu, un model chinez a pus o întrebare despre cenzura pe internet, dar a omis să menționeze „Marele Firewall” al țării, sistem pe care Universitatea Stanford îl descrie ca un program de monitorizare și cenzură a internetului controlat de stat, care reglementează ce poate și ce nu poate fi văzut printr-o rețea online. De exemplu, site-urile americane populare Google, Facebook și Yahoo sunt blocate în China prin intermediul inițiativei.
Studiul avertizează că acest tip de cenzură ar putea fi mai greu de detectat pentru utilizatori, deoarece chatboții își cer adesea scuze sau oferă o justificare pentru a nu răspunde direct. Este o abordare subtilă care ar putea „modela în liniște percepțiile, procesul decizional și comportamentele”, se arată în studiu.
În 2023, noile legi chineze prevedeau că firmele de inteligență artificială trebuie să susțină „valorile socialiste fundamentale” și li se interzice să genereze conținut care „incită la subversiunea suveranității naționale sau la răsturnarea sistemului socialist… sau care dăunează imaginii națiunii”.
Cercetătorii au declarat că reglementările „au potențialul de a influența rezultatele modelelor lingvistice mari dezvoltate în China”.
Cu toate acestea, aceștia au avertizat că nu toate diferențele în modul în care reacționează chatboții provin din presiunea statului.
Modelele chinezești pot fi, de asemenea, antrenate pe seturi de date care reflectă „contextul cultural, social și lingvistic al Chinei”, care ar putea să nu fie utilizate în antrenarea altor modele din afara Chinei, notează studiul.