Google pune oamenii în pericol, minimizând avertismentele de siguranță potrivit cărora sfaturile medicale generate de inteligența artificială pot fi greșite, scrie The Guardian. În timp ce compania susține că prezentările generale AI îi îndeamnă pe utilizatori să caute ajutor profesional, adevărul este că aceste avertismente sunt adesea abia vizibile, lăsând utilizatorii expuși la informații potențial periculoase.
Funcția Google de rezumare AI, denumită AI Overviews și bazată pe Gemini, promite să ofere rezumate concise și să informeze utilizatorii când este esențial să consulte un specialist. Cu toate acestea, investigațiile recente arată că avertismentele nu sunt afișate la prima interacțiune și că textul existent este mic, discret și plasat la finalul rezumatului, fiind ignorat de majoritatea utilizatorilor.
Chiar și atunci când un utilizator alege să solicite informații suplimentare, disclaimerul rămâne subtil, necesitând un clic suplimentar și atenție pentru a fi vizibil. Google nu a negat aceste practici, afirmând doar că rezumatele AI „încurajează oamenii să consulte un medic specialist”, dar numai „atunci când este cazul”.
Experții în inteligență artificială trag semnale de alarmă. Un cercetător de la Massachusetts Institute of Technology (MIT) subliniază că lipsa avertismentelor explicite poate crea „pericole critice”, mai ales că modelele AI, indiferent cât de avansate, continuă să ofere informații eronate sau să prioritizeze satisfacția utilizatorilor în detrimentul acurateței.
Mai mult, utilizatorii pot interpreta greșit simptomele sau pot oferi informații incomplete, amplificând riscul unor recomandări medicale incorecte. Profesorul de la Universitatea Queen Mary din Londra avertizează că aceste probleme sunt „structurale” și rezultă din designul prezentărilor AI, gândite pentru viteză, nu pentru precizie, ceea ce poate conduce la erori periculoase în sănătatea publică.
În ianuarie, The Guardian a arătat că sănătatea utilizatorilor era pusă în pericol de informații false și înșelătoare furnizate de Google AI Overviews. În urma acestui scandal, Google a eliminat rezumatele AI pentru anumite căutări medicale, dar nu pentru toate, lăsând deschisă posibilitatea ca oamenii să primească sfaturi incomplet verificate sau greșite.
Aceste constatări ridică întrebări serioase despre responsabilitatea companiilor tehnologice în gestionarea informațiilor medicale și despre modul în care IA ar trebui reglementată pentru a proteja sănătatea utilizatorilor.
Pentru a reduce riscurile, experții recomandă o transparență mai mare, afișarea clară a avertismentelor și educarea utilizatorilor cu privire la limitările AI. Fără aceste măsuri, oamenii pot continua să se bazeze pe informații superficiale sau incomplete, punându-și sănătatea în pericol.
Într-o lume în care IA devine tot mai prezentă în deciziile zilnice, este esențial ca marile platforme să prioritizeze siguranța și acuratețea informației, nu doar viteza și atractivitatea conținutului. Google, și alte companii tehnologice, trebuie să conștientizeze că fiecare recomandare greșită poate avea consecințe reale și uneori dramatice pentru utilizatori.