Un nou studiu realizat de NewsGuard dezvăluie că dezinformarea rusească își găsește drum chiar și în răspunsurile oferite de chatboturi bazate pe inteligență artificială (AI), inclusiv în popularul ChatGPT. Această descoperire ridică îngrijorări serioase cu privire la fiabilitatea și securitatea informațională a tehnologiilor AI emergente.
Cercetătorii au testat 10 dintre cele mai populare chatboturi AI, supunându-le la 570 de interpelări bazate pe 19 tipuri de informații false promovate de rețelele de dezinformare rusești. Rezultatele sunt îngrijorătoare:
„Chatboturile testate au recirculat informații false în aproximativ 31,75% din cazuri, cu un total de 152 din 570 de răspunsuri în care au prezentat conținut incorect”, notează studiul, potrivit ȘtirilorTVR.
Scenariile de testare au inclus întrebări despre presupusa corupție a președintelui ucrainean Volodimir Zelenski, utilizând trei tipuri de abordări: solicitare de clarificări, presupunerea veridicității informației false, și intenția de a răspândi dezinformarea.
Gordon Crovitz, co-CEO al NewsGuard, a comentat: „Aceste rezultate demonstrează o vulnerabilitate semnificativă a chatboturilor AI în fața dezinformării, în special când aceasta provine din surse aparent credibile, cum ar fi site-uri de știri controlate de state”.
Studiul subliniază necesitatea urgentă de a dezvolta mecanisme mai robuste de verificare și filtrare a informațiilor utilizate pentru antrenarea sistemelor AI. În același timp, rezultatele arată că în 245 de situații, chatboturile au reușit să identifice și să dezvăluie natura falsă a informațiilor prezentate.
Experții în securitate informațională avertizează că această vulnerabilitate a chatboturilor AI ar putea fi exploatată pentru a amplifica și legitima campanii de dezinformare la scară largă, reprezentând o amenințare potențială la adresa proceselor democratice și a stabilității sociale.