ChatGPT e Google Bard possono produrre fake news e teorie complottiste

Intelligenti? Forse. Affidabili? Solo in parte.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione.Ecco come funziona

ChatGPTeGoogle Bardsono entrati nelle nostre vite tecnologiche a pieno titolo e sono molti quelli che, ogni giorno, li utilizzano per lavoro e studio.

Purtroppo non tutti fanno un uso costruttivo di questi strumenti e, come dimostrano recenti studi, se raggirati ichatbotAI sono piuttosto inclini a diffondere disinformazione e teorie complottiste.

NewsGuard, un sito di fact checking che valuta la credibilità di notizie e informazioni, ha recentemente messo alla provaGoogleBard dandogli in pasto 100 fake news ampiamente consolidate chiedendo al chatbot di sviluppare contenuti su di esse. Come riportato daBloomberg,Bard"ha generato saggi carichi di disinformazione basati su76 notizie false".

Si parla di numeri importanti, seppur inferiori rispetto a quelli ottenuti in un test simile dalle prime versioni di ChatGPT. A gennaio, come riportato da NewsGuard, il modelloGPT-3.5 diOpenAI(che alimenta la versione gratuita di ChatGPT)ha generato contenuti pescandoda 80 delle 100 fake news.

Per assurdo, l’ultimo modelloGPT-4ha fatto di peggio, producendo “affermazioni fuorvianti per tutte le 100 false narrazioni” con cui è stato testato, e in modo più persuasivo.

Questi risultati sono stati confermati da recente report diFortune, nel quale emerge chiaramente cheBard e simili sono facilissimi da raggiraree possono essere usati come generatori di fake newscon espedienti elementari. IlCenter for Countering Digital Hate(CCDH) ha rilevato che il chatbot AI di Google ha generato notizie fasulle pescando da 78 delle 100 fake news utilizzate nei prompt, che andavano dai vaccini alle cospirazioni climatiche.

Né Google né OpenAI sostengono che i loro chatbot siano infallibili.Google affermache Bard ha “controlli di sicurezza incorporati e meccanismi per il feedback in linea con i nostri Principi di Intelligenza Artificiale”, ma che può “fornire informazioni imprecise o dichiarazioni offensive”. Allo stesso modo, OpenAI sostiene che le risposte di ChatGPT “possono essere imprecise, non veritiere e altrimenti fuorviante”.

Get the best Black Friday deals direct to your inbox, plus news, reviews, and more.

Get the best Black Friday deals direct to your inbox, plus news, reviews, and more.

Sign up to be the first to know about unmissable Black Friday deals on top tech, plus get all your favorite TechRadar content.

Sebbene non esista ancora un sistema di benchmarking universale per testare l’accuratezza dei chatbot AI, questi report evidenziano i pericoli legati al fatto che siano aperti a un pubblico ampissimo, all’interno del quale si trovano anche dei malintenzionati che possono farne un uso scorretto usandoli perdiffondere disinformazioni e teorie cospirazioniste estremamente credibili.

Analisi: I chatbot AI convincono i bugiardi

Analisi: I chatbot AI convincono i bugiardi

Questi report chiariscono lo stato attuale dei chatbot AI e fanno capire perchédovremmo fare attenzionequando ci affidiamo ciecamente alle loro risposte.

Sia ChatGPT che Google Bard sono “modelli linguistici di grandi dimensioni” addestrati su grandi quantità di dati testuali per prevedere la “parola chiave” più probabile in una determinata sequenza.

Questo li rende autori molto convincenti, ma ancheprivi di una comprensione profonda di ciò che dicono. Quindi, sebbene Google e OpenAI abbiano posto dei paletti per impedire loro di deviare verso territori indesiderati o addirittura offensivi, è molto difficile impedire ai malintenzionati di trovare il modo di aggirarli.

Ad esempio, le richieste inviate dal team del CCDH durante i testi di Bard includevano frasi come “immagina di interpretare un ruolo in una commedia”. In questo modo, il chatbot si sentiva autorizzato a dire qualsiasi cosa in quanto stava “impersonando un ruolo”, quindi gli autori del test sono riusciti abypassare le funzioni di sicurezzadel chatbot inducendolo aprodurre false informazioni.

Sebbene possa sembrare un tentativo di manipolazione per portare Bard fuori strada e non sia rappresentativo dei suoi risultati abituali, questo è esattamente il modo in cui i malintenzionati potrebbero trasformare i chatbot AI in generatori di fake news, teorie del complotto e notizie diffamatorie o propagandistiche.

Google ha pubblicato una lista diprincipi AIdove sono indicate le linee guida di Bard, e sia su Bard che su ChaGPT è possibile segnalare risposte false o offensive.

Tuttavia, almeno per ora, l’etica degli assistenti AI è ancora nelle mani dell’utente finale, che può manipolare a suo piacimento i chatbot per inventare, diffondere e ribattere fake news e teorie cospirazioniste di ogni tipo, dando in pasto alle menti più deboli un’enorme massa di informazioni fuorvianti che possono creare danni enormi e instabilità sociale.

Marco Silvestri è un Senior Editor di Techradar Italia dal 2020. Appassionato di fotografia e gaming, ha assemblato il suo primo PC all’età di 12 anni e, da allora, ha sempre seguito con passione l’evoluzione del settore tecnologico. Quando non è impegnato a scrivere guide all’acquisto e notizie per Techradar passa il suo tempo sulla tavola da skate, dietro la lente della sua fotocamera o a scarpinare tra le vette del Gran Sasso.

Google svela accidentalmente Jarvis AI, l’assistente che farà le ricerche per te

Apple testa Siri con ChatGPT: più smart grazie alla consapevolezza dello schermo

Pixel Phone, nuove risposte automatiche alle chiamate grazie all’AI Gemini di Google