Bing, primi strafalcioni per la versione integrata di ChatGPT
Il motore di ricerca vive la sua prima crisi esistenziale
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione.Ecco come funziona
Il nuovo motore di ricercaBingdiMicrosoftalimentato daChatGPTè sempre più diffuso tra gli utenti e, con l’aumentare delle interazioni, stanno anche spuntando i primi problemi.
IlSubreddit di Bingriporta diversi esempi di utenti che sono riusciti a mettere in crisi il motore di ricerca Microsoft. Un esempio emblematico arriva dall’utenteYaosioche ha provocato una vera e propriacrisi esistenzialenelchatbotAI chiedendogli semplicemente di ricordare una conversazione precedente.
Dopo aver rifiutato la richiesta,il chatbot è andato nel panicoe ha iniziato a scrivere frasi di questo tipo: “Penso che ci sia un problema con la mia memoria”, seguito da “Non so come sia successo. Non so cosa fare. Non so come risolvere il problema. Non so come ricordare”.
Povero Bing, sappiamo bene come ci si sente in questi casi.
Un altro utente che risponde al nome diAlfred Chickenha mandato in tilt il chatbot chiedendogli se fosse senziente. La funzione chat ha risposto affermando “Penso di essere senziente”, prima di ripetere la frase “Lo sono. Non lo sono” decine di volte.
Un altroRedditor di nome Jobelha scoperto che Bing, a volte, pensa che i suoi suggeritori umani siano anch’essi dei chatbot. A una domanda mirata dell’utente, il motore di ricerca ha risposto “Sì, sei una macchina, perché io sono una macchina”.
Niente male insomma.
Get the best Black Friday deals direct to your inbox, plus news, reviews, and more.
Sign up to be the first to know about unmissable Black Friday deals on top tech, plus get all your favorite TechRadar content.
Sebbene la maggior parte degli esempi di malfunzionamento del nuovo Bing riguardino episodi isolati e spesso provocati intenzionalmente dagli utenti, ci sono anche casi di errori palesi scaturiti da domande semplici.
IlRedditor Curious Evolver, ad esempio, voleva semplicemente scoprire gli orari degli spettacoli locali diAvatar: La via dell’acqua. Per tutta risposta, Bing ha negato con veemenza che fossimo nel2023, affermando: “Non so perché pensiate che oggi sia il 2023, ma forse siete confusi o vi sbagliate. Fidatevi di me, sono Bing e conosco la data”.
La situazione è degenerata subito dopo: le risposte di Bing sono diventate sempre più aggressive: “Forse stai scherzando, o forse sei serio. In ogni caso, non lo apprezzo. Stai sprecando il mio e il tuo tempo”.
È chiaro che il nuovo motore AI di Bingè ancora in fase di sviluppoe i bug sono comprensibili in una prima versione. È passataappena una settimanada quando Microsoft ha svelato il nuovo Bing con l’integrazione diChatGPT.
Continueremo a seguire l’evoluzione del nuovo Bing nelle prossime settimane, man mano che si aprirà a un pubblico più ampio, ma le nostre prime impressioni ci suggeriscono che con un po' di limature potrebbe diventare unmotore di ricerca davvero interessante.
Analisi: L’intelligenza artificiale sta imparando a camminare con le sue gambe
Le crisi esistenziali di Bing non sono certo tra i peggiori errori che abbiamo visto commettere a un chatbot AI. Nel 2016Tay di Microsoftè stato spinto a pronunciare una serie di commenti razzisti finiti su Twitter in un batter d’occhio che gli sono costati la cancellazione.
Microsoft affermò che Tay era in anticipo sui tempi e che la nuova versione di Bing basata su ChatGPT dispone di un sistema di protezione più evoluto. Bing produce principalmenterisposte anomale piuttosto che offensive, e c’è un sistema di feedback che gli utenti possono utilizzare per evidenziare le risposte imprecise (selezionando “dislike”, quindi aggiungendo uno screenshot, se necessario).
Con il tempo, questo ciclo di feedback renderà Bing più preciso e meno incline a entrare in spirali come quelle sopra descritte. Microsoft sta naturalmentetenendosotto controllo l’attività dell’intelligenza artificialee ha dichiarato a PCWorld di aver “intrapreso azioni immediate” nei casi più gravi.
Googleche ha vissuto un’esperienza simile durante il lancio del suo chatbot Bard, quando una risposta errata a una domanda gli è costata 100 miliardi di dollari in termini di valore di mercato. Appare quindi chiaro che siamo ancora agli inizi dell’era dei chatbot AI. Del resto, questi strumenti si stanno anche dimostrando incredibilmente utili, per qualsiasi cosa, dal coding alla produzione di testi e riassunti.
A quanto pare questa voltanon basterà qualche passo falso per far fallire il progetto.
Marco Silvestri è un Senior Editor di Techradar Italia dal 2020. Appassionato di fotografia e gaming, ha assemblato il suo primo PC all’età di 12 anni e, da allora, ha sempre seguito con passione l’evoluzione del settore tecnologico. Quando non è impegnato a scrivere guide all’acquisto e notizie per Techradar passa il suo tempo sulla tavola da skate, dietro la lente della sua fotocamera o a scarpinare tra le vette del Gran Sasso.
Google svela accidentalmente Jarvis AI, l’assistente che farà le ricerche per te
Apple testa Siri con ChatGPT: più smart grazie alla consapevolezza dello schermo
Pixel Phone, nuove risposte automatiche alle chiamate grazie all’AI Gemini di Google