ChatGPT diventa più affidabile grazie al nuovo software Nvidia

Tutto sotto controllo!

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione.Ecco come funziona

Nvidiaè nota al grande pubblico per la produzione di alcune dellemigliori schede videosul mercato. Tuttavia, anche se molti collegano le GPU Nvidia unicamente al gaming, questi componenti hanno un ruolo cruciale nell’addestramento dei modelli di intelligenza artificiale generativa che sono alla base di chatbot come ChatGPT.

L’azienda si è recentemente affacciata nel mondo dell’AI annunciando l’arrivo di unnuovo softwareche potrebbe incrementare notevolmente l’affidabilità deichatbotevitando che vadano fuori tema o inventino informazioni di sana pianta.

Il nuovo‘NeMo Guardrails’è un software progettato per garantire che le applicazioni intelligenti basate su grandi modelli linguistici (LLM), come i chatbot AI, siano"accurate, appropriate, in linea con l’argomento e sicure".

I cosiddetti “guardrail” servono a eliminare le informazioni inappropriate o imprecise generate dal chatbot, a impedire che arrivino all’utente e a informare il bot che l’output specifico non era corretto in modo che possa migliorare in futuro. Sarà come un ulteriore livello di accuratezza e sicurezza che non richiede la correzione da parte dell’utente.Il software èopen-sourcepuò essere utilizzato dagli sviluppatori AI per impostaretre tipi di limiti: linee guida diattualità,sicurezzaeprotezione.

Cosa sono i “guardrail”?

Cosa sono i “guardrail”?

I guardrail, o vincoli, impediranno al bot AI di addentrarsi in argomenti che non sono correlati o necessari a soddisfare la richiesta dell’utente. Nel comunicato di Nvidia, viene fornito l’esempio di un bot del servizio clienti che non riesce a rispondere a domande mirate sul meteo. Se ad esempio fate una domanda sulla storia delle bevande energetiche, con i guardrail sarà difficile cheChatGPTinizi a parlarvi del mercato azionario. In sostanza, il chatbot dovrebbe essere in grado dirimanere sul tema, piuttosto che perdersi in inutili divagazioni.

Questo sarebbe utile in molti modelli AI di grandi dimensioni comeBingChat diMicrosoft, noto per le sue frequenti divagazioni.

Il sistema di sicurezza Nvidia serve anche acombattere la disinformazionee i momenti di momentanea pazzia che si verificano in alcuni casi, garantendo che l’AI risponda con informazioni accurate e appropriate.

Get the best Black Friday deals direct to your inbox, plus news, reviews, and more.

Get the best Black Friday deals direct to your inbox, plus news, reviews, and more.

Sign up to be the first to know about unmissable Black Friday deals on top tech, plus get all your favorite TechRadar content.

Ciò significa che i cosiddetti guardrailvieteranno il linguaggio inappropriato, rafforzeranno le citazioni difonti credibilie impediranno l’uso di fonti fittizie o illegittime. Questo aspetto è particolarmente utile per ChatGPT, dato che abbiamo già analizzato molti casi di bot che inventano contenuti quando non sanno cosa rispondere.

Inoltre, il sistema di sicurezza Nvidiaimpedirà al bot di collegarsi ad applicazioni esterne"ritenute a rischio", ovvero tutte le applicazioni o i software con cui non ha ricevuto l’autorizzazione esplicita di interagire, come le applicazioni bancarie o i vostri file personali.

Polizia Morale

Nvidia afferma che praticamente tutti gli sviluppatori di software potranno utilizzare NeMo Guardrails, in quanto accessibile e compatibile con un’ampia gamma di applicazioni abilitate all’LLM, per cui siamo certi che in futuro lo troveremo su gran parte dei chatbot.

Questo non è solo un “aggiornamento” importante sul fronte dell’intelligenza artificiale, ma è anche una dimostrazione di forza di Nvidia. Un software dedicato al monitoraggio e alla correzione di modelli come ChatGPT, dettati da severe linee guida degli sviluppatori, è il modo migliore per garantire l’affidabilità dei chatbot rendendoli molto più sicuri da utilizzare e promuovendone l’uso anche in ambito professionale.

Detto questo, non essendoci linee guida prestabilite, saremo sempre soggetti alla moralità e alle priorità degli sviluppatori, piuttosto che al giudizio di un “giudice imparziale”.Nvidia, allo stato attuale, sembra voler porre l’accento sullasicurezza e la protezione degli utenti, ma non c’è alcuna garanzia che queste priorità non cambino o che gli sviluppatori che utilizzano il software possano avere idee o preoccupazioni morali diverse.

Marco Silvestri è un Senior Editor di Techradar Italia dal 2020. Appassionato di fotografia e gaming, ha assemblato il suo primo PC all’età di 12 anni e, da allora, ha sempre seguito con passione l’evoluzione del settore tecnologico. Quando non è impegnato a scrivere guide all’acquisto e notizie per Techradar passa il suo tempo sulla tavola da skate, dietro la lente della sua fotocamera o a scarpinare tra le vette del Gran Sasso.

OpenAI semplifica l’accesso a ChatGPT con un nuovo dominio

Google svela accidentalmente Jarvis AI, l’assistente che farà le ricerche per te

Google testa la ricerca vocale interattiva con risultati in tempo reale