I prezzi delle GPU potrebbero tornare alle stelle nei prossimi anni: ecco perchè
AMD potrebbe accantonare le Radeon RX 8800 e 8900 per dedicarsi alle AI come fatto da Nvidia
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione.Ecco come funziona
AMDpotrebbe accantonare le GPU Radeon RX 8800 e 8900 per unirsi aNvidianella corsa all’intelligenza artificiale.
Secondo quanto riportato daTechSpotAMD lancerà la sua famiglia di GPU RDNA 4 il prossimo anno e tra queste non compariranno i modelli di fascia alta, ovvero le presunte AMD Radeon RX 8800 o 8900. Questa mossa lascerebbe il campo libero a Nvidia che potrebbe dominare agevolmente il mercato delle GPU di fascia alta (come del resto accade già oggi), ma al contempo rischia anche di limitare l’offerta e far lievitare di conseguenza i prezzi delleschede video.
Secondo le fonti, la prossima linea di GPU AMD assomiglierà alla famiglia RDNA 1 che, come forse ricorderete, aveva laRX 5700 XTcome modello di punta e non includeva le varianti RX 5800 XT e RX 5900. XT. Le generazioni successive hanno preso una piega diversa con il lancio delle varie6800, 6900 e6950nella RDNA 2 e 7800 e 7900 nella serie RDNA 3 dello scorso anno.
A quanto pare le vendite non hanno soddisfatto le aspettative di AMD che sta rivedendo il suo modello di business in base alla tendenza del mercato attuale.
Anche AMD vuole guadagnare con le AI
La motivazione della scelta di AMD è semplice. C’è una corsa all’hardware e ai componenti per gestire i carichi di lavoro delle AI generative, oltre a una disponibilità limitata di risorse e capacità produttive, e AMD vuole investire nel settore “giusto”.
In effetti, al momento il settore hardware AI è piuttosto scoperto e TSMC non è in grado di incrementare la produzione attuale per soddisfare la domanda.
I chip A100 e H100 di Nvidia, tra l’altro, sono in testa al mercato dei server AI che, secondo quanto riferito, è destinato a raggiungere i 150 miliardi di dollari entro il 2027. Naturalmente anche AMD mira a ottenere una fetta di questo enorme mercato in continua crescita. Nel frattempo, stando aquanto riportato da Tom’s Hardware, Nvidia sta godendo di margini di profitto dell'823%.
Sei un professionista? Iscriviti alla nostra Newsletter
Iscriviti alla newsletter di Techradar Pro per ricevere tutte le ultime notizie, opinioni, editoriali e guide per il successo della tua impresa!
Piuttosto che dirottare la produzione verso le sue GPU di fascia alta per i consumatori, nei prossimi anni l’azienda si concentrerà sui field programmable gate array (FPGA) e sulle unità di elaborazione grafica general-purpose (GPGPU). Questo secondoBrits and Chips - Eng.
I circuiti dei primi sono particolarmente adatti all’apprendimento automatico e al deep learning, mentre i secondi sono GPU che gestiscono anche carichi di lavoro di calcolo normalmente svolti dalle CPU top end. Entrambe sono ideali per soddisfare la crescente domanda di GPU per l’AI.
La limitazione dell’offerta, tuttavia, significa che potremmo assistere a un ritorno alla penuria e all’impennata dei prezzi delle GPU che abbiamo visto l’ultima volta nel 2020. Con un minor numero di opzioni, i giocatori potrebbero trovarsi a pagare più del dovuto, come già accadeva nel periodo della pandemia.
Marco Silvestri è un Senior Editor di Techradar Italia dal 2020. Appassionato di fotografia e gaming, ha assemblato il suo primo PC all’età di 12 anni e, da allora, ha sempre seguito con passione l’evoluzione del settore tecnologico. Quando non è impegnato a scrivere guide all’acquisto e notizie per Techradar passa il suo tempo sulla tavola da skate, dietro la lente della sua fotocamera o a scarpinare tra le vette del Gran Sasso.
Google Cloud rende obbligatoria l’autenticazione a più fattori per tutti gli utenti
Google svela il processore Axion per i data center, ma non sarà mai in vendita
Pixel Phone, nuove risposte automatiche alle chiamate grazie all’AI Gemini di Google