NVIDIA Reports Q2 FY2021 Earnings: Datacenter Revenue Surpasses Gaming for the First Time
Visualizzazione Stampabile
Ma l'esorbitante aumento di prezzo rispetto alle generazioni 980 non avvenne in occasione della corsa folle al mining delle crypto ?
Continua ad essere per quello l'elevato aumento di prezzo oppure han visto che le comprano lo stesso ?
Ci starebbe un bel colpo di mano in stile amd con intel... gli han dato una regolata mica da ridere :lol:
Quelli che minano, gli allagamenti in Tailandia, i dazi di Trump, qualcosa trovano sempre :sisi:
Sì, ma non puoi giustificare tutto guardando le top di gamma: quelle sono una cosa.
Come dice benvelor ci sono le altre che c'azzecca che la 2060 e la 2070 siano sovrapprezzo col fatto che amd non ci sia nella fascia alta sopra la 2080?
Ci sono i polli che per il top nvidia può mettere il prezzo che vuole. Ok.
Ma quello per i polli, per le galline che hanno altri requisiti e altri budget quello non tange.
io mi ricordo i "bei tempi" dove una serie "70" costava circa 320/350€. La 970 GTX l'avevo comprata a quel prezzo, e complice la risoluzione full hd, riusciva a far girare tutto senza problemi.
La via potrebbe essere una concorrenza forte, ma la vedo dura. Mi sembra che nvidia abbia guadagnato molto terreno a livello tecnologico rispetto alle radeon. Ma confesso che non sono più molto aggiornato. Come siamo messi sul fronte amd radeon ?
Perchè sul fronte processori amd ha smacchiato il giaguaro... cioè io che ho sempre bisogno di bestioni trita render con il Threadripper piscio fuori dalla finestra per la contentezza!
Ps5 e Xbox montano roba AMD per cui per quanto siano tecnologicamente avanzate le robe Nvidia, saranno sempre aggiunte dagli ingegneri Nvidia a suon di finanziamenti promozionali.
Penso la prossima generazione AMD andrà più che bene per giocare senza troppi compromessi. Secondo me pure il Ray Tracing "puro" sarà meno utilizzato di quanto pensiamo nei vari giochi multipiatta e quindi anche il vantaggio Nvidia andrà un po' a farsi benedire.
Ray Tracing "puro" è ancora lontano...
Questo sarebbe bello.Citazione:
Time Spy Extreme Benchmark
The 3080 is ~70% faster than the 2080.
Basa che non sia +70% anche nei $$$.
Ma non mi e' chiarissima la questione del nuovo pin ( e vabbe del rumor che sarebbe consigliato un 850w :tremo:). Spero si parli solo della 3090 e/o delle founder editions delle varie schede.
C'e' modo di usare un trasformatore "vecchio"? Quanto consumeranno/scalderanno?
Tra prezzo/consumi teorici/dimensioni la 3090 mi pare sempre di piu' una sbruffonata per dire c'e' l'ho piu' grosso (intendo nvidia non chi la compra.. anche se :asd:)
La 3090 è praticamente la Titan new gen
NVIDIA Confirms 12-pin GPU Power Connector
https://www.youtube.com/watch?v=ZEzI02SKALY
(Il video è abbastanza ridicolo a momenti.)
onestamente, quella fascia la guardo poco
mi oriento sulla 070, quindi a consumi stiamo sicuramente più alti di adesso, ma nella norma
ho un 550, leggendo su vari siti ipotizzino che basti e avanzi
per il pin, credo facciano degli adattatori, magari con la stessa scheda nello scatolo: da 16 a 12
credo, altrimenti devono aspettare che qualcuno produca e venda degli alimentatori apposta :asd:
c'è un sito, non mi ricordo come si chiama ma si trova facilmente, che calcola con precisione il consumo di un pc: ho fatto la prova, un ryzen 3700x con una 2070S, arriva al massimo a 402w, cosa che credo capiti una volta su mille...
credo che calcoli il consumo massimo di ogni componente che lavora contemporaneamente al 100%, situazione che non si verifica mai nella vita, ma dà l'idea se il proprio ali ce la potrebbe fare :uhm:
c'ho messo pure il masterizzatore BR esterno che non c'entra una mazza, tanto per essere sicuro :asd:
anzi, facendo al volo, anche di più
https://i.ibb.co/x7mK5Bp/Senza-titolo-2.png
Ecco... 2 belle 3090 in sli e VRAY in GPU sarà una figata, nei miei lavori poi metto contributo nvidia +50% sul preventivo di default :lol:
GeeGeeOh ha riportato dei valori effettivi veritieri.
Il fatto è che per le aziende come Nvidia, quelle specifiche che rilasciano possono avere risvolti legali, oltre che di immagine di gente che va a postare e lamentarsi e sparare merda.
All'utente medio basta un 550 o un 650 come alimentatore, ma sai che hai a che fare con gente che compra l'alimentatore cinese che dichiara 650 watt e poi fa la frittata.
C'è 550 buono e 550 meno buono, dovresti andare a vedere l'amperaggio su determinate linee e altri dettagli che...chi va a guardare?
Loro mettono 850 che in linea di massima uno va a comprare e sono prodotti di fascia che anche se sono meno buoni dovrebbero coprire determinati standard.
Compri il 650 di merda, si frigge e tu dici "eh ma nelle specifiche c'è scritto 650", così si parano il culo.
E tu che vendi la scheda video sai che funzionerà sia a chi ha il pc attaccato al monitor, che chi lo ha attaccato a 12 hdd meccanici ide che ciucciano 150 watt con il NAS appeso al volante fanatec direct drive messo al 100%
però il fanatec DD ha il suo alimentatore :uhm:
Cioè, pure il G27 ha il suo alimentatore :asd:
Ma si collega via usb.
Le scene apocalittiche quando inserisci un cacchio di hard disk esterno o un mouse in più e la scheda madre o l'alimentatore se la fanno addosso :asd:
Intanto Be quiet! ha annunciato due alimentatori da 1200W e 1500W ed un cavo custom da 12 pin per le nuove schede nVidia...
https://www.guru3d.com/news-story/be...su-series.html
lievemente sovradimensionati... :bua:
io mi terrò il mio corsair rm 650x
che per la cronaca si è fritto dopo 3 mesi di utilizzo con un bel botto blu :chebotta: ma corsair me l'ha sosituito, ovviamente :sisi:, ormai va avanti da 3 anni buoni :look:
cerco sempre di non risparmiare mai sull'ali, magari senza spendere follie, ma nemmeno il cinesone: per le emergenze ho un enermax 82+ che tira la carretta
gli adattatori 12pin fioccheranno, state tranquilli: fossi la ditta X che vende la scheda, ne metterei uno nella confezione e via
Sto parlando di periferiche senza alimentatore.
Quindi o prendono corrente dal'USB o da un granello di plutonio all'interno.
https://66.media.tumblr.com/3ec916f7...trukf6_500.jpg
GRANDE GIOVE! :O
SLI come termine è morto.
Si chiama NVLink ora? Esiste ancora? :asd:
Quello che è. :asd:
Si, esiste ancora (no: non ha senso :asd: ): in un video sul tubo riguardo l'utilità o meno di crossfire o NVLink/quello-che-è c'era un tizio nei commenti che si vantava di avere preso due RTX2080Ti e le aveva messe in NVLink per giocare praticamente solo ad un gioco (e mi pare di ricordare che quelo era il suo pc, quello di sua moglie aveva una configurazione simile). :asd:
Comunque praticamente tutte le schede madri ora escono con almeno 2 slot PCIe x16. :uhm:
Ma quindi SLI/NVlink non si usa più per i videogiochi ?
Perchè per le applicazioni CUDA (ad es. motore di rendering) funziona eccome. Ad averne di slot liberi e di soldi da spendere, tanto la potenza non basta mai.
Mi sembra morto e sepolto per i giochi.
Con le Dx12 la palla era passata agli sviluppatori dei giochi ma nessuno sembra aver accettato la sfida.
Poi nVidia l'ha relegato solo alle schede di fascia alta ed ha ucciso chi magari si prendeva una seconda x60 un annetto dopo.
NVIDIA GeForce RTX 3090 and 3080 Specifications Leak
RTX 3090 350W
RTX 3080 320W
RTX 3070 220W
https://abload.de/img/tojbu.png
:lol: fra un po’ ci starà la trifase
Solo a me i prezzi sembrano alti?
Quali prezzi? Quelli ufficiali ancora non si sanno