Ma infatti non è una scheda da gaming, solo un mentecatto potrebbe pensarlo. In ambito produttività invece è una bestia, com'è giusto che sia.
Visualizzazione Stampabile
Il punto è che è quello che però spinge nVidia...
Gaming 8k.
Produttività non è nemmeno esattamente a livello Titan:
https://forums.anandtech.com/attachm...360-png.30437/
https://youtu.be/YjcxrfEVhc8?t=605
A 10min circa.
https://i.ibb.co/rvynKHf/1.png
Non ha le ottimizzazioni che hanno Titan/Quadro.
Vabbè pure AMD ti dice che il 3900X è una CPU da gaming quando non lo è e ci sono Ryzen meno costosi vanno anche di più con i giochi.
Oramai il bollino "gaming" lo appiccicano a caso ovunque sperando che qualcuno abbocchi (ed evidentemente qualcuno c'è).
:asd: Speriamo che le Gddr6X a 104 gradi non mi distruggano la scheda, che per il resto mi sembra relativamente fresca :mah:
Per quanto mi riguarda, il Dlss 1.0 (quello di Metro Exodus) effettivamente sfuoca le immagini e non è un granché
La versione 2.0 usata negli ultimi giochi può restituire immagini più nitide del 4k nativo. Es. Death Stranding.
Interessante.. diciamo che la scheda è per utilizzo ibrido gioco / lavoro.
Gaming 8k: con il DSR ho provato a spingere la mai 3080 a 8k. Ho provato Horizon Zero Dawn ed è stato un disastro: framerate sui 30fps con drop sui 20 e stuttering a manetta: ecco, a 8k 10 giga di Vram NON bastano :asd:
Se la 3090 con 24 gb non avrà stuttering, un 20% in più di prestazioni non sono sufficienti.. MA se non sbaglio la scheda è l'unica ad avere il supporto NV Link: non vedo l'ora di vedere qualche youtuber pazzo esaltato con due di quelle mostruosità nel case. PSU minima: 1600W,
se le schede esplodono creano un buco nero :D
E' vero, nel senso che per il gaming i 12 core del 3900x o i 10 del 10900X semplicemente non servono: 8 core saranno più che sufficienti negli anni a venire.
Fortunatamente ci sono altri ambiti in cui tutti quei core tornano utili.
Qui il diktat è stato di promuoverla esclusivamente come gaming... e gaming 8k... non mi risulta Intel o AMD fumino la stessa roba.
- - - Aggiornato - - -
A 20% non arriva, mediamente non mi sembra nemmeno al 15%...
Doveva essere "Titan class", ma le segano le gambe via driver... per sbloccare quelli vorranno 3k$.
Il principio è lo stesso.
Quando fai una presentazione del genere per una CPU palesemente orientata alla produttività vuol dire sempre che cerchi di accalappiarti gli arcor gaimer per piazzare qualche vendita:
https://o.aolcdn.com/images/dims?thu...a6722a933d8507
E sempre AMD parlò di gaming all'epoca alla presentazione della Vega FE se non ricordo male.
E' normale, non sono onlus e cercano di vendere il più possibile.
Li fa un pò ridere perché è l'unico primato che si potevano inventare, 12 core non erano esattamente una novità... ma non hanno promosso quella CPU esclusivamente il per gaming eh.
Per la 3090 invece non vogliono parlare del lato professionale e ridicolmente hanno indirizzato il tutto su questa buffonata del Gaming 8k.
Si fossero fermati ai due video sponsorizzati gli scorsi giorni, quindi lasciandola come parentesi secondaria...
Diciamo che con la 3090 si è toccato l'apice :asd: l'andazzo del marketing cmq è quello già da un po'
https://www.youtube.com/watch?v=fN8G5eESqmM
Mi potreste prestare qualche mano? :timido:
Io ho esaurito le mie a facepalmare e me ne servirebbe qualun'altra... :facepalm:
In b4: 3080 a 10k€ come prezzo base. :facepalm:
Quando pensi che il tizio di Moore's Law is Dead abbia detto delle cazzate, ma la gente fa di tutto pur di dargli ragione... :bua:
Mi puzza un pò chi dice che la compra per lavoro... non so quanto tempo ci metterà a recuperare i giorni buttati nel cesso in coda li...
Si ma sta gente ossessionata dall'accaparrarsi le schede al lancio ad ogni costo per me stan fuori di testa.
Che disastro:
Sono riportati crash appena si prova ad overcloccare o si gioca pesante su moltissimi brand di schede custom. Questo e' quasi sicuramente il motivo:
hanno fatto economie su 800 e 1500 euro di schede...
https://www.igorslab.de/en/what-real...0-andrtx-3090/
https://www.youtube.com/watch?v=x6bUUEEe-X8
Sì, avevo letto articoli di questo tipo nei gironi scorsi ma pensavo che il problema riguardasse solo le 3080: brand che fanno economie su schede da 1.800 euro :facepalm:
Pare che questo riguardi moltissime custom, tra cui tutte le EVGA, la MSI trio, le Palit e la mia Zotac Trinity :facepalm: : in pratica le schede vanno in crash al superamento dei 2ghz di frequenza. Sul forum ufficiale Nvidia sembra che il problema riguardi anche le FE. , quindi le uniche schede sicure sono le Asus. :|
Ora, io non ho riscontrato nessun tipo di instabilità e ho fatto diversi stability test, ma del resto la mia 3080 non va oltre 1,9ghz.
Considerando che queste schede sono già tirate, che consumano più di 320W a pieno carico, che le gdd6x scaldano tantissimo... che senso ha l'overclock? Farle esplodere per avere al max 2-3 fps in più nei giochi? :facepalm:
Rispetto alla 2080ti, la 3080 consuma il 30% in più per offrire il +30% in raster e il +30% in RT: se fossi un malato di overclock punterei a una 2080ti usata e cercherei di ridurre il gap :D
Ho letto che bisogna poi stare attenti ad overclockare le GDDR6X.
Avendo una sorta di ECC non mostrano artefatti, in quanto gli errori son corretti, ma le performance calano perché appunto devono correggere gli errori generati dalla situazione non stabile.
Riguardo i produttori che "risparmiano", sembra che nVidia abbia un controllo quasi assoluto: approvare i design ed impone dei limiti su quanto possono spendere sui vari componenti...
Scommettiamo che è il vero motivo per cui ci sono poche schede in giro?
Avran detto "proviamo e vediamo se reggono le frequenze maggiorate; in caso facciamo la modifica e vendiamo la revisione 1.1 " :sisi:
I pochi che hanno preso la scheda al day one faranno RMA e GG.
Certo, poi mi devono spiegare perché nelle recensioni questi problemi non siano venuti fuori, visto che hanno tutti fatto a gara a chi tirava di più la scheda in 4K. :uhm:
Molto interessante, non lo sapevo. Essendo già incandescenti, ecco spiegatoil motivo per cui nessun modello OC di fabbrica tocca la frequenza delle memorie (che io sappia).
Può darsi, ma io penso più a un rush produttivo per fare uscire più schede possibili prima possibile. EVGA ha ammesso l'errore.Citazione:
Riguardo i produttori che "risparmiano", sembra che nVidia abbia un controllo quasi assoluto: approvare i design ed impone dei limiti su quanto possono spendere sui vari componenti...
Tra l'altro non è detto che i crash siano dovuti (solo) all'uso di capacitori al risparimo. Riporto quanto indicato da Hardware unboxed:
" The crashing with the RTX 3080 cards doesn’t appear to be down to the caps used, which is why we haven’t made a video yet, we don’t know the issue. What we do know is the FE and TUF Gaming models crash just as much as other models and they use MLCC’s."
" Or rather "just" down to the caps used. It could be a problem for the budget models not using any MLCCs at all. But this isn't the only issue causing crashes and probably not the main issue causing what looks to be a widespread issue."
" At the moment it’s looking more like a core clock speed issue. But don’t have enough info yet, it could just be a driver issue."
Si potrebbe pensare a un concorso di colpa: chip tiratissimi + componenti al risparmo, però è strano che la cosa avvenga anche sulle 3090,che sicuramente sono i chip migliori.
La mia scheda per ora è perfettamente stabile, silenziosa e, con tutto quanto scritto sopra, è anche relativamente fresca. Sono soddisfatto. Sicuramente appena esploderà faro RMA e tirerò nuovamente fuori la mia 1080, anche questa presa al d1 più di 4 anni fa e perfettamente stabile da allora :D
Per quanto riguarda le recensioni, tutte quelle che ho letto mostravano margini di OC limitatissimi, in cambio di un aumento di frame praticamente nullo e con consumi anche sopra i 370W. Tutto sommato i recensori sono stati onesti.
Su youtube non so, ho seguito solo il video di GN sulla 3090, quello delle bustarelle di Nvidia :asd:
Ieri giocavo a Serois Sam 4, ho impostato le librerie vulkan e il gioco stutterava da morire. Primo pensiero "ecco il limite dei 10gb". In realtà era solo un problema di ottimizzazione: con le dx11 è fluidissimo in 4k.