quindi brahms la scheda è da 4k 60fps rtx on, oppure 1440 120fps rtx on?
Visualizzazione Stampabile
quindi brahms la scheda è da 4k 60fps rtx on, oppure 1440 120fps rtx on?
La risposta è "dipende": ho provato con Control, probabilmente il gioco più pesante da questo punto di vista, e senza dlss è stato un bagno di sangue :bua: parliamo a occhio di 35 fps medi in 4k e di 60 risicati in 2k.
Con dlss on siamo sui 60 in 4k e sul centinaio in 2k. Control è sicuramente un caso limite ma mi chiedo come gireranno Cyberpunk e WD Legion
- - - Aggiornato - - -
Ho visto un video su youtube dove dimostravano che una 3080 può essere gestita tranquillamente da un psu da 650w. Io magari non farei overclock ma non dovresti avere problemi, soprattutto se punti a una scheda grafica meno "power hungry"
Per come la vedo io DLSS avrà supersampling nel nome, ma è un upscaling: prende una risoluzione originale bassa e sputa fuori un output più alto.
Supersampling sarebbe il contrario: per un output ad certa risoluzione fa calcoli ad una risoluzione superiore...
Quindi 1440 60fps rtx on, indicativo.
Sta cosa che DLSS all'improvviso è il santo graal e un'opzione che si deve avere ed attivare mi sembra strana... :asd:
Come ho detto in precedenza: è il classico "zoom, enhance" di film e telefilm. :asd:
E funziona allo stesso modo: inventandosi roba per aumentare la risoluzione, quindi non è un semplice upscaling. :sisi:
Resta da vedere quanto bene la IA riesca ad inventarsi le cose upscalate. :uhm:
All'inizio non era gran che ma han fatto passi da gigante in tempi relativamente brevi. Se continuano così bisogna ammettere che sarà tanta roba nel giro di un altro paio d'anni.
Perchè ci stanno investendo molto ed i miglioramenti sono stati significativi. Lascia molto ben sperare per l'immediato futuro.
Che faccia un buon lavoro con cambia quello che è... piegarsi al marketing che dice "4k" e "supersampling" quando è tutt'altro, a me non va giù...
però le console sono amd, che ha il "suo" RT e (dice) il suo "DLSS": e sono le console che tirano il mercato...
in ottica futura (un paio d'anni?) vedo più prendere la strada di amd che di nvidia con tecnologie proprietarie, sempre che non riesca ad ungere bene...
e sappiamo che le loro, hanno fatto una brutta fine, l'ultima il G-sync che non si caga più nessuno
Mah il marketing non lo guardo nemmeno oramai. Valuto direttamente la resa di quel che vedo. Poi c'è da dire una cosa: siamo in una situazione di transizione anche a livello sofware oltre che hardware. Con l'arrivo di titoli ed engine pensati sin dall'inizio del loro sviluppo per implementare RT e DLSS si presume che le ottimizzazioni e le prestazioni miglioreranno rispetto ai titoli attuali dove sono aggiunte un po' raffazzonate.
Col tempo probabilmente miglioreranno, ma non sono nuove API come Dx12 o Vulkan dove "cambia tutto" e si deve ripensare il motore... sono cose abbastanza a se stanti.
Sono perfettamente d'accordo, non si tratta di un semplice upsampling.
Il dlss è un'ottima tecnologia nella revisione 2.0 (la prima versione restituiva immagini spesso sfuocate), restano in alcuni giochi dei piccoli artefatti visivi, soprattutto nelle immagini in lontananza, ma trascurabili.
.
Davvero ottima, con le impostazioni Qualità in 4k le immagini sono leggermente più definite che in modalità nativa.
Eccallà https://videocardz.com/newz/ge...ng-...ashes-in-games
"mai al dayone" dovrebbe essere scolpito nella pietra
Link troncato...
https://videocardz.com/newz/geforce-...ashes-in-games
Si ma io non ho ancora capito chi sono questi "users" che sono riusciti a comprare le schede... :asd:
Eccone uno:
Comunque, da un link nei commenti dell'articolo di videocardz: https://www.igorslab.de/en/gddr6x-am...ip-gemessen-2/ :uhm:
Ci puoi veramente cuocere le uova sopra. :o
Dai è uno strumento di ricostruzione di immagine.
Come dire meglio fare una foto a risoluzione più bassa ma con i pixel in più ricostruiti che a risoluzione full naturale.
Per quanto sia un compromesso interessante, io vedo solo gente che pur di ricevere prodotti e avere contenuti da produrre ne parla bene come da copione pubblicitario...
più che altro amd offre soluzioni più aperte e condivisibili, ma l'ultima generazione era ugualmente made in amd, quindi si parlava di porting con inevitabili ottimizzazioni più naturali dato l'hw più simile, Mantle prima e Vulkan poi...sono comunque rimasti indietro :asd:
Review della 3090 live.
Non arriva al 20% più della 3080.
https://www.youtube.com/watch?v=Xgs-VbqsuKo
8K :asd:
"Gaming" :rotfl:
Il punto è che è quello che però spinge nVidia...
Gaming 8k.
Produttività non è nemmeno esattamente a livello Titan:
https://forums.anandtech.com/attachm...360-png.30437/
https://youtu.be/YjcxrfEVhc8?t=605
A 10min circa.
https://i.ibb.co/rvynKHf/1.png
Non ha le ottimizzazioni che hanno Titan/Quadro.
Vabbè pure AMD ti dice che il 3900X è una CPU da gaming quando non lo è e ci sono Ryzen meno costosi vanno anche di più con i giochi.
Oramai il bollino "gaming" lo appiccicano a caso ovunque sperando che qualcuno abbocchi (ed evidentemente qualcuno c'è).
:asd: Speriamo che le Gddr6X a 104 gradi non mi distruggano la scheda, che per il resto mi sembra relativamente fresca :mah:
Per quanto mi riguarda, il Dlss 1.0 (quello di Metro Exodus) effettivamente sfuoca le immagini e non è un granché
La versione 2.0 usata negli ultimi giochi può restituire immagini più nitide del 4k nativo. Es. Death Stranding.
Interessante.. diciamo che la scheda è per utilizzo ibrido gioco / lavoro.
Gaming 8k: con il DSR ho provato a spingere la mai 3080 a 8k. Ho provato Horizon Zero Dawn ed è stato un disastro: framerate sui 30fps con drop sui 20 e stuttering a manetta: ecco, a 8k 10 giga di Vram NON bastano :asd:
Se la 3090 con 24 gb non avrà stuttering, un 20% in più di prestazioni non sono sufficienti.. MA se non sbaglio la scheda è l'unica ad avere il supporto NV Link: non vedo l'ora di vedere qualche youtuber pazzo esaltato con due di quelle mostruosità nel case. PSU minima: 1600W,
se le schede esplodono creano un buco nero :D
E' vero, nel senso che per il gaming i 12 core del 3900x o i 10 del 10900X semplicemente non servono: 8 core saranno più che sufficienti negli anni a venire.
Fortunatamente ci sono altri ambiti in cui tutti quei core tornano utili.
Qui il diktat è stato di promuoverla esclusivamente come gaming... e gaming 8k... non mi risulta Intel o AMD fumino la stessa roba.
- - - Aggiornato - - -
A 20% non arriva, mediamente non mi sembra nemmeno al 15%...
Doveva essere "Titan class", ma le segano le gambe via driver... per sbloccare quelli vorranno 3k$.
Il principio è lo stesso.
Quando fai una presentazione del genere per una CPU palesemente orientata alla produttività vuol dire sempre che cerchi di accalappiarti gli arcor gaimer per piazzare qualche vendita:
https://o.aolcdn.com/images/dims?thu...a6722a933d8507
E sempre AMD parlò di gaming all'epoca alla presentazione della Vega FE se non ricordo male.
E' normale, non sono onlus e cercano di vendere il più possibile.
Li fa un pò ridere perché è l'unico primato che si potevano inventare, 12 core non erano esattamente una novità... ma non hanno promosso quella CPU esclusivamente il per gaming eh.
Per la 3090 invece non vogliono parlare del lato professionale e ridicolmente hanno indirizzato il tutto su questa buffonata del Gaming 8k.
Si fossero fermati ai due video sponsorizzati gli scorsi giorni, quindi lasciandola come parentesi secondaria...
Diciamo che con la 3090 si è toccato l'apice :asd: l'andazzo del marketing cmq è quello già da un po'
https://www.youtube.com/watch?v=fN8G5eESqmM
Mi potreste prestare qualche mano? :timido:
Io ho esaurito le mie a facepalmare e me ne servirebbe qualun'altra... :facepalm:
In b4: 3080 a 10k€ come prezzo base. :facepalm:
Quando pensi che il tizio di Moore's Law is Dead abbia detto delle cazzate, ma la gente fa di tutto pur di dargli ragione... :bua:
Mi puzza un pò chi dice che la compra per lavoro... non so quanto tempo ci metterà a recuperare i giorni buttati nel cesso in coda li...
Si ma sta gente ossessionata dall'accaparrarsi le schede al lancio ad ogni costo per me stan fuori di testa.
Che disastro:
Sono riportati crash appena si prova ad overcloccare o si gioca pesante su moltissimi brand di schede custom. Questo e' quasi sicuramente il motivo:
hanno fatto economie su 800 e 1500 euro di schede...
https://www.igorslab.de/en/what-real...0-andrtx-3090/
https://www.youtube.com/watch?v=x6bUUEEe-X8
Sì, avevo letto articoli di questo tipo nei gironi scorsi ma pensavo che il problema riguardasse solo le 3080: brand che fanno economie su schede da 1.800 euro :facepalm:
Pare che questo riguardi moltissime custom, tra cui tutte le EVGA, la MSI trio, le Palit e la mia Zotac Trinity :facepalm: : in pratica le schede vanno in crash al superamento dei 2ghz di frequenza. Sul forum ufficiale Nvidia sembra che il problema riguardi anche le FE. , quindi le uniche schede sicure sono le Asus. :|
Ora, io non ho riscontrato nessun tipo di instabilità e ho fatto diversi stability test, ma del resto la mia 3080 non va oltre 1,9ghz.
Considerando che queste schede sono già tirate, che consumano più di 320W a pieno carico, che le gdd6x scaldano tantissimo... che senso ha l'overclock? Farle esplodere per avere al max 2-3 fps in più nei giochi? :facepalm:
Rispetto alla 2080ti, la 3080 consuma il 30% in più per offrire il +30% in raster e il +30% in RT: se fossi un malato di overclock punterei a una 2080ti usata e cercherei di ridurre il gap :D
Ho letto che bisogna poi stare attenti ad overclockare le GDDR6X.
Avendo una sorta di ECC non mostrano artefatti, in quanto gli errori son corretti, ma le performance calano perché appunto devono correggere gli errori generati dalla situazione non stabile.
Riguardo i produttori che "risparmiano", sembra che nVidia abbia un controllo quasi assoluto: approvare i design ed impone dei limiti su quanto possono spendere sui vari componenti...
Scommettiamo che è il vero motivo per cui ci sono poche schede in giro?
Avran detto "proviamo e vediamo se reggono le frequenze maggiorate; in caso facciamo la modifica e vendiamo la revisione 1.1 " :sisi:
I pochi che hanno preso la scheda al day one faranno RMA e GG.
Certo, poi mi devono spiegare perché nelle recensioni questi problemi non siano venuti fuori, visto che hanno tutti fatto a gara a chi tirava di più la scheda in 4K. :uhm:
Molto interessante, non lo sapevo. Essendo già incandescenti, ecco spiegatoil motivo per cui nessun modello OC di fabbrica tocca la frequenza delle memorie (che io sappia).
Può darsi, ma io penso più a un rush produttivo per fare uscire più schede possibili prima possibile. EVGA ha ammesso l'errore.Citazione:
Riguardo i produttori che "risparmiano", sembra che nVidia abbia un controllo quasi assoluto: approvare i design ed impone dei limiti su quanto possono spendere sui vari componenti...
Tra l'altro non è detto che i crash siano dovuti (solo) all'uso di capacitori al risparimo. Riporto quanto indicato da Hardware unboxed:
" The crashing with the RTX 3080 cards doesn’t appear to be down to the caps used, which is why we haven’t made a video yet, we don’t know the issue. What we do know is the FE and TUF Gaming models crash just as much as other models and they use MLCC’s."
" Or rather "just" down to the caps used. It could be a problem for the budget models not using any MLCCs at all. But this isn't the only issue causing crashes and probably not the main issue causing what looks to be a widespread issue."
" At the moment it’s looking more like a core clock speed issue. But don’t have enough info yet, it could just be a driver issue."
Si potrebbe pensare a un concorso di colpa: chip tiratissimi + componenti al risparmo, però è strano che la cosa avvenga anche sulle 3090,che sicuramente sono i chip migliori.
La mia scheda per ora è perfettamente stabile, silenziosa e, con tutto quanto scritto sopra, è anche relativamente fresca. Sono soddisfatto. Sicuramente appena esploderà faro RMA e tirerò nuovamente fuori la mia 1080, anche questa presa al d1 più di 4 anni fa e perfettamente stabile da allora :D
Per quanto riguarda le recensioni, tutte quelle che ho letto mostravano margini di OC limitatissimi, in cambio di un aumento di frame praticamente nullo e con consumi anche sopra i 370W. Tutto sommato i recensori sono stati onesti.
Su youtube non so, ho seguito solo il video di GN sulla 3090, quello delle bustarelle di Nvidia :asd:
Ieri giocavo a Serois Sam 4, ho impostato le librerie vulkan e il gioco stutterava da morire. Primo pensiero "ecco il limite dei 10gb". In realtà era solo un problema di ottimizzazione: con le dx11 è fluidissimo in 4k.