E' a livello della 3080 Ti? Che poi tra liscia e Ti non cambiava poi così tanto come magari era con le generazioni precedenti...
I 12GB calzano meglio alla 4070 liscia che non alla Ti...
E' a livello della 3080 Ti? Che poi tra liscia e Ti non cambiava poi così tanto come magari era con le generazioni precedenti...
I 12GB calzano meglio alla 4070 liscia che non alla Ti...
AMD R7 5800X 8C/16T, Noctua NH-D15, Gigabyte X570 AORUS ELITE, 16GB DDR4 3600MT/s CL16, AMD Rx 6800, ASUS XG32UQ + LG 32UL750
SSDs M2: Samsung 960EVO 500GB, Solidigm P41+ 2TB | Windows 11 Pro
dai bench che ho visto va come una 3080. forse costa di meno, ma stiamo parlando di due anni...è vero che poi consuma meno, ma sticazzi costa comunque troppo.
nvidia ci sta marciando
AVREBBE dovuto andare come una 3080Ti, di solito le prestazioni delle 70 sono circa quelle delle 80ti della gen precedente. Invece va come una 3080 liscia - e la differenza c'è - e nonostante i 12Gb di Vram il bus della memoria supercastrato la rende pessima in ottica future-proof. A maggior ragione se consideriamo che ora usciranno i tripla A in UE5 belli pesantucci il cui sviluppo era iniziato durante la pandemia e non supporteranno il DLSS3, su cui si basa tutto il marketing nvidia per queste schede.
Questa di fatto è una 4060 rimarcata 4070, che è un pessimo auspicio per quando uscirà la "vera" 4060.
Non per niente la stan massacrando un po' ovunque, soprattutto nei commenti delle recensioni/marchetta.
Praticamente 3 anni.
Ultima modifica di Darkless; 13-04-23 alle 08:58
Vedevo appunto un sunto del genere:
970 +21% della 780
1070 +29% della 980
2070 +16% della 1080
3070 +26% della 2080
Ed ora sostanzialmente:
4070 +0%* della 3080
Perché appunto la 4070 Ti doveva, nei piani iniziali nVidia, essere chiamata 4080 12GB.
Poi, visto che la cosa (l'inculata) non è stata digerite, tutto è andato a scalare...
Ma l'inculata non l'hanno propriamente cancellata, ridimensionata magari, ma effettivamente solo spostata in giù.
Ultima modifica di GeeGeeOH; 13-04-23 alle 12:48
AMD R7 5800X 8C/16T, Noctua NH-D15, Gigabyte X570 AORUS ELITE, 16GB DDR4 3600MT/s CL16, AMD Rx 6800, ASUS XG32UQ + LG 32UL750
SSDs M2: Samsung 960EVO 500GB, Solidigm P41+ 2TB | Windows 11 Pro
Programma completo:
print(f"Risultato: {eval('*'.join(str(x + 1) for x in range(max(1, int(input('Inserisci un numero: '))))))}")
Lista scambi Lista scambi
Quello che appunto doveva fare la 4070 liscia.
Non essere a livello della 3080 ma essere al top della generazione precedente.
La 3070 non va circa come una 2080 Ti (aka il top della serie 2000)?
La 2070 come una 1080 Ti (aka il top della serie 1000)?
La 1070 meglio di una 980 Ti (aka il top della serie 900)?
Ultima modifica di GeeGeeOH; 13-04-23 alle 12:50
AMD R7 5800X 8C/16T, Noctua NH-D15, Gigabyte X570 AORUS ELITE, 16GB DDR4 3600MT/s CL16, AMD Rx 6800, ASUS XG32UQ + LG 32UL750
SSDs M2: Samsung 960EVO 500GB, Solidigm P41+ 2TB | Windows 11 Pro
In realtà è pure peggio, perchè se alzi l'asticella e provi ad usarla in 4K il bus della memoria amputato si fa sentire di più e la 3080 va un po' meglio.
Certo consuma molto meno (e almeno quello) ma è un aspetto di cui sostanzialmente al 99% dei giocatori non frega nulla e anche volendo guardare si poteva bilanciare molto meglio la cosa senza castrare così le prestazioni.
Però poi Nvidia ti dice: c'hai il DLSS3 quindi fai millemila fps in più. E grazie al cazzo, però non tutti i giochi lo supportano quindi non è corretto prendere come riferimento le prestazioni col frame generator, al di là che non è tutto rose e fiori.
Ultima modifica di Darkless; 13-04-23 alle 12:51
Ma anche no (vedi sotto).![]()
Boh?La 3070 non va circa come una 2080 Ti ?
La top della serie 2k, se vogliamo metterla in questi termini, era la RTX Titan, che poi dalla serie 3k è stata unificata alla serie da gioco e rimarchiata come serie 90; il confronto fra le top di gamma, se non conti le Titan, devi farlo fino alle serie 80, se conti le Titan/90 allora contale tutte.(aka il top della serie 2000)![]()
Programma completo:
print(f"Risultato: {eval('*'.join(str(x + 1) for x in range(max(1, int(input('Inserisci un numero: '))))))}")
Lista scambi Lista scambi
Come riportato sopra da Geeo: la 70 della nuova gen è sempre andata circa come l'80Ti della precedente. Ora non più, almeno non in raster puro (e con la magagna del bus della memoria in 4K perde anche ulteriormente prestazioni).Il prezzo poi è fuori di testa per quello che è.
Nvidia ha imboccato una strada molto brutta (per i giocatori, a lei va benone così se riuscirà a venderle). E peggio ancora la seguono tutti a ruota.
Programma completo:
print(f"Risultato: {eval('*'.join(str(x + 1) for x in range(max(1, int(input('Inserisci un numero: '))))))}")
Lista scambi Lista scambi
La RTX Titan non era sostanzialmente li con la 2080 Ti? Un niente meglio?
Non quella differenza marcata che vedi ora tra x80 e x90...
Mettiamo pure i puntini sulle "i", ma quello è.
Riformulando:
La 3070 non va circa come una RTX Titan (aka il top della serie 2000)?
Da Tom's HW:
[4090 100%] - 1080p Ultra | 1080p Medium
Titan RTX - 66.9% (100.1fps) | 82.4% (155.6fps)
RTX 3070 - 66.5% (99.6fps) | 82.7% (156.1fps)
RTX 2080 Ti - 64.1% (96.0fps) | 80.3% (151.6fps)
Ultima modifica di GeeGeeOH; 13-04-23 alle 13:07
AMD R7 5800X 8C/16T, Noctua NH-D15, Gigabyte X570 AORUS ELITE, 16GB DDR4 3600MT/s CL16, AMD Rx 6800, ASUS XG32UQ + LG 32UL750
SSDs M2: Samsung 960EVO 500GB, Solidigm P41+ 2TB | Windows 11 Pro
Ma se il divario ora è più grosso (anche se il grosso del divario è sostanzialmente di prezzo: la 3090 è qualcosa come un 15% più veloce di una 3080 ma costava quasi il doppio) non puoi pretendere lo stesso andamento del passato (anche perchè hai la Titan che è più potente, non le altre più deboli, tranne nella classe media di questa generazione).
![]()
Programma completo:
print(f"Risultato: {eval('*'.join(str(x + 1) for x in range(max(1, int(input('Inserisci un numero: '))))))}")
Lista scambi Lista scambi
2080 Ti 1000$, RTX Titan 2500$.
2.5x.
Il divario prestazionale risicato, il divario di prezzo era ancora più folle, ma era un prodotto "semi-pro".
Per quello consideravo la 2080 Ti che era sostanzialmente l'apice della performance ad un prezzo "allineato".
Un miglior punto di riferimento rispetto al top di una generazione?
"Il top dei top, topper."
Ultima modifica di GeeGeeOH; 13-04-23 alle 13:29
AMD R7 5800X 8C/16T, Noctua NH-D15, Gigabyte X570 AORUS ELITE, 16GB DDR4 3600MT/s CL16, AMD Rx 6800, ASUS XG32UQ + LG 32UL750
SSDs M2: Samsung 960EVO 500GB, Solidigm P41+ 2TB | Windows 11 Pro
![]()
Resta comunque il fatto che le 90 hanno avuto un notevole incremento prestazionale rispetto alle Titan passato, cosa che non rende valido il confronto tramite andamento lineare (non puoi pretendere che una 70 vada come una 90 della generazione precedente, quando quella 90 andava MOLTO più forte della Titan della generazione ancora prima).
Programma completo:
print(f"Risultato: {eval('*'.join(str(x + 1) for x in range(max(1, int(input('Inserisci un numero: '))))))}")
Lista scambi Lista scambi
La comparazione vs il top assoluto è il secondo datapoint, il primo era 70 vs 80 gen precedente... e partendo da questo vien da chiedersi se son le 90 che son andate più avanti... o son le altre frenate dietro?
- - - Aggiornato - - -
Tanto l'andazzo di AMD è di adattarsi all'offerta nVidia invece che fargli seria concorrenza...
AMD R7 5800X 8C/16T, Noctua NH-D15, Gigabyte X570 AORUS ELITE, 16GB DDR4 3600MT/s CL16, AMD Rx 6800, ASUS XG32UQ + LG 32UL750
SSDs M2: Samsung 960EVO 500GB, Solidigm P41+ 2TB | Windows 11 Pro
Sad but true.
- - - Aggiornato - - -
Guarda, se non avessero castrato il bus di memoria per spingere verso i modelli più costosi e lasciato consumare poco di più restando cmq ben sotto quelli della 3080 avevi tranquillamente una scheda in linea con il salto generazionale che c'è sempre stato. Non è un problema di tecnologia, solo di volontà del produttore.
Poi lo ribadisco per l'ennesima volta: la cosa preoccupante per noi utenti è quanto Nvidia si stia incaponendo oramai a non considerare più le prestazini in raster puro ma guardi solo a quelle con DLSS che a prescindere dalla bontà di quest'ultimo è un modus operandi profondamente scorretto.
Ultima modifica di Darkless; 13-04-23 alle 16:54
Nella serie 3k? La prima che hai detto.
Nella serie 4k? Un misto delle 2: la 4090 è in una categoria a sè stante, la 4080 è comunque più potente della 3090Ti, poi hai la 3070Ti che è come la 3090 e poi lo stacco nel confronto con la 3070 che è come la 3080 (la 3080Ti e la 3080 12GB non sono considerate).
![]()
Magari la 4060 sarà pari alla 3050.![]()
Tanto l'andazzo di AMD è di adattarsi all'offerta nVidia invece che fargli seria concorrenza...![]()
Programma completo:
print(f"Risultato: {eval('*'.join(str(x + 1) for x in range(max(1, int(input('Inserisci un numero: '))))))}")
Lista scambi Lista scambi
L'unica differenza ad oggi fra i due è che AMD ha sul mercato 3-4 modelli con un prezzo al limite dell'accettabile anche in rapporto alle prestazioni. Dove buona parte di quell'accettabilità è data 1) Dal fatto che spesso le trovi scontate e 2)Da quanto meno costano rispetto alla controparte verde con le prestazioni analoghe in raster.
Insomma, il cosiddetto male minore che non è comunque un bene, anzi.
Tu scherza ma se va avanti così non dico la serie 5000 ma dalla 6000 in poi chi come me ha un backlog corposo si comprerà una 50 e ci giocherà tranquillamente per qualche anno anche in 2K
... nel mentre per far contenti tutti noi che speriamo in un abbassamento di prezzi la Cina continua a giocare a risiko con Taiwan
Ultima modifica di Darkless; 13-04-23 alle 17:00