PDA

Visualizza Versione Completa : Il Circolino di Schede Video



Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 [32] 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52

Fruttolo
19-09-20, 17:33
non si torna più indietro, il ray tracing va perseguito come standard e inevitabilmente come tutte le cose nuove che sono differenti dalla precedenti c'è uno scotto iniziale, non li definirei effetti grafici secondari

Lord_Barba
19-09-20, 17:39
Mi ricordo discorsi simili con il bump mapping e l'AA.

Certo, ci furono anche con Physx, ma va detto che era una tecnologia acquisita da Nvidia e la usava solo lei; il RT, invece, è uscito subito sulla serie 2000, ma è stato implementato in PS5 e XSX oltre che sulle nuove GPU AMD.

Insomma, se tutti si muovono per implementarla, può fare solo che bene.

Nel caso di Physx la considero un'ottima occasione totalmente mancata; mi ricordo che su Borderland rendeva parecchio bene, ma è morta lì.

GeeGeeOH
19-09-20, 17:46
non li definirei effetti grafici secondariMa per ora, escludendo Quake 2, è usato solo per quelli... il 99% è ancora "normale" rasterizzazione.

- - - Aggiornato - - -


Nel caso di Physx la considero un'ottima occasione totalmente mancata; mi ricordo che su Borderland rendeva parecchio bene, ma è morta lì.A dir il vero è diventato abbastanza uno standard usare un physics engine.
Forse Havok (ora di Microsoft) è quello più usato.
Non se ne parla, ma la cosa non è diventata vaporware...

Lord_Barba
19-09-20, 17:53
Ma per ora, escludendo Quake 2, è usato solo per quelli... il 99% è ancora "normale" rasterizzazione.

- - - Aggiornato - - -

A dir il vero è diventato abbastanza uno standard usare un physics engine.
Forse Havok (ora di Microsoft) è quello più usato.
Non se ne parla, ma la cosa non è diventata vaporware...Vero, ma io mi riferivo alla tecnologia ex-Ageia; Havok l'ho sempre trovato inferiore come resa.

GeeGeeOH
19-09-20, 18:37
A prescindere da quale motore usino, è diventato uno standard usarne uno.

wesgard
19-09-20, 20:31
Si si ma io non voglio tornare indietro. Voglio il ray tracing. :spy:

Non sono sicuro la 3080 me lo possa dare senza rendere un gioco ingiocabile.

GeeGeeOH
20-09-20, 07:56
https://www.notebookcheck.net/Nvidia-s-upcoming-RTX-3060-Super-8-GB-RTX-3070-Super-16-GB-and-RTX-3080-Super-20-GB-models-confirmed-by-Gigabyte-listing.494640.0.html

3080 10GB, Super 20GB.
3070 8GB, Super 16GB
3060 ?GB, Super 8GB

Lord_Barba
20-09-20, 08:04
La 3080 "Super" si piazzerà ovviamente tra la liscia e la 3090, quasi sicuramente al "modico" prezzo di almeno 1000-1200 Euro.

Secondo me non ne vale la pena.

GeeGeeOH
20-09-20, 08:17
Vedendo i limiti di overclockabilità di questi chip potrebbero veramente differenziarsi solo come quantitativo di RAM...

Lord_Barba
20-09-20, 08:41
Vedendo i limiti di overclockabilità di questi chip potrebbero veramente differenziarsi solo come quantitativo di RAM...

Ma infatti; ho visto qualche bench di 3080 custom, e la differenza con la founder è risibile a fronte di 200 Euro in più richiesto per l'acquisto delle prime.

Certo, 10 GB in più di memoria possono tornare utili, ma dato che il denominatore comune saranno sempre le console (soprattutto lato ecosistema MS con il Pass Ultimate), quanti saranno i giochi che avranno bisogno, in 4K, di più di 10 GB prima che questa generazione diventi obsoleta?

GeeGeeOH
20-09-20, 09:00
Premesso che non penso saranno questo grande limite, c'è da considerare che le console hanno più di 10GB di RAM e che le cose sono più ottimizzate li.

Poi DirectStorage giocherà a favore o contro?

Lord_Barba
20-09-20, 09:02
Premesso che non penso saranno questo grande limite, c'è da considerare che le console hanno più di 10GB di RAM e che le cose sono più ottimizzate li.

Poi DirectStorage giocherà a favore o contro?

Bé, le console hanno 16 GB di ram in tutto; su PC parliamo di 10 GB di ram solo per la parte video.

Sul DirectStorage sono curioso, soprattutto perché verrà introdotto anche su Windows.

GeeGeeOH
20-09-20, 09:07
Sulle console il SO non ciuccia tanta RAM, poi il pool è unico senza dover aver copie degli stessi dati su RAM e VRAM.
Quindi è estremamente difficile far paragoni... si vedrà.

Certo che se la differenza di prezzo è risibile penso sia meglio aver sprecato 50€ per RAM inutile che il contrario...

Covin
20-09-20, 12:05
Quindi le console raddoppiano il quantitativo di RAM ma una scheda da 10gb di RAM video va benissimo, quando una Vega di 3-4 anni fa già usciva con 8gb, logicamente logico.
Aspettate i giochi della prossima generazione mi raccomando, poi vi ritroverete a mettere la qualità delle texture a livello di una console nextgen con una scheda video che costa il doppio dei soldi.

DON IVANO
20-09-20, 17:45
Quindi le console raddoppiano il quantitativo di RAM ma una scheda da 10gb di RAM video va benissimo, quando una Vega di 3-4 anni fa già usciva con 8gb, logicamente logico.
Aspettate i giochi della prossima generazione mi raccomando, poi vi ritroverete a mettere la qualità delle texture a livello di una console nextgen con una scheda video che costa il doppio dei soldi.

ehm, i 16 GB di ram delle console bisogna spartirli per il sistema operativo, la ram classica e la ram dedicata al video, eh

se su pc hai una scheda video con 10GB dedicati solo per quello, poi devi aggiungere anche solo gli 8 GB base che servono oggi e già superi il totale di quella presente nelle nuove console, se proprio dobbiamo andare per somma. e i 16GB delle ram classiche stanno diventando pure sempre più diffuse come quantità.
Poi fra un paio d'anni le cose cambieranno perché sicuro arrivano le nuove serie di schede grafiche che potrebbe avere un nuovo apporto di memoria video a seconda della fascia.

edit: e che cazz, mi è sfuggito un contenuto simile al mio poco sopra :asd:

GeeGeeOH
21-09-20, 17:05
Ed intanto Microsoft s'è pappata Bethesda...

https://news.xbox.com/en-us/2020/09/21/welcoming-bethesda-to-the-xbox-family/



https://www.youtube.com/watch?time_continue=6&v=u_aLESDql1U

wesgard
21-09-20, 17:41
Ed intanto Microsoft s'è pappata Bethesda...

Aveva fame :sisi:

Edit: in realta zenimax quindi anche id tra le altre cose
una roba senza senso

GeeGeeOH
21-09-20, 18:00
Edit: in realta zenimax quindi anche id tra le altre coseBethesda già pubblicava i giochi fatti da id.

benvelor
21-09-20, 18:01
e arkane

meglio per noi, pensate se la prendeva sony con tutte le esclusive per la ps?

Zhuge
21-09-20, 19:44
Ed intanto Microsoft s'è pappata Bethesda...

https://news.xbox.com/en-us/2020/09/21/welcoming-bethesda-to-the-xbox-family/



https://www.youtube.com/watch?time_continue=6&v=u_aLESDql1U

:rotfl:

J_Brahms
21-09-20, 20:45
Alla fine la scimmia ha vinto, ho fatto la pazzia di prendere una 3080, modello Zotac trinity.
Ok, avrei fatto molto meglio ad aspettare modelli migliori, un minimo calo dei prezzi e, soprattutto, le nuove Radeon.. ma alla fine più di 4 anni fa ho preso una 1080 al day one e non me ne sono mai pentito, quindi sticazzi :asd:
Ordinata su nexths, mi è arrivata oggi pomeriggio: ho fatto i benchmark più impegnativi del 3dmark e ho testato i giochi al momento installati (borderlands 3, horizon zero dawn, Quake 2 rtx e wasteland 3). Appena mi verrà voglia reinstallerò anche Control e AC Odissey.
Finalmente posso giocare a palla in 4k :party:
Il gioco che mi ha colpito di più è stato Quake 2 RTX: nei video su youtube in 4k era scattosissimo su una 2080ti, sulla 3080 gira da favola.
In media faccio un paio di fps in meno rispetto al bench della founder di Guru3d (con una diversa cpu), ma anche qui sticazzi: la scheda è silenziosissima (il casino nel case lo fa solo la maledetta ventolina della mb x570) molto più della 1080, scalda ma non in modo esagerato, purtroppo consuma *tantissimo*, sui 320/330W (siamo lontanissimi dall'eleganza delle soluzioni maxwell e pascal).
In definitiva sono soddisfatto dell'acquisto semplicemente perché non vedevo l'ora di giocare in 4k senza compromessi.
Chiaramente è una scheda pensata solo per l'UHD, a risoluzioni inferiori è sprecata e cpu bound con praticamente qualsiasi processore.
Per il 2k meglio attendere le 3070/3060 o le radeon se si dimostreranno all'altezza: alla fine in 1440P ho sempre giocato egregiamente con una "misera" 1080.

J_Brahms
21-09-20, 21:07
ehm, i 16 GB di ram delle console bisogna spartirli per il sistema operativo, la ram classica e la ram dedicata al video, eh

Da notare infatti che ad es.l' Xbox Series X avrà 10GB a 560gb/s (760gb/s sulla 3080), 6GB a 336gb/s, sempre velocissimi se paragonati alla DDR4 del pc, che credo si attesti intonrno ai 30gb/s. Per la ps5 le cose non cambiano molto, si parla di 16 gb con 448 gb/s

Di questa ram entrambi i sistemi operativi si mangeranno intorno ai 2,5GB se non di più, immagino che il codice del gioco occupi non meno di 3,5 / 4 gb e che solo il resto verrà usato come video ram, a meno di non volere giocare a un FMV in tempo reale :asd:

Io sono convinto che 10gb di vram basteranno per anni: alla fine con una 980 con 4gb si può giocare ancora oggi in fullhd senza stuttering, il limite principale è la potenza della scheda: anni fa ho giocato tranquillamente a Shadow Over Mordor e a Doom 2016 anche con le textures al massimo dettaglio, cosa che sulla carta avrebbe richiesto almeno 6gb di vram.


e arkane
meglio per noi, pensate se la prendeva sony con tutte le esclusive per la ps?
Good point :asd:

fener75
21-09-20, 21:33
scusate l' ignoranza, ma queste schede che usano il pci 4.0, su una mb con pci 3.0 perdono molto in performance?

Darkless
21-09-20, 22:11
scusate l' ignoranza, ma queste schede che usano il pci 4.0, su una mb con pci 3.0 perdono molto in performance?

Non perdono nulla. Ce ne vorrà ancora prima che si arrivi a saturare il bus del PCI-E 3.0 con i giochi.

wesgard
21-09-20, 22:13
scusate l' ignoranza, ma queste schede che usano il pci 4.0, su una mb con pci 3.0 perdono molto in performance?

Dai benchmark al momento non sembrerebbe.


https://www.youtube.com/watch?v=0DKVVtirNM8

Fruttolo
21-09-20, 23:05
da quello che ricordo, no

GeeGeeOH
22-09-20, 06:35
scusate l' ignoranza, ma queste schede che usano il pci 4.0, su una mb con pci 3.0 perdono molto in performance?
Per ora no, sarà da vedere se DirectStorage avrà qualche impatto.

Lord_Barba
22-09-20, 06:54
Per ora no, sarà da vedere se DirectStorage avrà qualche impatto.Se non sbaglio, dovrebbero aver detto che per utilizzare DirectStorage servirà un SSD NVMe su PCIe 4.0.

Reeko
22-09-20, 07:18
Se non sbaglio, dovrebbero aver detto che per utilizzare DirectStorage servirà un SSD NVMe su PCIe 4.0.

mi sa che sbagli, qui parla di NVME, senza specificare se 3.0 o 4.0

https://devblogs.microsoft.com/directx/directstorage-is-coming-to-pc/

GeeGeeOH
22-09-20, 07:34
PCIe 3.0 x4 non arriva nemmeno a 4GB/s...

Darkless
22-09-20, 07:57
Per ora no, sarà da vedere se DirectStorage avrà qualche impatto.

Pare che nemmeno con quello cambierà più di tanto. In ogni caso prima che prenda piede hai voja.

freddye78
22-09-20, 08:05
Alla fine la scimmia ha vinto, ho fatto la pazzia di prendere una 3080, modello Zotac trinity.
Ok, avrei fatto molto meglio ad aspettare modelli migliori, un minimo calo dei prezzi e, soprattutto, le nuove Radeon.. ma alla fine più di 4 anni fa ho preso una 1080 al day one e non me ne sono mai pentito, quindi sticazzi :asd:
Ordinata su nexths, mi è arrivata oggi pomeriggio: ho fatto i benchmark più impegnativi del 3dmark e ho testato i giochi al momento installati (borderlands 3, horizon zero dawn, Quake 2 rtx e wasteland 3). Appena mi verrà voglia reinstallerò anche Control e AC Odissey.
Finalmente posso giocare a palla in 4k :party:
Il gioco che mi ha colpito di più è stato Quake 2 RTX: nei video su youtube in 4k era scattosissimo su una 2080ti, sulla 3080 gira da favola.
In media faccio un paio di fps in meno rispetto al bench della founder di Guru3d (con una diversa cpu), ma anche qui sticazzi: la scheda è silenziosissima (il casino nel case lo fa solo la maledetta ventolina della mb x570) molto più della 1080, scalda ma non in modo esagerato, purtroppo consuma *tantissimo*, sui 320/330W (siamo lontanissimi dall'eleganza delle soluzioni maxwell e pascal).
In definitiva sono soddisfatto dell'acquisto semplicemente perché non vedevo l'ora di giocare in 4k senza compromessi.
Chiaramente è una scheda pensata solo per l'UHD, a risoluzioni inferiori è sprecata e cpu bound con praticamente qualsiasi processore.
Per il 2k meglio attendere le 3070/3060 o le radeon se si dimostreranno all'altezza: alla fine in 1440P ho sempre giocato egregiamente con una "misera" 1080.Devi essere uno dei pochissimi in Italia ad aver ricevuto la scheda, buon per te

Lord_Barba
22-09-20, 08:22
Probabilmente l'unico in Italia che non sia uno youtuber :asd:

Reeko
22-09-20, 08:37
Avete visto che quelli di Drako hanno alzato i prezzi di 100€ di tutte le 3080 rispetto al lancio?
Oltre ad avere portato la disponibilità da 10 a 30 giorni?

Lord_Barba
22-09-20, 08:58
Avete visto che quelli di Drako hanno alzato i prezzi di 100€ di tutte le 3080 rispetto al lancio?
Oltre ad avere portato la disponibilità da 10 a 30 giorni?

Più che altro, i negozi non danno le schede disponibili, però ti vendono i pc pre-assemblati con le 3080 dentro.

Spero falliscano.

Mr Yod
22-09-20, 09:16
Per ora no, sarà da vedere se DirectStorage avrà qualche impatto.
Quello che non capisco è come possa avere un qualche impatto: la RAM non è comunque più veloce (oltre ad averla già e non richiedere hardware specifico)? :uhm:


Comunque ritratto quello che avevo detto in precedenza:

https://www.youtube.com/watch?v=wXKEJEJhM0U
"I would pay 2k$ for a 3080..."

in b4: 3080 lisce a millemila €... :bua:

GeeGeeOH
22-09-20, 09:22
Quello che non capisco è come possa avere un qualche impatto: la RAM non è comunque più veloce (oltre ad averla già e non richiedere hardware specifico)? :uhm: Per quello che permette di fare, vedasi il tech demo del Unreal Engine 5.
Le cose devono prima arrivare alla RAM... non si materializzano li.

Mr Yod
22-09-20, 09:28
Le cose devono prima arrivare alla RAM... non si materializzano li.
Si, ma ce le puoi caricare in anticipo, non tenerla completamente vuota fino all'ultimo. :uhm:

GeeGeeOH
22-09-20, 09:34
C'è troppa roba... non puoi avere tutto in RAM.
Solitamente hai quello che vedi (duh!) più un certo margine, ma non tutto a 360°...

Lord_Barba
22-09-20, 09:59
Si, ma ce le puoi caricare in anticipo, non tenerla completamente vuota fino all'ultimo. :uhm:

Se ho capito bene il meccanismo, al momento i dati (compressi) che sono sul disco vanno alla CPU che li scompatta e li manda alla GPU (in parte, mentre il resto va nella RAM).

Con il DirectStorage, esattamente come le nuove console, i dati compressi che sono sul disco finiscono direttamente alla GPU e alla VRAM.

La comunicazione tra SSD collegato al PCIe 4.0 e la VGA è maggiore di diversi ordini di grandezza rispetto al giro solito.

GeeGeeOH
22-09-20, 10:13
Il punto è che se puoi caricare più velocemente (più banda, meno passaggi) da storage puoi caricare texture più dettagliate... che però vanno a mangiare più RAM.
Di pro c'è che se carichi più velocemente non devi caricare troppo in anticipo...

Per quello, si deve aspettare e vedere...

J_Brahms
22-09-20, 10:19
scusate l' ignoranza, ma queste schede che usano il pci 4.0, su una mb con pci 3.0 perdono molto in performance?
Ieri ho fatto qualche test limitando da bios la banda: tra 3.0 e 4.0 passano 1, massimo 2 fps nei migliori scenari. Diciamo che siamo nel margine di errore. È possible che il pce 4.0 torni utile in qualche modo con il direct storage o con la tecnologia nvidia ( che al momento non credo sia abilitata, non vedo nessuna voce in merito nei driver).

GeeGeeOH
22-09-20, 10:21
RTX IO mi sembra di capire dipenda da DirectStorage, quindi finché non arriva quello...

J_Brahms
22-09-20, 10:28
Devi essere uno dei pochissimi in Italia ad aver ricevuto la scheda, po'buon per te
Presa da nexths, certo è una zotac e non una asus tuf ma per il momento sono molto soddisfatto.
Se avete domande sulla scheda chiedete pure.

GeeGeeOH
22-09-20, 10:30
https://www.nexths.it/Products/details/sku/ZT-A30800D-10P
800€? O prima era meno?

freddye78
22-09-20, 11:21
https://www.nexths.it/Products/details/sku/ZT-A30800D-10P
800€? O prima era meno?Meno, chiaro che vista la richiesta stanno speculandoci

J_Brahms
22-09-20, 11:47
Confermo, il prezzo sulla Zotac è aumentato di 10euro, da 789 a 799. A un certo punto sembrava che dovessero arrivare diverse Asus con uno sconto di 100€ e oltre. Non so se qualche fortunato le ha prese ma a me next ha scritto solo per la Zotac.

Marlborough's
22-09-20, 12:27
Ed intanto Microsoft s'è pappata Bethesda...

https://news.xbox.com/en-us/2020/09/21/welcoming-bethesda-to-the-xbox-family/



https://www.youtube.com/watch?time_continue=6&v=u_aLESDql1U

Tutta quanta Zenimax 😐

freddye78
22-09-20, 20:31
Ordine annullato da amazon :bua:

fener75
22-09-20, 21:46
grazie per le risposte, ho rifatto il pc 3 anni fa (comprando una gtx 1080) e non vorrei doverlo rifare gia' ora, al massimo devo cambiare l alimentatore (cx650m) con un cx750m cosi non devo ricablare i cavi.

Fruttolo
22-09-20, 21:56
quindi brahms la scheda è da 4k 60fps rtx on, oppure 1440 120fps rtx on?

J_Brahms
23-09-20, 07:51
quindi brahms la scheda è da 4k 60fps rtx on, oppure 1440 120fps rtx on?
La risposta è "dipende": ho provato con Control, probabilmente il gioco più pesante da questo punto di vista, e senza dlss è stato un bagno di sangue :bua: parliamo a occhio di 35 fps medi in 4k e di 60 risicati in 2k.
Con dlss on siamo sui 60 in 4k e sul centinaio in 2k. Control è sicuramente un caso limite ma mi chiedo come gireranno Cyberpunk e WD Legion

- - - Aggiornato - - -


grazie per le risposte, ho rifatto il pc 3 anni fa (comprando una gtx 1080) e non vorrei doverlo rifare gia' ora, al massimo devo cambiare l alimentatore (cx650m) con un cx750m cosi non devo ricablare i cavi.
Ho visto un video su youtube dove dimostravano che una 3080 può essere gestita tranquillamente da un psu da 650w. Io magari non farei overclock ma non dovresti avere problemi, soprattutto se punti a una scheda grafica meno "power hungry"

Lord_Barba
23-09-20, 07:57
La risposta è "dipende": ho provato con Control, probabilmente il gioco più pesante da questo punto di vista, e senza dlss è stato un bagno di sangue :bua: parliamo a occhio di 35 fps medi in 4k e di 60 risicati in 2k.
Con dlss on siamo sui 60 in 4k e sul centinaio in 2k. Control è sicuramente un caso limite ma mi chiedo come gireranno Cyberpunk e WD Legion


Ecco, com'è la resa con il DLSS?

Perché sì, ok, è un supersampling, ma ho letto in giro che, in certi frangenti e con certi giochi, la resa sia incredibilmente vicina alla risoluzione nativa con in più un netto aumento degli FPS.

GeeGeeOH
23-09-20, 08:16
Per come la vedo io DLSS avrà supersampling nel nome, ma è un upscaling: prende una risoluzione originale bassa e sputa fuori un output più alto.
Supersampling sarebbe il contrario: per un output ad certa risoluzione fa calcoli ad una risoluzione superiore...

Fruttolo
23-09-20, 12:27
Quindi 1440 60fps rtx on, indicativo.
Sta cosa che DLSS all'improvviso è il santo graal e un'opzione che si deve avere ed attivare mi sembra strana... :asd:

Mr Yod
23-09-20, 12:33
Per come la vedo io DLSS avrà supersampling nel nome, ma è un upscaling: prende una risoluzione originale bassa e sputa fuori un output più alto.
Supersampling sarebbe il contrario: per un output ad certa risoluzione fa calcoli ad una risoluzione superiore...
Come ho detto in precedenza: è il classico "zoom, enhance" di film e telefilm. :asd:
E funziona allo stesso modo: inventandosi roba per aumentare la risoluzione, quindi non è un semplice upscaling. :sisi:

Resta da vedere quanto bene la IA riesca ad inventarsi le cose upscalate. :uhm:

Darkless
23-09-20, 13:13
Come ho detto in precedenza: è il classico "zoom, enhance" di film e telefilm. :asd:
E funziona allo stesso modo: inventandosi roba per aumentare la risoluzione, quindi non è un semplice upscaling. :sisi:

Resta da vedere quanto bene la IA riesca ad inventarsi le cose upscalate. :uhm:

All'inizio non era gran che ma han fatto passi da gigante in tempi relativamente brevi. Se continuano così bisogna ammettere che sarà tanta roba nel giro di un altro paio d'anni.


Quindi 1440 60fps rtx on, indicativo.
Sta cosa che DLSS all'improvviso è il santo graal e un'opzione che si deve avere ed attivare mi sembra strana... :asd:

Perchè ci stanno investendo molto ed i miglioramenti sono stati significativi. Lascia molto ben sperare per l'immediato futuro.

GeeGeeOH
23-09-20, 13:24
Che faccia un buon lavoro con cambia quello che è... piegarsi al marketing che dice "4k" e "supersampling" quando è tutt'altro, a me non va giù...

benvelor
23-09-20, 13:56
però le console sono amd, che ha il "suo" RT e (dice) il suo "DLSS": e sono le console che tirano il mercato...
in ottica futura (un paio d'anni?) vedo più prendere la strada di amd che di nvidia con tecnologie proprietarie, sempre che non riesca ad ungere bene...
e sappiamo che le loro, hanno fatto una brutta fine, l'ultima il G-sync che non si caga più nessuno

Darkless
23-09-20, 15:27
Che faccia un buon lavoro con cambia quello che è... piegarsi al marketing che dice "4k" e "supersampling" quando è tutt'altro, a me non va giù...

Mah il marketing non lo guardo nemmeno oramai. Valuto direttamente la resa di quel che vedo. Poi c'è da dire una cosa: siamo in una situazione di transizione anche a livello sofware oltre che hardware. Con l'arrivo di titoli ed engine pensati sin dall'inizio del loro sviluppo per implementare RT e DLSS si presume che le ottimizzazioni e le prestazioni miglioreranno rispetto ai titoli attuali dove sono aggiunte un po' raffazzonate.

GeeGeeOH
23-09-20, 16:58
Col tempo probabilmente miglioreranno, ma non sono nuove API come Dx12 o Vulkan dove "cambia tutto" e si deve ripensare il motore... sono cose abbastanza a se stanti.

J_Brahms
23-09-20, 17:37
Come ho detto in precedenza: è il classico "zoom, enhance" di film e telefilm. :asd:
E funziona allo stesso modo: inventandosi roba per aumentare la risoluzione, quindi non è un semplice upscaling. :sisi:

Resta da vedere quanto bene la IA riesca ad inventarsi le cose upscalate. :uhm:
Sono perfettamente d'accordo, non si tratta di un semplice upsampling.
Il dlss è un'ottima tecnologia nella revisione 2.0 (la prima versione restituiva immagini spesso sfuocate), restano in alcuni giochi dei piccoli artefatti visivi, soprattutto nelle immagini in lontananza, ma trascurabili.


Ecco, com'è la resa con il DLSS?.
Davvero ottima, con le impostazioni Qualità in 4k le immagini sono leggermente più definite che in modalità nativa.

freddye78
23-09-20, 20:35
Eccallà https://videocardz.com/newz/ge...ng-reports-of-crashes-in-games
"mai al dayone" dovrebbe essere scolpito nella pietra

GeeGeeOH
23-09-20, 21:20
Eccallà https://videocardz.com/newz/ge...ng-reports-of-crashes-in-games
"mai al dayone" dovrebbe essere scolpito nella pietra
Link troncato...

https://videocardz.com/newz/geforce-rtx-3080-sees-increasing-reports-of-crashes-in-games

Lord_Barba
23-09-20, 21:43
Si ma io non ho ancora capito chi sono questi "users" che sono riusciti a comprare le schede... :asd:

Mr Yod
23-09-20, 22:37
Si ma io non ho ancora capito chi sono questi "users" che sono riusciti a comprare le schede... :asd:Eccone uno:

Alla fine la scimmia ha vinto, ho fatto la pazzia di prendere una 3080, modello Zotac trinity.

Comunque, da un link nei commenti dell'articolo di videocardz: https://www.igorslab.de/en/gddr6x-am-limit-ueber-100-grad-bei-der-geforce-rtx-3080-fe-im-chip-gemessen-2/ :uhm:
Ci puoi veramente cuocere le uova sopra. :o

Fruttolo
23-09-20, 23:07
Perchè ci stanno investendo molto ed i miglioramenti sono stati significativi. Lascia molto ben sperare per l'immediato futuro.

Dai è uno strumento di ricostruzione di immagine.
Come dire meglio fare una foto a risoluzione più bassa ma con i pixel in più ricostruiti che a risoluzione full naturale.
Per quanto sia un compromesso interessante, io vedo solo gente che pur di ricevere prodotti e avere contenuti da produrre ne parla bene come da copione pubblicitario...


però le console sono amd, che ha il "suo" RT e (dice) il suo "DLSS": e sono le console che tirano il mercato...


più che altro amd offre soluzioni più aperte e condivisibili, ma l'ultima generazione era ugualmente made in amd, quindi si parlava di porting con inevitabili ottimizzazioni più naturali dato l'hw più simile, Mantle prima e Vulkan poi...sono comunque rimasti indietro :asd:

GeeGeeOH
24-09-20, 14:04
Review della 3090 live.
Non arriva al 20% più della 3080.

GeeGeeOH
24-09-20, 14:21
https://www.youtube.com/watch?v=Xgs-VbqsuKo

8K :asd:
"Gaming" :rotfl:

freddye78
24-09-20, 15:29
Review della 3090 live.
Non arriva al 20% più della 3080.Specchietto per allodole per il gamer che vuole vantarsi con gli amici di averlo più grosso :caffe:

Darkless
24-09-20, 15:52
Review della 3090 live.
Non arriva al 20% più della 3080.

Ma infatti non è una scheda da gaming, solo un mentecatto potrebbe pensarlo. In ambito produttività invece è una bestia, com'è giusto che sia.

GeeGeeOH
24-09-20, 15:53
Il punto è che è quello che però spinge nVidia...
Gaming 8k.


Produttività non è nemmeno esattamente a livello Titan:
https://forums.anandtech.com/attachments/1600960724360-png.30437/


https://youtu.be/YjcxrfEVhc8?t=605
A 10min circa.

https://i.ibb.co/rvynKHf/1.png

Non ha le ottimizzazioni che hanno Titan/Quadro.

Darkless
24-09-20, 17:13
Il punto è che è quello che però spinge nVidia...


Vabbè pure AMD ti dice che il 3900X è una CPU da gaming quando non lo è e ci sono Ryzen meno costosi vanno anche di più con i giochi.
Oramai il bollino "gaming" lo appiccicano a caso ovunque sperando che qualcuno abbocchi (ed evidentemente qualcuno c'è).

J_Brahms
24-09-20, 17:16
Eccone uno:
Comunque, da un link nei commenti dell'articolo di videocardz: https://www.igorslab.de/en/gddr6x-am-limit-ueber-100-grad-bei-der-geforce-rtx-3080-fe-im-chip-gemessen-2/ :uhm:
Ci puoi veramente cuocere le uova sopra. :o

:asd: Speriamo che le Gddr6X a 104 gradi non mi distruggano la scheda, che per il resto mi sembra relativamente fresca :mah:



Per quanto sia un compromesso interessante, io vedo solo gente che pur di ricevere prodotti e avere contenuti da produrre ne parla bene come da copione pubblicitario...

Per quanto mi riguarda, il Dlss 1.0 (quello di Metro Exodus) effettivamente sfuoca le immagini e non è un granché
La versione 2.0 usata negli ultimi giochi può restituire immagini più nitide del 4k nativo. Es. Death Stranding (https://www.youtube.com/watch?v=9ggro8CyZK4&feature=emb_logo).


Il punto è che è quello che però spinge nVidia...
Gaming 8k.

Produttività non è nemmeno esattamente a livello Titan:

Non ha le ottimizzazioni che hanno Titan/Quadro.
Interessante.. diciamo che la scheda è per utilizzo ibrido gioco / lavoro.
Gaming 8k: con il DSR ho provato a spingere la mai 3080 a 8k. Ho provato Horizon Zero Dawn ed è stato un disastro: framerate sui 30fps con drop sui 20 e stuttering a manetta: ecco, a 8k 10 giga di Vram NON bastano :asd:

Se la 3090 con 24 gb non avrà stuttering, un 20% in più di prestazioni non sono sufficienti.. MA se non sbaglio la scheda è l'unica ad avere il supporto NV Link: non vedo l'ora di vedere qualche youtuber pazzo esaltato con due di quelle mostruosità nel case. PSU minima: 1600W,
se le schede esplodono creano un buco nero :D


Vabbè pure AMD ti dice che il 3900X è una CPU da gaming quando non lo è e ci sono Ryzen meno costosi vanno anche di più con i giochi.
Oramai il bollino "gaming" lo appiccicano a caso ovunque sperando che qualcuno abbocchi (ed evidentemente qualcuno c'è).
E' vero, nel senso che per il gaming i 12 core del 3900x o i 10 del 10900X semplicemente non servono: 8 core saranno più che sufficienti negli anni a venire.
Fortunatamente ci sono altri ambiti (https://www.cwi.it/hardware/processori-pc-e-server/ryzen-3000-recensione-benchmark-grafica-video-120623) in cui tutti quei core tornano utili.

GeeGeeOH
24-09-20, 17:19
Vabbè pure AMD ti dice che il 3900X è una CPU da gaming quando non lo è e ci sono Ryzen meno costosi vanno anche di più con i giochi.
Oramai il bollino "gaming" lo appiccicano a caso ovunque sperando che qualcuno abbocchi (ed evidentemente qualcuno c'è).Qui il diktat è stato di promuoverla esclusivamente come gaming... e gaming 8k... non mi risulta Intel o AMD fumino la stessa roba.

- - - Aggiornato - - -


Se la 3090 con 24 gb non avrà stuttering, un 20% in più di prestazioni non sono sufficienti..
A 20% non arriva, mediamente non mi sembra nemmeno al 15%...

Doveva essere "Titan class", ma le segano le gambe via driver... per sbloccare quelli vorranno 3k$.

Darkless
24-09-20, 17:42
Qui il diktat è stato di promuoverla esclusivamente come gaming... e gaming 8k... non mi risulta Intel o AMD fumino la stessa roba.


Il principio è lo stesso.
Quando fai una presentazione del genere per una CPU palesemente orientata alla produttività vuol dire sempre che cerchi di accalappiarti gli arcor gaimer per piazzare qualche vendita:

https://o.aolcdn.com/images/dims?thumbnail=960%2C&quality=95&image_uri=https%3A%2F%2Fs.yimg.com%2Fuu%2Fapi%2Fre s%2F1.2%2FWaQq9GDud3qY7gouFnrsBg--%7EB%2FaD05ODI7dz0xNjAwO2FwcGlkPXl0YWNoeW9u%2Fhttp s%3A%2F%2Fo.aolcdn.com%2Fimages%2Fdims%3Fcrop%3D16 00%252C982%252C0%252C0%26quality%3D85%26format%3Dj pg%26resize%3D1600%252C982%26image_uri%3Dhttps%253 A%252F%252Fs.yimg.com%252Fos%252Fcreatr-uploaded-images%252F2019-05%252F4a429b30-8032-11e9-bebe-94bca5703ec5%26client%3Da1acac3e1b3290917d92%26sig nature%3D17420ac7ae5393d597c17d4d7ebb5c1a8df46222&client=amp-blogside-v2&signature=138b48821064c1c24bea8fe3f5a6722a933d8507

E sempre AMD parlò di gaming all'epoca alla presentazione della Vega FE se non ricordo male.

E' normale, non sono onlus e cercano di vendere il più possibile.

GeeGeeOH
24-09-20, 18:07
Li fa un pò ridere perché è l'unico primato che si potevano inventare, 12 core non erano esattamente una novità... ma non hanno promosso quella CPU esclusivamente il per gaming eh.

Per la 3090 invece non vogliono parlare del lato professionale e ridicolmente hanno indirizzato il tutto su questa buffonata del Gaming 8k.
Si fossero fermati ai due video sponsorizzati gli scorsi giorni, quindi lasciandola come parentesi secondaria...

Darkless
24-09-20, 18:19
Diciamo che con la 3090 si è toccato l'apice :asd: l'andazzo del marketing cmq è quello già da un po'

Fruttolo
24-09-20, 19:20
La versione 2.0 usata negli ultimi giochi può restituire immagini più nitide del 4k nativo. Es. Death Stranding (https://www.youtube.com/watch?v=9ggro8CyZK4&feature=emb_logo).


Ma infatti è questa la cosa che mi lascia perplesso. Che una ricostruzione sia meglio del nativo....

Cmq il 3900x e il 3950 potrebbero essere ottimi acquisti usati al lancio della nuova serie.

Mr Yod
25-09-20, 12:55
https://www.youtube.com/watch?v=fN8G5eESqmM

Mi potreste prestare qualche mano? :timido:
Io ho esaurito le mie a facepalmare e me ne servirebbe qualun'altra... :facepalm:


In b4: 3080 a 10k€ come prezzo base. :facepalm:
Quando pensi che il tizio di Moore's Law is Dead abbia detto delle cazzate, ma la gente fa di tutto pur di dargli ragione... :bua:

GeeGeeOH
25-09-20, 13:20
Mi puzza un pò chi dice che la compra per lavoro... non so quanto tempo ci metterà a recuperare i giorni buttati nel cesso in coda li...

Darkless
25-09-20, 13:21
Si ma sta gente ossessionata dall'accaparrarsi le schede al lancio ad ogni costo per me stan fuori di testa.

Mr Yod
25-09-20, 13:27
Mi puzza un pò chi dice che la compra per lavoro... non so quanto tempo ci metterà a recuperare i giorni buttati nel cesso in coda li...Dipende: se il suo lavoro è rivenderla a 5 volte il prezzo magari ci guadagna. :asd:

Un po' come le due tizie che cercavano di comprare dei posti in fila perchè volevano prendere le schede "per degli amici". :asd:

GeeGeeOH
25-09-20, 14:25
What Products Use Intel 10nm? SuperFin and 10++ Demystified (https://www.anandtech.com/show/16107/what-products-use-intel-10nm-superfin-demystified)

https://images.anandtech.com/doci/16107/4g0pt1_575px.jpg

https://images.anandtech.com/doci/16107/14nms.png

:asd:

Marlborough's
25-09-20, 17:52
Ma infatti non è una scheda da gaming, solo un mentecatto potrebbe pensarlo.

:uhm:

wesgard
25-09-20, 22:37
Che disastro:
Sono riportati crash appena si prova ad overcloccare o si gioca pesante su moltissimi brand di schede custom. Questo e' quasi sicuramente il motivo:
hanno fatto economie su 800 e 1500 euro di schede...
https://www.igorslab.de/en/what-real-what-can-be-investigative-within-the-crashes-and-instabilities-of-the-force-rtx-3080-andrtx-3090/



https://www.youtube.com/watch?v=x6bUUEEe-X8

J_Brahms
26-09-20, 08:16
Che disastro:
Sono riportati crash appena si prova ad overcloccare o si gioca pesante su moltissimi brand di schede custom. Questo e' quasi sicuramente il motivo:
hanno fatto economie su 800 e 1500 euro di schede...
https://www.igorslab.de/en/what-real-what-can-be-investigative-within-the-crashes-and-instabilities-of-the-force-rtx-3080-andrtx-3090/
Sì, avevo letto articoli di questo tipo nei gironi scorsi ma pensavo che il problema riguardasse solo le 3080: brand che fanno economie su schede da 1.800 euro :facepalm:
Pare che questo riguardi moltissime custom, tra cui tutte le EVGA, la MSI trio, le Palit e la mia Zotac Trinity :facepalm: : in pratica le schede vanno in crash al superamento dei 2ghz di frequenza. Sul forum ufficiale Nvidia sembra che il problema riguardi anche le FE. , quindi le uniche schede sicure sono le Asus. :|

Ora, io non ho riscontrato nessun tipo di instabilità e ho fatto diversi stability test, ma del resto la mia 3080 non va oltre 1,9ghz.
Considerando che queste schede sono già tirate, che consumano più di 320W a pieno carico, che le gdd6x scaldano tantissimo... che senso ha l'overclock? Farle esplodere per avere al max 2-3 fps in più nei giochi? :facepalm:

Rispetto alla 2080ti, la 3080 consuma il 30% in più per offrire il +30% in raster e il +30% in RT: se fossi un malato di overclock punterei a una 2080ti usata e cercherei di ridurre il gap :D

GeeGeeOH
26-09-20, 08:20
Ho letto che bisogna poi stare attenti ad overclockare le GDDR6X.
Avendo una sorta di ECC non mostrano artefatti, in quanto gli errori son corretti, ma le performance calano perché appunto devono correggere gli errori generati dalla situazione non stabile.


Riguardo i produttori che "risparmiano", sembra che nVidia abbia un controllo quasi assoluto: approvare i design ed impone dei limiti su quanto possono spendere sui vari componenti...

Lord_Barba
26-09-20, 08:39
Scommettiamo che è il vero motivo per cui ci sono poche schede in giro?

Avran detto "proviamo e vediamo se reggono le frequenze maggiorate; in caso facciamo la modifica e vendiamo la revisione 1.1 " :sisi:

I pochi che hanno preso la scheda al day one faranno RMA e GG.



Certo, poi mi devono spiegare perché nelle recensioni questi problemi non siano venuti fuori, visto che hanno tutti fatto a gara a chi tirava di più la scheda in 4K. :uhm:

J_Brahms
26-09-20, 09:13
Ho letto che bisogna poi stare attenti ad overclockare le GDDR6X.
Avendo una sorta di ECC non mostrano artefatti, in quanto gli errori son corretti, ma le performance calano perché appunto devono correggere gli errori generati dalla situazione non stabile.
Molto interessante, non lo sapevo. Essendo già incandescenti, ecco spiegatoil motivo per cui nessun modello OC di fabbrica tocca la frequenza delle memorie (che io sappia).


Riguardo i produttori che "risparmiano", sembra che nVidia abbia un controllo quasi assoluto: approvare i design ed impone dei limiti su quanto possono spendere sui vari componenti...

Può darsi, ma io penso più a un rush produttivo per fare uscire più schede possibili prima possibile. EVGA ha ammesso l'errore (https://www.tomshardware.com/news/evga-nvidia-rtx-3080-capacitor-caused-crashes).
Tra l'altro non è detto che i crash siano dovuti (solo) all'uso di capacitori al risparimo. Riporto quanto indicato da Hardware unboxed:

" The crashing with the RTX 3080 cards doesn’t appear to be down to the caps used, which is why we haven’t made a video yet, we don’t know the issue. What we do know is the FE and TUF Gaming models crash just as much as other models and they use MLCC’s."
" Or rather "just" down to the caps used. It could be a problem for the budget models not using any MLCCs at all. But this isn't the only issue causing crashes and probably not the main issue causing what looks to be a widespread issue."
" At the moment it’s looking more like a core clock speed issue. But don’t have enough info yet, it could just be a driver issue."

Si potrebbe pensare a un concorso di colpa: chip tiratissimi + componenti al risparmo, però è strano che la cosa avvenga anche sulle 3090,che sicuramente sono i chip migliori.


Scommettiamo che è il vero motivo per cui ci sono poche schede in giro?

Avran detto "proviamo e vediamo se reggono le frequenze maggiorate; in caso facciamo la modifica e vendiamo la revisione 1.1 " :sisi:

I pochi che hanno preso la scheda al day one faranno RMA e GG.

Certo, poi mi devono spiegare perché nelle recensioni questi problemi non siano venuti fuori, visto che hanno tutti fatto a gara a chi tirava di più la scheda in 4K. :uhm:
La mia scheda per ora è perfettamente stabile, silenziosa e, con tutto quanto scritto sopra, è anche relativamente fresca. Sono soddisfatto. Sicuramente appena esploderà faro RMA e tirerò nuovamente fuori la mia 1080, anche questa presa al d1 più di 4 anni fa e perfettamente stabile da allora :D
Per quanto riguarda le recensioni, tutte quelle che ho letto mostravano margini di OC limitatissimi, in cambio di un aumento di frame praticamente nullo e con consumi anche sopra i 370W. Tutto sommato i recensori sono stati onesti.

Su youtube non so, ho seguito solo il video di GN sulla 3090, quello delle bustarelle di Nvidia :asd:

Ieri giocavo a Serois Sam 4, ho impostato le librerie vulkan e il gioco stutterava da morire. Primo pensiero "ecco il limite dei 10gb". In realtà era solo un problema di ottimizzazione: con le dx11 è fluidissimo in 4k.

Mr Yod
26-09-20, 09:29
https://www.youtube.com/watch?v=x6bUUEEe-X8
Jay è il Moore's Law is Dead dell'altra fazione (e con un po' meno teorie del complotto). :asd:

Uno nei commenti (che non riesco più a trovare) diceva che in realtà i condensatori grossi costano molto di più di quelli piccoli (e anche usando molti piccoli al posto di un grosso il costo è in favore ai piccoli), il problema è il cambio dei nastri per le macchine pick&place. :uhm:

Comunque pare che Asus e MSI abbiano usato i condensatori "buoni", però: https://twitter.com/HardwareUnboxed/status/1309659834468298753 :bua:



Pare che questo riguardi moltissime custom, tra cui tutte le EVGA, la MSI trio, le Palit e la mia Zotac Trinity :facepalm: : Veramente, se diamo la colpa ai condensatori, no: la MSI è come le FE. :uhm:

GeeGeeOH
26-09-20, 10:05
Scommettiamo che è il vero motivo per cui ci sono poche schede in giro?

Avran detto "proviamo e vediamo se reggono le frequenze maggiorate; in caso facciamo la modifica e vendiamo la revisione 1.1 " :sisi:

I pochi che hanno preso la scheda al day one faranno RMA e GG.



Certo, poi mi devono spiegare perché nelle recensioni questi problemi non siano venuti fuori, visto che hanno tutti fatto a gara a chi tirava di più la scheda in 4K. :uhm:Dubito rischino un casino del genere.

Le recensioni son fatte con schede che presumo sono già testate internamente...

Non mi stupirei che almeno alcuni problemi possano dipendere da alimentatori non all'altezza...

Darkless
26-09-20, 10:47
Pure all'uscita delle 20XX ci fu il problema di partite con parecchie di schede difettose (mi par di ricordare il problema fossero le ram). I lanci ad Nvidia non riescono più come una volta :asd:
Una ragione in più per non farsi prendere dall'ansia dell'acquisto al day1

Mr Yod
26-09-20, 11:36
Le recensioni son fatte con schede che presumo sono già testate internamente...
GN però ha avuto problemi di crash con un gioco di F1. :uhm:
Anche se è stato l'unico problema che ha avuto, inoltre le recensioni base non sono col boost/OC/come-lo-si-vuol-chiamare. :uhm:

GeeGeeOH
26-09-20, 11:43
Un solo gioco può essere un caso.
Mi sembra che lascino le impostazioni di fabbrica, con tanto di boost ed eventuali pre-OC.

Fruttolo
26-09-20, 11:45
Pare che questo riguardi moltissime custom, tra cui tutte le EVGA, la MSI trio, le Palit e la mia Zotac Trinity :facepalm: : in pratica le schede vanno in crash al superamento dei 2ghz di frequenza. Sul forum ufficiale Nvidia sembra che il problema riguardi anche le FE. , quindi le uniche schede sicure sono le Asus. :|


Ho provato a vedere un attimo le differenze tra le schede, ma non mi torna. Asus non dovrebbe sicura, anzi l'opposto :uhm:

Vabbè magari tra un paio d'ore mi sveglio. :asd:

Sulle recensioni chissà quali copioni o linee guida hanno avuto, se qualcuno ha detto "eh magari questo problema che ho avuto è dovuto alla saturazione di ram" può essere un campanello d'allarme.

Vabbè c'è gente in Italia che gliel'hanno mandata e non l'hanno manco provata, capirai :asd:

Cmq mi spiace per quelli che ora esultano per aver evitato una pallottola e sfottono i bottari quando meritavano l'inculata :asd:

Zhuge
26-09-20, 12:15
Se sono andati al risparmio sulle schede di punta, sulle 3070 sarà un disastro :tremo:

GeeGeeOH
26-09-20, 12:37
Non per forza, la 3070 non dovrebbe essere tirata al limite...

David™
26-09-20, 14:13
WTF, mi pare che qualcuno, qui, non abbia ben capito:

Quei cosi grossi in silicio sono troppo sensibili a distrurbi elettromagnetici, sono più economici rispetto a quel gruppo di resistenze, sono il male. EVGA ok, Asus TUF SUPER OK, FE ok, Gigabyte e Zotac da evitare.

GeeGeeOH
26-09-20, 15:37
Hi all,

Recently there has been some discussion about the EVGA GeForce RTX 3080 series.

During our mass production QC testing we discovered a full 6 POSCAPs solution cannot pass the real world applications testing. It took almost a week of R&D effort to find the cause and reduce the POSCAPs to 4 and add 20 MLCC caps prior to shipping production boards, this is why the EVGA GeForce RTX 3080 FTW3 series was delayed at launch. There were no 6 POSCAP production EVGA GeForce RTX 3080 FTW3 boards shipped.

But, due to the time crunch, some of the reviewers were sent a pre-production version with 6 POSCAP’s, we are working with those reviewers directly to replace their boards with production versions.
EVGA GeForce RTX 3080 XC3 series with 5 POSCAPs + 10 MLCC solution is matched with the XC3 spec without issues.

Also note that we have updated the product pictures at EVGA.com to reflect the production components that shipped to gamers and enthusiasts since day 1 of product launch.
Once you receive the card you can compare for yourself, EVGA stands behind its products!

Thanks
EVGAhttps://forums.evga.com/Message-about-EVGA-GeForce-RTX-3080-POSCAPs-m3095238.aspx

wesgard
26-09-20, 19:28
https://forums.evga.com/Message-about-EVGA-GeForce-RTX-3080-POSCAPs-m3095238.aspx

Si Jay lo diceva anche nel video che EVGA lo aveva avvisato di un problema prima del lancio.

Cmq MAI MAI comprare niente al day one.

Come diceva Jay quello che compri e' quello che e' scritto sulla scatola: 1700 mhz (vado a memoria). Tutti i discorsi sul boost automatico ecc ecc anche se ufficiali sono solo a voce ma non scritte da nessuna parte. Quindi secondo lui faranno driver firmware che castrano il boost e sara' perfettamente legale.

Non so' e' vero che sulla scatola non e' scritto ma del boost ne hanno parlato ovunque come di una cosa assolutamente normale. Una feature della scheda non un di piu'.

Confuso

GeeGeeOH
26-09-20, 19:49
Veramente le frequenze di boost le scrivono...

Una a caso:
https://us.msi.com/Graphics-card/GeForce-RTX-3080-GAMING-X-TRIO-10G/Specification
CORE CLOCKS - Boost: 1815 MHz

GeeGeeOH
26-09-20, 20:01
Per quanto siano da prendere con le pinze, sono emerse delle specifiche per le GPU di AMD.
Estrapolate da un firmwre per macOS.

Navi 21 (Big Navi): 80 CU @ 2050-2200 MHz

E solitamente Apple tiene versioni con clock più rilassati...
Del resto la PS5 va a 2.23GHz...


Ancora un mese...

wesgard
26-09-20, 21:48
Mi sembrava strano non fosse scritto il boost.
Allora non ho capito il suo ragionamento nel video su youtube. Vabbe' vediamo che fanno.

AMD non vedo l'ora. L'unica cosa che mi preoccupava era il RT. Ma a questo punto non sono piu' cosi' convinto che una 3070 possa gestire decentemente il RT specie nei giochi futuri.

Cmq prima di febbraio/marzo non compro nulla. Troppa confusione IMHO.

Mr Yod
27-09-20, 00:02
Si Jay lo diceva anche nel video che EVGA lo aveva avvisato di un problema prima del lancio.Mi pare l'avesse detto di un'altra maca. :uhm:


Allora non ho capito il suo ragionamento nel video su youtube.

Jay è il Moore's Law is Dead dell'altra fazione (e con un po' meno teorie del complotto). :asd:Jay è un fanboy Nvidia/Intel. :asd:

wesgard
27-09-20, 00:23
Mi pare l'avesse detto di un'altra maca. :uhm:


Colorful.. :facepalm:

Devo andare a farmi revisonare la memoria.. l'avevo rivisto tipo 10 min prima :asd:

Lord_Barba
27-09-20, 08:37
Comunque, dato che ormai siamo a Ottobre e in ogni caso non c'è traccia di 3080 da nessuna parte, tanto vale aspettare il reveal delle nuove AMD.

Premesso che mi interessa fino a un certo punto il fatto che possano consumare meno (non le monterò su un notebook a batteria), valuterò se tornare in AMD (anzi, ATI :asd: ) solo se rivaleggeranno con le 3080 sia come prestazioni che come features.

Per me non avrebbe senso prendere "oggi" una scheda AMD di nuova generazione che, come prestazioni, si metterà tra la 2080ti e la 3070 a 500 Euro (ipotesi eh).

Marlborough's
27-09-20, 09:49
WTF, mi pare che qualcuno, qui, non abbia ben capito:

Quei cosi grossi in silicio sono troppo sensibili a distrurbi elettromagnetici, sono più economici rispetto a quel gruppo di resistenze, sono il male. EVGA ok, Asus TUF SUPER OK, FE ok, Gigabyte e Zotac da evitare.

Dunque Gigabyte e Zotac sono andate al risparmio mentre, se tanto di ma tanto, con le STRIX si andra' sul velluto.
Ecco, vista la "malaparata" delle Gigabyte base sono curioso di vedere le Aorus; mi aspetterei la soluzione piu' valida e costosa(cosi' non fosse hai voglia che casino di proteste) :look:

freddye78
27-09-20, 10:16
con le STRIX si andra' sul velluto.

E le tuf

freddye78
27-09-20, 10:16
Comunque, dato che ormai siamo a Ottobre e in ogni caso non c'è traccia di 3080 da nessuna parte, tanto vale aspettare il reveal delle nuove AMD.
Ieri sera amazon ha messo in vendita qualche tuf, consegna fine ottobre, sparite nel giro di pochi minuti.

GeeGeeOH
27-09-20, 14:11
Intanto newegg pubblica questa pagina:
https://www.newegg.com/insider/how-to-choose-graphics-card/


GPUSPBase-Boost clock (MHz)RAM typeRAM (GB)RAM (GB/s)RAM widthTDP (watts)
570023041465-1725MHzGDDR6 8GB 448GB/s256-bit180W
5700XT25601605-1905MHzGDDR6 8GB 448GB/s256-bit225W
6700XT25601500MHzGDDR6 6GB 384GB/s192-bit150W
6800XT38401500MHzGDDR6 12GB 384GB/s192-bit200W
6900XT51201500MHzGDDR616GB512GB/s256-bit300W


(NB: ho aggiunto io il boost per le 5700)
I 1500MHz sembrano un placeholder... come tutta la tabella potrebbe essere solo una collezione di rumor...

Lord_Barba
27-09-20, 15:00
Cioè, la 6800XT "potrebbe" avere 12GB di VRAM GDDR6 a 192bit per un totale di 384GB/s, contro i 10GB GDDR6X della 3080 a 320 bit per un totale di 760GB/s?

La 6700 addirittura avrà solo 6GB? :uhm:

GeeGeeOH
27-09-20, 15:45
Si strano.
A meno che non si siano inventati qualche super-mega-iper compressione...

wesgard
27-09-20, 16:03
Il nosto amd-fag per eccellenza parla di 8GN e di qualche tipo di cache per mitigare la mancanza di velocita' ma non entra nei dettagli.

https://youtu.be/dChKb3LG38s?t=722


Edit: uff il video non parte al momento giusto. Min: 12

GeeGeeOH
27-09-20, 16:11
Si c'è il rumor di una notevole cache: 128MB.
Mi sembra che Intel aveva avuto buoni risultati con alcuni varianti di GPU integrate Iris con un botto di eDRAM/cache...

wesgard
27-09-20, 16:16
Si c'è il rumor di una notevole cache: 128MB.
Mi sembra che Intel aveva avuto buoni risultati con alcuni varianti di GPU integrate Iris con un botto di eDRAM/cache...

Dici qualcosa concettualmente simile alla cache degli HD meccanici? In teoria il problema e' sempre la velocita' di trasferimento dati.

GeeGeeOH
27-09-20, 16:23
La cache è... ovunque: CPU, GPU, etc.
E' una memoria estremamente veloce, che però costa un botto e solitamente se ne usa molto poca: qualche megabyte.
5700 XT ha 4MB, RTX 3080 5MB, Zen2 512KB per core.
128MB sarebbe un salto non da poco.

Potrebbero aver fatto una qualcosa di simile ai chiplet per Zen, dove la cache non è prodotta con un processo più economico ed un un chip a parte.

J_Brahms
27-09-20, 16:33
WTF, mi pare che qualcuno, qui, non abbia ben capito:

Quei cosi grossi in silicio sono troppo sensibili a distrurbi elettromagnetici, sono più economici rispetto a quel gruppo di resistenze, sono il male. EVGA ok, Asus TUF SUPER OK, FE ok, Gigabyte e Zotac da evitare.
A quanto pare la situazione non è così semplice: anche utenti in possesso di schede FE e Asus stanno riscontrando crash superati di poco i 2ghz. Sicuramente i condensatori economici non aiutano ma anche i più costosi non possono fare miracoli.
Su reddit nel mare di fuffa si posso leggere cose interessanti come questa (https://www.reddit.com/r/hardware/comments/izmi1k/ampere_poscapmlcc_counts/):


However, concluding from this that a POSCAP = bad and MLCC = good is waaay to harsh and a conclusion you cannot make.

Both POSCAPS (or any other 'solid polymer caps' and MLCC's have there own characteristics and use cases.

Some (not all) are ('+' = pos, '-' = neg):

MLCC:

+ cheap

+ small

+ high voltage rating in small package

+ high current rating

+ high temperature rating

+ high capacitance in small package

+ good at high frequencies

- prone to cracking

- prone to piezo effect

- bad temperature characteristics

- DC bias (capacitance changes a lot under different voltages)


POSCAP:

- more expensive

- bigger

- lower voltage rating

+ high current rating

+ high temperature rating

- less good at high frequencies

+ mechanically very strong (no MLCC cracking)

+ not prone to piezo effect

+ very stable over temperature

+ no DC bias (capacitance very stable at different voltages)



MLCCs also lose capacitance with age, while tantalums do not age

SE questo fosse vero, si potrebbe concludere che le zotac che hanno 6 poscap non si overclockano e le Asus che hanno 6 MLCC potrebbero sfasciarsi da sole nel corso del tempo. :???:

Secondo me i condensatori fanno quello che possono, probabilmente la soluzione migliore è un cocktail delle due tecnologie come sulle FE, ma il vero problema è il processo produttivo di Samsung non al'altezza: i chip sono già tirati al limite di fabbrica, semplicemente non c'è spazio per l'overclock. Parliamo di 320W, che in OC possono diventare 380, per neanche 200mhz di differenza, 2-3 fps in più e 300 punti al 3dmark.
Ho la zotac 3080 da lunedì, confermo che è stabilissima, zero crash to desktop, all'c non ci penso minimamente.. ma nel dubbio ho esteso la garanzia a 5 anni sul sito zotac :)



Intanto newegg pubblica questa pagina:
https://www.newegg.com/insider/how-to-choose-graphics-card/
I 1500MHz sembrano un placeholder... come tutta la tabella potrebbe essere solo una collezione di rumor...
Se i dati fossero attendibili la 6900xt potrebbe essere una scheda interessante,superiore alla 3070 con il doppio della Vram. Benchmark tra un mese, di questo passo disponibilità tra un anno :D

Darkless
27-09-20, 18:52
Si ma francamente non è sto problemone se il tutto si riduce all'overclock. Chi cazzo si mette ad overclockare una 3080 se non qualcuno che punta a farci video su YT per sparare i numerini.

Lord_Barba
27-09-20, 19:09
Si ma francamente non è sto problemone se il tutto si riduce all'overclock. Chi cazzo si mette ad overclockare una 3080 se non qualcuno che punta a farci video su YT per sparare i numerini.

Bé, comprala te una 3080 overclockata a 150-200 Euro in più della Founders, che per essere usata senza problemi ha bisogno che sia abbassato il clock. :asd:

Tieni presente che tutte le schede custom che escono, sono overclockate, tutte.

Darkless
27-09-20, 19:23
Bé, comprala te una 3080 overclockata a 150-200 Euro in più della Founders, che per essere usata senza problemi ha bisogno che sia abbassato il clock. :asd:

Tieni presente che tutte le schede custom che escono, sono overclockate, tutte.

Wait, avevo inteso che il problema si presentava se le overcloccavi tu oltre quello di fabbrica delle custom.

wesgard
27-09-20, 19:34
Wait, avevo inteso che il problema si presentava se le overcloccavi tu oltre quello di fabbrica delle custom.

Nope :bua:

- - - Aggiornato - - -

Ci sono mille variabili in gioco. pare che anche la temperatura sia un problema.

piu' hai il case bello e dissipatori efficienti piu' hai probabilita' di avere problemi.
Si pensa perche' la scheda sale a frequenze piu' alte per piu' tempo.

Per assurdo piu' paghi piu' potresti avere problemi. Vedremo con le versioni a liquido.

J_Brahms
27-09-20, 20:37
Da quanto ho letto mi risulta che le schede vanno in crash solamente quando vengono overclockate manualmente anche di pochi mhz, pasticciando con frequenze, power limit e magari anche con overvolt. A default credo che nessuno abbia riscontrato il minimo problema, infatti non risultano RMA di massa.
Teoricamente wesgard potresti avere ragione ma ci vorrebbe un mix di condensatori al risparmio, nessun cut sulle frequenze massime, power limit troppo spinto.
Non mi risultano casi del genere al momento, ma chiaramente potrei sbagliarmi.
Del resto qualche utente ha riscontrato crash anche con la serie 20 usando gli ultimissimi driver, quindi forse c'è anche quel problema....


Wait, avevo inteso che il problema si presentava se le overcloccavi tu oltre quello di fabbrica delle custom.
Almeno nel 90% dei casi è così. Quando avrò tempo e coraggio proverò a fare qualche test in oc con Afterburner. Dovrei avere "ben" 150mhz di margine sul core prima che la scheda esploda :asd:

GeeGeeOH
27-09-20, 20:39
A me non mi pare si parli di overclock manuali...
Sembra quando si superino i 2GHz. Ma questi lo fanno in boost da se, non a mano.
La "soluzione" è il downclock manuale.

J_Brahms
28-09-20, 18:40
Per che su youtube un tale abbia trovato una soluzione ai crash:

RTX 3080 Problems FIXED, no crashes step by step guide

https://www.youtube.com/watch?v=--YvuxE0xl4&t=930s

Se ho capito bene, molte 3080 al superamento dei 2 GHZ applicano di colpo un pesante undervolt che manda in pappa le schede. Con un voltaggio costante di 1v questo non succede. Basterebbe quindi un nuovo bios per risolvere l'instabilità, e anche i nuovi driver nvidia sono stati publicati per risolvere dei crash con alcuni giochi.

andgius
30-09-20, 17:01
Salve a tutti, posto qui sperando di far bene: al limite spostate pure. Vorrei un consiglio per cambiare scheda video.
Vi do la mia configurazione:
Intel® Core™ i5-7500 CPU 3.40GHz, 3408MHz
WINDOWS 10 PRO
16GB ram
monitor LG HDR 4K(HDMI) 27'
NVIDIA GeForce GTX 1066 6gb
sandisk SDSSDa240 GB
Vorrei una scheda che mi permettesse di migliorare le prestazioni ma senza spendere troppo...
Ringrazio in anticipo chi perde tempo a rispondermi!:ok:

GeeGeeOH
30-09-20, 17:11
Premesso che quella CPU, 4C/4T no OC, non è il massimo... "senza spendere troppo" è un po soggettivo.
Comunque è il caso di aspettare fine ottobre per vedere cosa presenta AMD.
Poi magari un RTX 3060 o 3070 (anche se di nuovo, CPU deboluccia).

J_Brahms
30-09-20, 21:26
Andgius stavo guardando qualche prezzo su amazon: potresti valutare una 2060 a poco più di 300 euro oppure una 2070 a poco più di 400.
O meglio ancora fare come scrive GeeGeeOH e aspettare le nuove Nvidia/AMD per poi decidere tra qualche tempo cosa fare.
A meno di 300 euro non credo che valga la pena fare alcun upgrade alla scheda video, meglio pensare prima alla CPU...

Weltall
01-10-20, 05:56
potresti prendere una 1660 super a circa 220€ anche se secondo questo calcolatore il tuo cpu fa già da bottleneck per il 20%
Oh aspetta, dato che usi un monitor 4k la cosa si abbassa al 7% che non è male.

https://pc-builds.com/calculator/Core_i5-7500/GeForce_GTX_1660_SUPER/0KW155lu/16/100/

In alternativa potresti vendere il pc e prenderne uno nuovo, sto facendo le stesse considerazioni anch'io (possibile passaggio da 960 a 1650)
Una configurazione i510600 con 2060 super 1 tb ssd e 32 gb ram si può fare entro i 1300 euro, mantenendo componenti top brand e con un bell'ali cicciotto.
Ovviamente cambiare solo la vga costa meno (e meno sbattimento nel riassemblare un pc, reinstallare so, trovare un case che non sia orrendo e spigoloso, ecc...).

GeeGeeOH
01-10-20, 07:14
Da 1060 a 1660, +20%, per me non è un upgrade che valga la pena.
Mentre aspetti le nuove GPU, potresti provare a vedere se trovi un i7 per la tua MoBo.... ma da spender poco eh.

Darkless
01-10-20, 07:22
potresti prendere una 1660 super a circa 220€ anche se secondo questo calcolatore il tuo cpu fa già da bottleneck per il 20%
Oh aspetta, dato che usi un monitor 4k la cosa si abbassa al 7% che non è male.

https://pc-builds.com/calculator/Core_i5-7500/GeForce_GTX_1660_SUPER/0KW155lu/16/100/

In alternativa potresti vendere il pc e prenderne uno nuovo, sto facendo le stesse considerazioni anch'io (possibile passaggio da 960 a 1650)
Una configurazione i510600 con 2060 super 1 tb ssd e 32 gb ram si può fare entro i 1300 euro, mantenendo componenti top brand e con un bell'ali cicciotto.
Ovviamente cambiare solo la vga costa meno (e meno sbattimento nel riassemblare un pc, reinstallare so, trovare un case che non sia orrendo e spigoloso, ecc...).

Diosantissimo bottleneck calculator è il cancro del web. Dovrebbero bloccarlo direttamente sui DNS di Google.
Eliminalo dai preferiti e scordati della sua esistenza. Quella roba è del tutto inaffidabile e campata per aria.

Reeko
01-10-20, 07:27
Diosantissimo bottleneck calculator è il cancro del web. Dovrebbero bloccarlo direttamente sui DNS di Google.
Eliminalo dai preferiti e scordati della sua esistenza. Quella roba è del tutto inaffidabile e campata per aria.

ti voglio bene <3

Spyro23
01-10-20, 07:49
Ricapitolando volendo acquistare una 3080 per non avere problemi:

Si FE
Si Asus TUF + Strix
No Gigabyte
No Zotac
No Evga

Giusto?

GeeGeeOH
01-10-20, 07:54
I nuovi driver, cappando le frequenze, dovrebbero aver risolto.
Tanto non si trovano.

Weltall
01-10-20, 07:57
We buono a sapersi che non bisogna fidarsi del bottleneck calculator. Allora per il mio 4690 ci metto una 1660 invece di una 1650? :)

GeeGeeOH
01-10-20, 08:06
We buono a sapersi che non bisogna fidarsi del bottleneck calculator. Allora per il mio 4690 ci metto una 1660 invece di una 1650? :)Lascerei perdere la 1650...
Anche per te non sarebbe male provar a vedere di un i7 a poco...

Weltall
01-10-20, 08:40
Cosa ha che non va la 1650s ? 2 gb meno della 1660s (ma stando in fhd 4 non sono sufficienti?) che è 30% o giu di li più potente, ma costa quasi una piotta in più.

Darkless
01-10-20, 09:39
Cosa ha che non va la 1650s ? 2 gb meno della 1660s (ma stando in fhd 4 non sono sufficienti?) che è 30% o giu di li più potente, ma costa quasi una piotta in più.

Bhè generalmente parlando quando valuti l'acquisto di una scheda video oltre ovviamente alla risoluzione con cui intendi giocare personalmente ti consiglio di valutare:

- Non solo il prezzo in sè ma anche il rapporto prezzo/prestazioni (detta spiccia: ora come ora per il FullHD maxato la 1660S è il best buy)

- La longevità della configurazione. Se pensi di cambiare CPU/config/monitor a breve acquista qualcosa che funzioni bene col prossimo upgrade, anche a costo di avere un po' di bottleneck al momento.

... e in ogni caso ora come ora se proprio non hai necessità impellente aspetta qualche mese. Usciranno diverse nuove GPU e il mercato cambierà parecchio, anche nelle fasce più basse varieranno un po' i prezzi con ogni probabilità.

andgius
01-10-20, 09:57
Vi ringrazio, credo che aspetterò fine mese cmq, intanto potrei davvero valutare di cambiare cpu.

Weltall
01-10-20, 10:05
No non intendo cambiare cpu o altro, anche se il pc ha 5 annetti mi è venuto proprio bene e se volessi fare un big step venderei tutto e rifarei daccapo.
Effettivamente non ho nessun impellenza, a parte un paio di potenziali acquirenti per la 960, aspetterò queste nuove uscite, magari la 1660 si deprezza, thx :)

Darkless
01-10-20, 10:41
No non intendo cambiare cpu o altro, anche se il pc ha 5 annetti mi è venuto proprio bene e se volessi fare un big step venderei tutto e rifarei daccapo.
Effettivamente non ho nessun impellenza, a parte un paio di potenziali acquirenti per la 960, aspetterò queste nuove uscite, magari la 1660 si deprezza, thx :)

Se AMD butta fuori una bombetta per la fascia medio/bassa (diciamo una valida erede della 580) è facile che Nvidia risponda.

GeeGeeOH
01-10-20, 10:50
https://www.youtube.com/watch?v=y4fb_R5Ogw0

Nemmeno standardizzata la posizione del connettore SLI... :rotfl:

Mr Yod
01-10-20, 11:26
https://www.youtube.com/watch?v=lhyCdraz54s

No, ma la colpa è dei condensatori dimmerda™ e dei produttori che sono voluti andare al risparmio (anche se il costo fra i due componenti è quasi identico)... :fag:

Vediamo ora se ci saranno ancora problemi. :uhm:

Spyro23
01-10-20, 11:36
I nuovi driver, cappando le frequenze, dovrebbero aver risolto.
Tanto non si trovano.

Su Reddit oggi ho letto che è previsto un restock per l'Europa alla fine della prossima settimana.

Fruttolo
01-10-20, 11:59
restock

perché ne hanno mai fatto uno? :asd:

Mr Yod
01-10-20, 12:32
restock

perché ne hanno mai fatto uno? :asd:
:sisi:

C'era pure il video coi tizi intervistati accampati fuori dal negozio dall'anno scorso. :asd:

Weltall
01-10-20, 13:07
https://www.youtube.com/watch?v=lhyCdraz54s

No, ma la colpa è dei condensatori dimmerda™ e dei produttori che sono voluti andare al risparmio (anche se il costo fra i due componenti è quasi identico)... :fag:

Vediamo ora se ci saranno ancora problemi. :uhm:

Spero a causa di gravi problemi di approvigionamento... Se solo per risparmiare cent allora non hanno più orgoglio. Forse la politica aziendale è già in mano alle AI hehehe

Mr Yod
01-10-20, 13:12
Spero a causa di gravi problemi di approvigionamento... Se solo per risparmiare cent allora non hanno più orgoglio. Forse la politica aziendale è già in mano alle AI hehehe
Mi pare che lo spieghi nel video stesso: diversi condensatori hanno diverse funzioni (e queli piccoli tra l'altro durano meno, oltre al fatto che il problema non erano i condensatori). :uhm:

Weltall
01-10-20, 13:20
il video non l'ho visto mi sono fidato di te :smugplauso: :P

GeeGeeOH
01-10-20, 13:20
I condensatori erano solo un possibile spiegazione, che l'internet ha preso come assoluta certezza.
:teach:

Mr Yod
01-10-20, 13:53
il video non l'ho visto mi sono fidato di te :smugplauso: :P
Ecco perchè non capivo la tua risposta. :facepalm:

Il mio commento al video era ironico (c'era pure la faccina :fag: ).

Weltall
01-10-20, 14:44
hehe, e poi è per chi può spendere tutto lo stipendio in hardware e altre amenità.
Ah mi viene in mente una cosa: ma il ray tracing è possibile anche con la serie 16XX seppur in forma non accelerata?

GeeGeeOH
01-10-20, 15:15
E' possibile vedere le diapositive.

Weltall
01-10-20, 15:36
hmm allora con 50 lilleri in più si prende una 2060 liscia per godere di amenità come quake2 col raytracing...

GeeGeeOH
01-10-20, 15:40
Si ma a ridosso di una nuova generazione di schede video è bene aspettare e vedere.

Darkless
01-10-20, 17:16
E' possibile vedere le diapositive.

you win :asd:

Weltall
01-10-20, 17:43
più che altro mi piacerebbe vedere witcher3 patchato con i nuovi effetti, e guarda un po con un driver molte gtx sono abilitate al dxr. ma vedo cha la notizia è del 2019 quindi già la sapete :)


https://www.youtube.com/watch?v=_cbcr1aXOyQ

GeeGeeOH
01-10-20, 22:21
Si funziona sulla serie 1000, ma non è giocabile. 20 fps quando va bene.

GeeGeeOH
02-10-20, 08:56
In sordina, RTX 3070 posticipata a fine Ottobre... spero per aver una disponibilità maggiore ma penso più per vedere cosa annuncia prima AMD.

Darkless
02-10-20, 08:57
In sordina, RTX 3070 posticipata a fine Ottobre...

Dopo il lancio disastroso delle 3080 staran cercando di non ripetersi

benvelor
02-10-20, 09:00
mossa da parte di nvidia, però rischia di essere oscurata da amd, francamente aspetto con più curiosità e interesse le nuove rosse che la 3070...

personalmente, ho deciso di rimandare il cambio ad anno nuovo: un po' per far assestare il mercato, un po' perchè il 2020 è un anno di merda :bua:
cyberpunk aspetterà, intanto sfoltirò il backlog (ese :asd:)

GeeGeeOH
02-10-20, 09:00
28/10 - Presentazione nuove Radeon.
29/10 - RTX 3070.

https://uploads.disquscdn.com/images/907630e4ea93e3a2157e7e4c76174e984919f2ab9ea5bbf890 ff18ea56ac0811.jpg

Reeko
02-10-20, 09:09
Si funziona sulla serie 1000, ma non è giocabile. 20 fps quando va bene.

confermo, su Metro con la 1080 ti e RT attivo, forse arrivavo ai 25. Di media ero sui 90 in 1440

Zhuge
02-10-20, 11:03
In sordina, RTX 3070 posticipata a fine Ottobre... spero per aver una disponibilità maggiore ma penso più per vedere cosa annuncia prima AMD.

:facepalm:

GeeGeeOH
02-10-20, 11:04
Francamente mossa abbastanza prevedibile dopo l'annuncio di AMD.
Basta che questa ora non posticipi il suo annuncio al 30 :asd:

DON IVANO
02-10-20, 11:22
Francamente mossa abbastanza prevedibile dopo l'annuncio di AMD.
Basta che questa ora non posticipi il suo annuncio al 30 :asd:

BEH, POi possono partire col ciclo infinito di rinvio di un giorno :asd:

GeeGeeOH
02-10-20, 12:28
Ed intanto le 5700 sono fuori produzione.
AMD RX 5700 Series Reportedly Enter EOL - No Longer Manufactured (https://www.techpowerup.com/272868/amd-rx-5700-series-reportedly-enter-eol-no-longer-manufactured)

Presumibile un refresh di tutte le fasce.

Tene
04-10-20, 15:45
Sembra AMD abbia già smentito :sisi:

Angels
04-10-20, 16:00
Le 3070 sono state rinviate al 29 ottobre

GeeGeeOH
04-10-20, 16:23
Le 3070 sono state rinviate al 29 ottobre

Maddai?
In sordina, RTX 3070 posticipata a fine Ottobre... spero per aver una disponibilità maggiore ma penso più per vedere cosa annuncia prima AMD.
28/10 - Presentazione nuove Radeon.
29/10 - RTX 3070.

https://uploads.disquscdn.com/images/907630e4ea93e3a2157e7e4c76174e984919f2ab9ea5bbf890 ff18ea56ac0811.jpg

Zhuge
04-10-20, 18:05
:angels:

Angels
04-10-20, 18:29
Non l'avevo letto cattivo

GeeGeeOH
06-10-20, 07:39
"The 3080 and 3090 have a demand issue, not a supply issue," said Huang. "The demand issue is that it is much much greater than we expected — and we expected really a lot."

"Retailers will tell you they haven't seen a phenomenon like this in over a decade of computing. It hearkens back to the old days of Windows 95 and Pentium when people were just out of their minds to buy this stuff. So this is a phenomenon like we've not seen in a long time, and we just weren't prepared for it."

"Even if we knew about all the demand, I don't think it's possible to have ramped that fast. We're ramping really, really hard. Yields are great, the product's shipping fantastically, it's just getting sold out instantly," said Huang. "I appreciate it very much, I just don't think there's a real problem to solve. It's a phenomenon to observe. It's just a phenomenon."Sembra Trump.

GeeGeeOH
07-10-20, 18:27
Major Danish Retailer Says It Has Only Received 4% of its RTX 3080 Orders (https://www.tomshardware.com/uk/news/danish-retailer-posts-rtx-3080-3090-3070-stock)

MSI Subsidiary Caught Selling RTX 30-Series GPUs at Scalper Pricing on eBay (https://www.tomshardware.com/uk/news/msi-subsidiary-caught-selling-rtx-30-series-gpus-at-scalper-pricing-on-amazon-ebay)

Darkless
07-10-20, 21:33
Best lancio eva.
vuoi vedere che alla fine AMD farà le scarpe al fonzie de noaltri ? :asd:

DON IVANO
07-10-20, 21:37
Best lancio eva.
vuoi vedere che alla fine AMD farà le scarpe al fonzie de noaltri ? :asd:

non saprei, pure loro vivono nella stessa terra che ha il covid :asd:

GeeGeeOH
08-10-20, 07:56
https://www.youtube.com/watch?v=iuiO6rqYV4o

Alle 18.

Darkless
08-10-20, 09:57
non saprei, pure loro vivono nella stessa terra che ha il covid :asd:

vero, ma han molto meno hype ed usano fonderie diverse. Nvidia ha già detto che la penuria di schede andrà probabilmente avanti anche nel 2021. Se AMD si sistemasse prima qualche "disperato" potrebbe virare sulle rosse :asd:

GeeGeeOH
08-10-20, 17:18
http://images.anandtech.com/doci/16151/9758656_575px.jpg
Shadow of Tomb Raider - 1080p High preset - 2080 Ti

http://images.anandtech.com/doci/16151/9798500_575px.jpg
Sembrerebbe evaporare l'ultimo pregio di Intel.

http://images.anandtech.com/doci/16151/10034343_575px.jpg

5700X?
Dal 5 Novembre.

AMD Ryzen 5000 and Zen 3 on Nov 5th: +19% IPC, Claims Best Gaming CPU (https://www.anandtech.com/show/16148/amd-ryzen-5000-and-zen-3-on-nov-5th-19-ipc-claims-best-gaming-cpu)


-------------------------

Bonus, Radeon:
4K @ Ultra
http://images.anandtech.com/doci/16151/10284640_575px.jpg

Borderlands 3 - 61FPS
CoD:MW - 88FPS
GoW5 - 73FPS
AMD Teases Radeon RX 6000 Card Performance Numbers: Aiming For 3080? (https://www.anandtech.com/show/16150/amd-teases-radeon-rx-6000-card-performance-numbers-aiming-for-3080)

Darkless
08-10-20, 17:22
Piccolo OT: ma possibile che mi trovo la diretta su multiplayer.it mentre su hwupgrade e tomshw non dico lo streaming ma manco un trafiletto in prima pagina ?
(domanda retorica, non serve rispondere).

P.S. Speravo il 5600 sarebbe stato 8/16, cmq mostruosi.

wesgard
08-10-20, 18:20
Bisogna aspettare review di terze parti ma sulla carta paiono aver disintegrato intel.
Miglior rapporto watt/potenza, ovviamente multicore spaziale e miglior performance su singolo core.


LOL

Ho visto gia' un sacco lamentarsi dei prezzi. Chissa' perche amd per fare qualcosa che sia migliore dei concorrenti non solo deve fare un buon prodotto ma venderlo a prezzo stracciato. Misteri

Fruttolo
08-10-20, 19:41
Rispetto ai precedenti, come fascia core/prezzi un pochino si sono alzati a dire il vero, e il 5800x mi sembra quello meno conveniente.

GeeGeeOH
08-10-20, 19:51
+50$ a tutti.
Dissipatore solo al R5, ma del resto quasi nessuno usava quello compreso con gli altri quindi cambia poco.

Nessun nuovo chipset, del resto con Zen 4 si cambia tutto ergo nuove schede per una sola generazione sarebbero state uno "spreco".

https://images.anandtech.com/doci/16148/1%20Slide%2023.jpg

La mia MSI ha 1.0.8.1 da inizio settembre e 1.1.0.0 in beta dalla settimana scorsa.

Darkless
08-10-20, 20:02
LOL

Ho visto gia' un sacco lamentarsi dei prezzi. Chissa' perche amd per fare qualcosa che sia migliore dei concorrenti non solo deve fare un buon prodotto ma venderlo a prezzo stracciato. Misteri

Perchè con Intel che prima percula anni coi 4 core che bastano per tutto, poi continua a cambiarti socket ogni 6 mesi e ti spara CPU dai costi stellari (ma tanto c'è la gente col paraocchi che compra) s'è creata un'immagine distorta di AMD paladina della giustizia.
Sono multinazionali, non onlus, nel momento in cui la concorrenza resta indietro chi ha i prodotti migliori puo' permettersi di fare i prezzi che vuole. Ora è il turno di AMD. Sempre detto io che fanboy dell'una o dell'altra parte sono idioti e quello che serve a NOI acquirenti è avere più competitor sullo stesso livello.
A parte quello se andiamo a vedere i top gamma sono rimasti bene o male sugli stessi prezzi, han rincarato la fascia più mainstream. Poi è da vedere come si evolveranno i prezzi nel tempo, sia di questa serie che della gen precedente (che se calasse di prezzo rimarrebbe molto intressante).

wesgard
08-10-20, 20:05
Io ho un buon zen 2. Credo di saltare direttemente a zen 4 e cambio tutto.

- - - Aggiornato - - -


Perchè con Intel che prima percula anni coi 4 core che bastano per tutto, poi continua a cambiarti socket ogni 6 mesi e ti spara CPU dai costi stellari (ma tanto c'è la gente col paraocchi che compra) s'è creta un'immagine distorta di AMD paladina della giustizia.
Sono multinazionali, non onlus, nel momento in cui la concorrenza resta indietro chi ha i prodotti migliori puo' permettersi di fare i prezzi che vuole. Ora è il turno di AMD. Sempre detto io che fanboy dell'una o dell'altra parte sono idioti e quello che serve a NOI acquirenti è avere più competitor sullo stesso livello.
A parte quello se andiamo a vedere i top gamma sono rimasti bene o male sugli stessi prezzi, han rincarato la fascia più mainstream. Poi è da vedere come si evolveranno i prezzi nel tempo, sia di questa serie che della gen precedente che se calasse di prezzo rimarrebbe molto intressante.

Amen. I fanboy fanno ridere. Manco fosse loro l'azienda .

Tene
08-10-20, 20:05
La mia X370 rimane fuori :asd: ma lo sapevo già.

Va beh, quando sarà il momento prenderò un 3600X :sisi:

GeeGeeOH
08-10-20, 20:11
Certo che paragonare i +50$ (che rimangono inferiori all'offerta concorrente) allo scempio che ha fatto Intel nel ultimo decennio ce ne passa...
Non tutti quelli che voglio far soldi sono equamente delle merde.


E ci son certe Onlus poi che meglio Intel :asd:

Darkless
08-10-20, 20:19
Certo che paragonare i +50$ (che rimangono inferiori all'offerta concorrente) allo scempio che ha fatto Intel nel ultimo decennio ce ne passa...

Il principio è lo stesso, poi l'entità con cui lo applicano cambia. Sta di fatto che quando hai il prodotto migliore sul mercato il prezzo lo fai tu, sia che ti chiamo AMD che ti chiami Intel. Se poi nel 2022 con i prossimi Ryzen la situazione restasse la stessa o diventasse migliore per AMD non mi stupirei se quei 50$ si avvicinassero di più a 100...

benvelor
09-10-20, 07:40
La mia X370 rimane fuori :asd: ma lo sapevo già.

Va beh, quando sarà il momento prenderò un 3600X :sisi:

aggiornano a partire da gennaio 2021
niente 5700x, lo capisco, 3700x e 3800x si pestavano un po' i piedi...
troppa differenza di prezzo tra 5800x e 5600x, però

ora aspettiamo i benchmark, perchè potrebbe anche essere interessante il calo dei prezzi dei 3xxx :pippotto:

Darkless
09-10-20, 09:05
ora aspettiamo i benchmark, perchè potrebbe anche essere interessante il calo dei prezzi dei 3xxx :pippotto:

Esattamente. Il 3600 potrebbe diventare una bomba.

GeeGeeOH
09-10-20, 09:21
Esattamente. Il 3600 potrebbe diventare una bomba.

Lo è già, anzi lo era già da quando è uscito.
Dubito calino ulteriormente i prezzi... è già sotto i 200€ da un pezzo...

R7 3700/3800 sui 300€ non hanno motivo di calare per il R5 5600X a prezzo analogo avendo 2 core in più.

benvelor
09-10-20, 10:24
Esattamente. Il 3600 potrebbe diventare una bomba.

A dire il vero puntavo più su :uhm:
prima dell'uscita avevo nel mirino il 3700x, se i prezzi son buoni, un 3950 potrebbe essere un'idea, anche se preferisco una tecnologia nuova

Darkless
09-10-20, 13:08
Lo è già, anzi lo era già da quando è uscito.
Dubito calino ulteriormente i prezzi... è già sotto i 200€ da un pezzo...

Dipenderà dalla domanda, potrebbe finire svenduto :D

Fruttolo
09-10-20, 14:26
A dire il vero puntavo più su :uhm:
prima dell'uscita avevo nel mirino il 3700x, se i prezzi son buoni, un 3950 potrebbe essere un'idea, anche se preferisco una tecnologia nuova

3900x guardavo scorse settimane si trovava già sui 400

freddye78
09-10-20, 14:48
Non so quanto valga la pena un 3900/3950 solo per i games, a quel prezzo meglio prendere direttamente la nuova generazione

Darkless
09-10-20, 15:31
Non so quanto valga la pena un 3900/3950 solo per i games, a quel prezzo meglio prendere direttamente la nuova generazione

... anche perchè già ora un 3700X spesso va anche meglio nei giochi. Quelle CPU non sono per il gaming.

GeeGeeOH
09-10-20, 15:34
Se uno vuol fare lo sborone vada di R7 5800X.
"Solo" 8 core ma su singolo CCX, dovrebbe dar via alle soluzioni a 12 core "vecchi" nella maggior parte dei casi.

R5 resta la soluzione più ovvia...

Darkless
09-10-20, 16:17
Il 5800 è un vera bestia in effetti.

Det. Bullock
09-10-20, 17:31
Se uno vuol fare lo sborone vada di R7 5800X.
"Solo" 8 core ma su singolo CCX, dovrebbe dar via alle soluzioni a 12 core "vecchi" nella maggior parte dei casi.

R5 resta la soluzione più ovvia...

O se uno si scoccia a cambiare la CPU come me. :asd:
Ecco, la cosa che a me farà forse rimandare a primavera la costruzione del nuovo PC sono queste nuove tecnologie riguardo gli SSD visto che questa generazione di console ci sta puntando forte.

GeeGeeOH
09-10-20, 17:42
queste nuove tecnologie riguardo gli SSD visto che questa generazione di console ci sta puntando forte.
Gli SSD PCIe 4.0 ci son già.
Quello che manca è il software.

Covin
09-10-20, 18:01
Se hai i soldi per un 5800 tantovale sganciare di più e prendere il 5900.

GeeGeeOH
09-10-20, 18:06
Bisogna vedere i test, ma si perde l'essere entro un singolo CCX ed il budget energetico deve alimentare un bel pò di silicio in più.

Fruttolo
09-10-20, 18:43
Non so quanto valga la pena un 3900/3950 solo per i games, a quel prezzo meglio prendere direttamente la nuova generazione


... anche perchè già ora un 3700X spesso va anche meglio nei giochi. Quelle CPU non sono per il gaming.

Il 3700x non può andare meglio del 3900x, va almeno quanto il 3700x con tutti i vantaggi fuori dall'ambito gaming.
Riguardo i nuovi bisogna vedere se uno debba solo cambiare processore o anche scheda madre+ram, visto che dall'anno prossimo si potrebbe passare a ddr5: in ottica non solo gaming, potrebbe avere più senso comprare un 3900x usato che una serie nuova.

Non è che adesso un 3900x o un 3950x siano diventati rottami e non si potrà giocare, ma se mi dite così e ne avete uno per 200 euro ve lo compro subito.

benvelor
09-10-20, 19:20
il pc che prenderò dovrà durare ALMENO 4 anni buoni: non mi preoccupo di ddr5 e altre amenità in uscita tra un anno forse, ma che abbia la potenza necessaria per durare un lustro come quello che ho adesso :snob:
in pratica, un'altra generazione piena di console :boh2:
per questo pensavo a un 8 core

Darkless
09-10-20, 19:26
Il 3700x non può andare meglio del 3900x, va almeno quanto il 3700x con tutti i vantaggi fuori dall'ambito gaming.
Riguardo i nuovi bisogna vedere se uno debba solo cambiare processore o anche scheda madre+ram, visto che dall'anno prossimo si potrebbe passare a ddr5: in ottica non solo gaming, potrebbe avere più senso comprare un 3900x usato che una serie nuova.

Non è che adesso un 3900x o un 3950x siano diventati rottami e non si potrà giocare, ma se mi dite così e ne avete uno per 200 euro ve lo compro subito.

Basta che vai a vederti i benchmark ingame. Ci sono alcuni titoli dove va meglio, negli altri la differenza è minima. Il numero di core conta ancora poco in quasi tutti i giochi (e più di 8 non li sfrutterai nemmeno fra un lustro), prendere un 3900 o un 3950 per giocare non ha mai avuto senso visti i prezzi. E ancora non ce l'ha.


il pc che prenderò dovrà durare ALMENO 4 anni buoni: non mi preoccupo di ddr5 e altre amenità in uscita tra un anno forse, ma che abbia la potenza necessaria per durare un lustro come quello che ho adesso :snob:
in pratica, un'altra generazione piena di console :boh2:
per questo pensavo a un 8 core

Se è per quello anche 6 core andranno ancora benone per qualche anno quindi non farti troppi problemi in quel senso (e per carità non tiriamo fuori la storia degli 8 core delle console che è un paragone senza senso).

GeeGeeOH
09-10-20, 20:19
L'R7 3700X 4.4GHz avrebbe 100MHz in più del R9 3900 4.3GHz (non X), mentre il 3900X 4.6GHz ha 200MHz in più.
Non è che confondete i due?

BigDario
10-10-20, 15:33
Sono riuscito a beccare una RTX3080 della PNY venduta e spedita da Amazon a €830.
Ordinata; arriverà chissà quando.

Det. Bullock
10-10-20, 15:45
Gli SSD PCIe 4.0 ci son già.
Quello che manca è il software.

Ancora non si sa qualli modelli incotreranno le specifiche di quelli per console che sulla carta sono abbastanza alte.
Sto aspettando pure che escano PS5 e Xbox vattelapesca per capire quale è l'esatto livello di stronzate che Microsoft e Sony ci hanno propinato.

GeeGeeOH
10-10-20, 16:05
In lettura hanno detto:
PS5 5.5GB/s
XBSX 4.8GB/s.

Su PC c'è già roba sui 7GB/s.

Det. Bullock
10-10-20, 21:37
In lettura hanno detto:
PS5 5.5GB/s
XBSX 4.8GB/s.

Su PC c'è già roba sui 7GB/s.
Almeno la PS5 ha lo slot m.2 di espansione e nessuno degli SSD high end finora si è stato dichiarato "compatibile PS5".
Le cose sono due (escludendo la pura stupidità a livello aziendale): o non ci arrivano con qualche specifica particolare oppure gatta ci cova sui valori dichiarati dalla Sony.

Covin
10-10-20, 23:52
È uscito un SSD della wd compatibile con la ps5, maronn ci mancavano addirittura i complotti sugli SSD su ps5.

GeeGeeOH
11-10-20, 08:21
Almeno la PS5 ha lo slot m.2 di espansione e nessuno degli SSD high end finora si è stato dichiarato "compatibile PS5".
Le cose sono due (escludendo la pura stupidità a livello aziendale): o non ci arrivano con qualche specifica particolare oppure gatta ci cova sui valori dichiarati dalla Sony.La logica conclusione:
https://external-content.duckduckgo.com/iu/?u=http%3A%2F%2F25.media.tumblr.com%2Ftumblr_m3gzx nu8XZ1r4xouyo1_250.gif

Darkless
11-10-20, 09:54
Sta storia dell'SSD di Sony oramai sta diventando ridicola. Speriamo escano in fretta le console così almeno inizieranno a farsi la guerra sui giochi.

wesgard
11-10-20, 12:51
Sta storia dell'SSD di Sony oramai sta diventando ridicola. Speriamo escano in fretta le console così almeno inizieranno a farsi la guerra sui giochi.

Sto' ancora ridendo per i flame ed i complottari quando Digital Foundry ha detto che la GPU di PS5 e' pari ad una 2600 super (come potenza bruta).

Cosa la gente si sogna per 500 euro e' sempre una cosa che mi affascina. Considerando poi che una potenza tipo 2600 super su una console che e' una piattaforma chiusa e quindi puo' essere sfruttata in maniera ottimale e' tanta roba.

GeeGeeOH
11-10-20, 13:06
Come FLOP la PS5 è a livello della RX 5700 XT sui 10TFLOP, e questa è un può più potente della 2600S.
Ma misurare i FLOPS è una cosa molto grezza con tanti asterischi già per architetture simili peggio per architetture differenti, ma al momento è difficile far paragoni migliori.

NB: basti pensare che Vega 64 avrebbe ben 12.6TFLOP, ma nei giochi va di meno della 5700...

Det. Bullock
11-10-20, 13:17
È uscito un SSD della wd compatibile con la ps5, maronn ci mancavano addirittura i complotti sugli SSD su ps5.

Che modello è? Giusto per farsi un'idea.

GeeGeeOH
11-10-20, 14:52
Penso sia il WD Black SN850, 7GB/s in lettura.

Darkless
11-10-20, 19:51
Sto' ancora ridendo per i flame ed i complottari quando Digital Foundry ha detto che la GPU di PS5 e' pari ad una 2600 super (come potenza bruta).

Cosa la gente si sogna per 500 euro e' sempre una cosa che mi affascina. Considerando poi che una potenza tipo 2600 super su una console che e' una piattaforma chiusa e quindi puo' essere sfruttata in maniera ottimale e' tanta roba.

... ma anche un sistema completo con una gpu a livello della 2600 a 500 euro è tanto roba se è per quello.

Ma provare a far capire da chi perde tempo a farsi la guerra (e vale da entrambi i lati, sia consolari che pc-isti) che il confronto diretto degli hw fra teraflops, numero di core, frequenze etc. non ha senso sarà sempre tempo sprecato.

wesgard
12-10-20, 10:25
Ridicolo :facepalm:

Visti tutti problemi NVIDIA ha ammesso la sconfitta e NON si compreranno piu' le Founders dal loro sito ma da retailers terzi.

Al momento il solo retailers e' ESTBUY in USA. Gli altri si attaccano.
In particolare per l'Europa: "In Europe, we continue to review Founders Edition fulfillment options."

Quindi al momento e per un futuro breve/lungo(?) non si possono comprare Founders fuori dagli USA. :facepalm:

Non che ce ne siano :rotolul:

Io continuo a ricordare le parole del complottaro di Moore's law is death che in tempi non sospetti diceva di avere prove di una produzione insufficiente e di piani di vendere paraticomente solo custom.. Che avese ragione?

https://www.techradar.com/news/nvidia-admits-defeat-with-rtx-3080-and-3090-founders-edition-stock-passes-baton-to-best-buy

GeeGeeOH
12-10-20, 10:39
Come detto da Mr.Jacket non è colpa loro, è colpa nostra.
:trollface:

Mr Yod
12-10-20, 10:49
Io continuo a ricordare le parole del complottaro di Moore's law is death che in tempi non sospetti diceva di avere prove di una produzione insufficiente e di piani di vendere paraticomente solo custom.. Che avese ragione?
A me sembra che ci si ricordi solo parzialmente quello che dice il tizio. :uhm:
Diceva anche che era tutto un complotto di Nvidia per poter alzare i suoi prezzi facendo la parte dei buoni. :uhm:

Inoltre a me sembra dicesse l'esatto contrario: ovvero che Nvidia cercasse di sabotare i partner per vendere solo le founders. :uhm:

Darkless
12-10-20, 11:53
Ridicolo :facepalm:

Visti tutti problemi NVIDIA ha ammesso la sconfitta e NON si compreranno piu' le Founders dal loro sito ma da retailers terzi.

Al momento il solo retailers e' ESTBUY in USA. Gli altri si attaccano.
In particolare per l'Europa: "In Europe, we continue to review Founders Edition fulfillment options."

Quindi al momento e per un futuro breve/lungo(?) non si possono comprare Founders fuori dagli USA. :facepalm:

Non che ce ne siano :rotolul:

Io continuo a ricordare le parole del complottaro di Moore's law is death che in tempi non sospetti diceva di avere prove di una produzione insufficiente e di piani di vendere paraticomente solo custom.. Che avese ragione?

https://www.techradar.com/news/nvidia-admits-defeat-with-rtx-3080-and-3090-founders-edition-stock-passes-baton-to-best-buy

Ci sono sicuramente sotto gli illuminati e i rettiliani :asd:

Det. Bullock
12-10-20, 14:57
Penso sia il WD Black SN850, 7GB/s in lettura.

Che ancora non sembra pienamente disponibile, su Amazon ci sono solo quello da 500gb e quello da 2tb che costa quanto un PC intero. :asd:

GeeGeeOH
12-10-20, 15:02
I prezzi per SSD supermegaduper sono circa 250€ per TB...


Per XBSX c'è appunto: https://www.amazon.it/Seagate-Expansion-memoria-solido-STJR1000400/dp/B08K48F6QZ

wesgard
12-10-20, 17:02
A me sembra che ci si ricordi solo parzialmente quello che dice il tizio. :uhm:
Diceva anche che era tutto un complotto di Nvidia per poter alzare i suoi prezzi facendo la parte dei buoni. :uhm:

Inoltre a me sembra dicesse l'esatto contrario: ovvero che Nvidia cercasse di sabotare i partner per vendere solo le founders. :uhm:

No no mi ricordo giusto.. (almeno credo :look:)
https://www.youtube.com/watch?v=SxtfNcm45xk



Ci sono sicuramente sotto gli illuminati e i rettiliani :asd:
Beh quelli stanno bene ovunque :asd:

Cmq complotti a parte le founders saranno piu' o meno introvabili per mesi.

Darkless
12-10-20, 17:28
Tanto io per un altro annetto resto col mio vecchio catorcio quindi facciano pure con comodo a scannarsi sui sovrapprezzi per ora :asd:

Det. Bullock
12-10-20, 21:58
I prezzi per SSD supermegaduper sono circa 250€ per TB...


Per XBSX c'è appunto: https://www.amazon.it/Seagate-Expansion-memoria-solido-STJR1000400/dp/B08K48F6QZ

Quello da 1tb infatti ancora non è disponibile su Amazon.
Per dire se quello da 1TB costerà 250 Euro quando sarà disponibile a me andrebbe pure bene tutto sommato (anche perché una unità disco è comunque qualcosa di più duraturo di una scheda video), ma ci sono solo quello da 2tb che ne costa 550 e quello da 500gb che costa 190 Euro.

Al momento ho un SSD da 500gb e mi va un po' strettino per via della mia abitudine di tenere diversa roba permainstallata, 1tb nel mio prossimo PC li preferirei a meno che non venga roba eccessivamente costosa.

EDIT: come non detto, adesso non compaiono più nemmeno quelli, si arriva solo allo SN750.

GeeGeeOH
13-10-20, 08:33
Ora come ora però non serve prendere uno di questi SSD.
Tempo che escono giochi che li sfruttano ci sarà certamente più offerta e prezzi migliori.

GeeGeeOH
13-10-20, 11:55
Imagination Announces B-Series GPU IP: Scaling up with Multi-GPU (https://www.anandtech.com/show/16155/imagination-announces-bseries-gpu-ip-scaling-up-with-multigpu)

Nuovo approccio al Multi-GPU.
Non esattamente per i nostri desktop, ma potrebbe ispirare nVidia e soprattutto AMD che ha già una certa esperienza coi chiplet.

wesgard
14-10-20, 09:24
Imagination Announces B-Series GPU IP: Scaling up with Multi-GPU (https://www.anandtech.com/show/16155/imagination-announces-bseries-gpu-ip-scaling-up-with-multigpu)

Nuovo approccio al Multi-GPU.
Non esattamente per i nostri desktop, ma potrebbe ispirare nVidia e soprattutto AMD che ha già una certa esperienza coi chiplet.

Non mi ricordo dove l'avevano detto ma ci sono gia piani in questo senso per le prossime GPU. it makes sense.

Cambiando argomento. Continuo a pensare che dia un punto di vista diverso e molti dei dati che cita non sono campati per aria ma accidenti ad ogni video e' sempre peggio :asd;


https://www.youtube.com/watch?v=zmbvUK93npo

Lord_SNK
14-10-20, 14:17
La corruzione di Nvidiansky:
https://www.reddit.com/r/nvidia/comments/jam258/corruption_at_nvidia_russia_how_the_russian/

GeeGeeOH
14-10-20, 15:05
Vabbeh, ma la Russia non fa testo :twisted:

Det. Bullock
14-10-20, 15:11
Ora come ora però non serve prendere uno di questi SSD.
Tempo che escono giochi che li sfruttano ci sarà certamente più offerta e prezzi migliori.

Eh, più che altro è per averli predisposti, alla fine cambiare SSD è sempre una rottura in più rispetto a cambiare una scheda video (infatti terrò la vecchia finché non si stabilizza un attimo il mercato e si cambierà quando sarà il momento) e io sono pigro, consideratp che un SSD da 1tb costa comunque parecchio in genere almeno lo piglio conforme al nuovo standard subito così eviterò rotture dopo. :bua:

Tanto mi sa che aspetterò primavera per il nuovo PC di questo passo.

wesgard
14-10-20, 16:50
Eh, più che altro è per averli predisposti, alla fine cambiare SSD è sempre una rottura in più rispetto a cambiare una scheda video (infatti terrò la vecchia finché non si stabilizza un attimo il mercato e si cambierà quando sarà il momento) e io sono pigro, consideratp che un SSD da 1tb costa comunque parecchio in genere almeno lo piglio conforme al nuovo standard subito così eviterò rotture dopo. :bua:

Tanto mi sa che aspetterò primavera per il nuovo PC di questo passo.

Si ma al "momento" aka anni la cosa e' del tutto ininfluente come dice Gee. Meglio spendere i soldi altrove.


https://www.youtube.com/watch?v=COofLeqk_tM

GeeGeeOH
14-10-20, 16:53
Nel caso si sta un attimo a prendere poi un SSD secondario dove installare i giochi che sfruttano i GB/s...
Del resto dovrebbe essere meglio evitare il disco di sistema.

Fruttolo
14-10-20, 19:24
Non esattamente per i nostri desktop, ma potrebbe ispirare nVidia e soprattutto AMD che ha già una certa esperienza coi chiplet.

Io sapevo già che Nvidia stesse progettando su chiplet dalla prossima serie :uhm:

Comunque Nvidia ha avuto quello che sperava, un mese di ottima propaganda ovunque e adesso alza le mani, tanto loro i prezzi li hanno messi "a partire da".
E se qualcuno non gradisce ed esprime la disapprovazione, purtroppo non ci saranno prodotti da inviare.

wesgard
14-10-20, 19:39
Io sapevo già che Nvidia stesse progettando su chiplet dalla prossima serie :uhm:

Comunque Nvidia ha avuto quello che sperava, un mese di ottima propaganda ovunque e adesso alza le mani, tanto loro i prezzi li hanno messi "a partire da".
E se qualcuno non gradisce ed esprime la disapprovazione, purtroppo non ci saranno prodotti da inviare.

Sei il tizio di Moore's law is death? :jfs2:

GeeGeeOH
17-10-20, 20:11
https://www.youtube.com/watch?v=jz5UbEjR9Ys

Poteva mancare?

Darkless
18-10-20, 09:25
Oramai è la scena più vista della storia del cinema :asd:

Weltall
19-10-20, 11:02
Cercavo i requisiti in watt per questa 2060 e leggo 850watt di alimentatore.
qui:
https://www.asus.com/it/Graphics-Cards/DUAL-RTX2060-6G-EVO/specifications/

850 w per una 2060? Ovviamente errore, ma almeno si può sapere se un 550w la regge? Nel pc c'è solo mb, cpu, ram e 1 ssd.

GeeGeeOH
19-10-20, 11:44
Solita storia, ci sono alimentatori fatti col guano.
Uno di marca da 550W basta ed avanza.

Weltall
19-10-20, 13:20
Thx!

Darkless
19-10-20, 14:15
Solita storia, ci sono alimentatori fatti col guano.
Uno di marca da 550W basta ed avanza.

Guida di Falco75 is the way :rullezza:

GeeGeeOH
19-10-20, 15:39
Certo se assieme alla 2060 hai un 10900k overclockato a schifo che può tirare stecche da passa 300W...

14nm++++++++++++++++++++++++++ for the win!

GeeGeeOH
22-10-20, 07:33
Per quanto mai confermate ufficialmente, sembra che la 3080 20GB e la 3070 16GB siano state cancellate...

Angels
22-10-20, 08:31
Per quanto mai confermate ufficialmente, sembra che la 3080 20GB e la 3070 16GB siano state cancellate...

Secondo me non sono mai esistite.
Novità sulle custom 3070?

GeeGeeOH
22-10-20, 09:35
Erano emerse via diversi produttori, non erano mere speculazioni...

Angels
22-10-20, 10:51
Erano emerse via diversi produttori, non erano mere speculazioni...

E secondo te perchè sono state cancellate? Ci stavano lavorando e hanno buttato via tutto?

GeeGeeOH
22-10-20, 10:55
Considerando che le versione da 10GB non sarebbe stata ritirata, non hanno abbastanza chip...
Affidarsi a Samsung è stata una pessima idea.

Angels
22-10-20, 11:26
Considerando che le versione da 10GB non sarebbe stata ritirata, non hanno abbastanza chip...
Affidarsi a Samsung è stata una pessima idea.

Dici che il problema è questo? Ma significa aver buttato un sacco di soldi, potevano aspettare o non valeva la pena?