PDA

Visualizza Versione Completa : Il Circolino di Schede Video



Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 [43] 44 45 46 47 48 49 50 51 52

Kinto
09-03-22, 08:44
Non succede nulla a quelle temperature, sono fatti per non avere problemi fino a circa 10° in più a seconda della CPU (amd e intel e ogni specifica generazione).

Al limite c'è un leggero downvolt, mobo permettendo (che cmq veramente, vivi sereno e goditi il PC come fosse una console, finchè non noti veri problemi)

fener75
09-03-22, 10:32
mi preoccupavano i picchi a 90 (piu che altro mi sembrano strani per il lavoro in quel momento della cpu, ma potrebbe anche essere il gioco ottimizzato a cavolo)
comunque grazie a tutti per le info e la disponibilita'

GeeGeeOH
09-03-22, 10:41
https://ark.intel.com/content/www/us/en/ark/products/126684/intel-core-i78700k-processor-12m-cache-up-to-4-70-ghz.html

TJUNCTION: 100°C
Junction Temperature is the maximum temperature allowed at the processor die.

Det. Bullock
10-03-22, 18:15
Mi sono deciso a ordinare un dissipatore Noctua NH-U9s per il PC dell'attività così tolgo quello stock Intel.
Montarlo sarà un po' una rottura (e farò tutti i backup possibili prima di aprire il PC chenonsisamai) ma almeno avrò qualcosa che si può pulire più facilmente e terrà le temperature un po' più basse durante i mesi estivi.


mi preoccupavano i picchi a 90 (piu che altro mi sembrano strani per il lavoro in quel momento della cpu, ma potrebbe anche essere il gioco ottimizzato a cavolo)
comunque grazie a tutti per le info e la disponibilita'

Ma che dissipatore usi?

fener75
10-03-22, 20:07
Mi sono deciso a ordinare un dissipatore Noctua NH-U9s per il PC dell'attività così tolgo quello stock Intel.
Montarlo sarà un po' una rottura (e farò tutti i backup possibili prima di aprire il PC chenonsisamai) ma almeno avrò qualcosa che si può pulire più facilmente e terrà le temperature un po' più basse durante i mesi estivi.



Ma che dissipatore usi?

un arctic freezer 33

Det. Bullock
11-03-22, 02:59
un arctic freezer 33

È molto buono.

Quante ventole hai nel case e come sono orientate?

L'arctic freezer che hai ha una o due ventole (ho visto che ci sono diverse varianti su google)?

L'idea di base è che il flusso d'aria vada da davanti a dietro, quindi con due ventole davanti sul case che immettono aria e una o due dietro, possibilmente con il dissipatore e le sue ventole orientate per asecondarlo.

fener75
11-03-22, 08:46
e' la versione con una ventola. Poi ho una ventola da 120 in alto in fondo che butta fuori ed una da 120 in basso davanti al case che butta aria dentro.
Il case e' un CM N300. RIbadisco, non sono i 75 gradi che mi preoccupano, sono piu' i picchi a 80/83 che ogni tanto saltano fuori. La cpu viaggia a 4.6, ma mi piacerebbe provare a tirarla a 5.

GeeGeeOH
11-03-22, 08:48
Mi sa che devi provare a ridurre il voltaggio.

fener75
11-03-22, 09:38
Mi sa che devi provare a ridurre il voltaggio.

ma se riduco il voltaggio, non riduco anche la frequenza ?

Darkless
11-03-22, 10:05
ma se riduco il voltaggio, non riduco anche la frequenza ?

Dipende. Devi provare a scalare di 0,1 volt alla volta e fare dei test per vedere se il sistema tiene. Se regge abbassi ancora e così via finchè non trovi il voltaggio ottimale per la frequenza. Con l'overclock di solito si procede così.

GeeGeeOH
11-03-22, 10:44
ma se riduco il voltaggio, non riduco anche la frequenza ?
No, rischi di ridurre la stabilità.
Di fabbrica abbondano con il voltaggio per assicurare la stabilità, a scapito di consumi e calore.

GeeGeeOH
15-03-22, 14:42
AMD's Ryzen 7 5800X3D Launches April 20th, Plus 6 New Low & Mid-Range Ryzen Chips (https://www.anandtech.com/show/17313/ryzen-7-5800x3d-launches-april-20th-plus-6-new-low-mid-range-ryzen-chips)

Det. Bullock
16-03-22, 16:25
Ho finalmente installato un Noctua NH-U9S sul PC dell'ufficio per liberarmi di quel coso Intel, diciamo che è stata un po' un'avventura. :asd:
Hanno contribuito la mia naturale sbadataggine (unita a un leggero stordimento dovuto a una recente infezione allo stomaco) e il case che è un mid-tower vecchio senza l'accesso dietro la CPU cosa che aggiunge un bel grattacapo visto che Intel che obbliga a installare una backplate se si vuole qualcosa che non usi quegli odiosi gancetti di plastica.

Al riassemblaggio la scheda video non faceva più contatto a dovere e l'ho dovuta togliere e rimettere due volte perché l'immagine venisse a schermo, praticamente un film dell'orrore. :asd:

fener75
17-03-22, 10:18
Dipende. Devi provare a scalare di 0,1 volt alla volta e fare dei test per vedere se il sistema tiene. Se regge abbassi ancora e così via finchè non trovi il voltaggio ottimale per la frequenza. Con l'overclock di solito si procede così.

scusate, mi sono perso nei settaggi del bios (e sono anche imbranato), non e' che mi potete spiegare i passi da fare, nel caso apro un altro tread per non sporcare troppo questo, o indicarmi una guida scritta bene per nubbi?

Weltall
17-03-22, 12:20
Chiedo agli esperti, questa roba del directstorage a cui microsoft sta lavorando vi pare interessante dal punto di vista gaming? Ci darà più potenza nei giochi a parità di costi e consumi? Che hardware ci vuole?

Darkless
17-03-22, 12:49
Non ti da "più potenza" velocizza solo i caricamenti.

GeeGeeOH
17-03-22, 12:59
Indirettamente può liberare la CPU, ma questo non è praticamente mai un limite...
In teoria permetterà di aver texture di qualità di molto (ma molto) superiore a quanto possibile fino ad ora.

Al top probabilmente sarà necessario avere un SSD NVMe al pari di quelli delle ultime console (~5GB/s), ma su PC sicuramente ci saranno più livelli.

GeeGeeOH
17-03-22, 14:14
AMD Releases Adrenalin Software Spring 2022 Update: Adds RSR Upscaling and More (https://www.anandtech.com/show/17318/amd-releases-adrenalin-software-spring-2022-update-adds-rsr-and-more)

AMD Teases FSR 2.0: Temporal Upscaling Tech for Games Coming in Q2 (https://www.anandtech.com/show/17317/amd-teases-fsr-20-temporal-upscaling-tech-for-games-coming-in-q2)

Weltall
18-03-22, 10:55
Quindi in pratica roba già in commercio, c'è solo da aspettare che si muova la parte sw.

Weltall
20-03-22, 12:38
una domanda, ma la 3050 che ha preso tutte queste pessime recensioni, sarebbe un pessimo acquisto per l'upgrade da una 960 2gb ?
In realtÃ* ero interessato alla 3060 ma continuo a leggere che vuole ali da 650 W e il mio è da 550, e poi anche considerando che il pc non recentissimo, non so se ha senso metterci roba potente. Ho solo un paio di giochi che girerebbero meglio con un upgrade tutto qua.

Darkless
20-03-22, 12:57
Mah a sto punto ti direi di attendere e rifarti tutto il Pc come Cristo comanda. Se proprio vuoi fare un piccolo upgrade ora con meno di 200 euro una 970 usata la recuperi (se ti basta per quel paio di giochi).
Cmq non devi guardare solo i Wattaggi in un alimentatore.

GeeGeeOH
20-03-22, 13:55
550W di un alimentatore serio bastano ed avanzano.
La 3060 non arriva a consumare 200W.

I prezzi stanno calando ma forse conviene aspettare ancora un attimo.

Weltall
20-03-22, 14:22
quando i watt "avanzano" mi sento più tranquillo :)

GeeGeeOH
20-03-22, 14:25
Spetta.
Ci son alimentatori di merda che... lasciamo stare.
Fai prima a dire il modello che hai.

Weltall
20-03-22, 14:29
ah ho un xfx 80pb
questo : https://www.newegg.com/xfx-ts-series-p1550sxxb9-550w/p/N82E16817207013?AID=5555555

Darkless
20-03-22, 14:32
quando i watt "avanzano" mi sento più tranquillo :)

Puoi avere anche un alimentatore da 1000 Watt ma se è una cinesata ti esplode con una 960 mentre un buona limentatore da 500W ti tiene su una 3060. Il discorso sarebbe lungo. L'alimentatore è quella componente che molti sottovalutano, o guardano solo il wattaggio, che in realtà è la più importante per il PC.



I prezzi stanno calando ma forse conviene aspettare ancora un attimo.

Non guardo da un po' ma le 3050 avevano raggiunto i 400 euro e passa a un mese dal lancio. Pura follia. A quei prezzi è da evitare assolutamente.

Weltall
20-03-22, 14:34
infatti, solo sui 200 euro ha senso. Ma ho i miei dubbi che scenda fino a li.

GeeGeeOH
20-03-22, 14:43
ah ho un xfx 80pb
questo : https://www.newegg.com/xfx-ts-series-p1550sxxb9-550w/p/N82E16817207013?AID=5555555
Discreto.

Dadocoso
21-03-22, 08:32
ora che i prezzi stanno scendendo il "aspetta che scendano un altro po'" é il nuovo "aspetta che esca la serie 3xxx" del 2000 :asd:

é vero, dice che scenderanno di piú i prezzi. Ma la realtá é che la storia recente ci ha dimostrato che non si sa cosa possa accadere. Se trovi qualcosa a un prezzo che ti sembra fattibile boh... io forse non aspetterei piú di tanto. Magari tra 2 mesi spendi il 10% meno. O forse costerá il 20% di piú

Darkless
21-03-22, 09:28
ora che i prezzi stanno scendendo il "aspetta che scendano un altro po'" é il nuovo "aspetta che esca la serie 3xxx" del 2000 :asd:

é vero, dice che scenderanno di piú i prezzi. Ma la realtá é che la storia recente ci ha dimostrato che non si sa cosa possa accadere. Se trovi qualcosa a un prezzo che ti sembra fattibile boh... io forse non aspetterei piú di tanto. Magari tra 2 mesi spendi il 10% meno. O forse costerá il 20% di piú

Una 3050 sopra i 300 euro, ma anche a 300, è da evitare come la peste. A prescindere. Meglio una GPU usata.
Cosa possa accadere cmq si sa: uscirà a breve la serie 4000 di Nvidia ed i prezzi delle 3000 continueranno a calare fino a quel momento. Non arriveranno mai all' msrp ma il trend del calo è una costante da mesi.

Angels
21-03-22, 10:33
Io sto valutando se prendere una 3060 a 700 euro o aspettare ancora, devo anche vedere bene se con la tripla ventola entra nel case o è troppo grande.
https://www.amazon.it/dp/B09664S1F6/?coliid=I1SJ6QUTCN12E9&colid=2RB0IXEMF2VXB&psc=1&ref_=lv_ov_lig_dp_it

gmork
21-03-22, 10:40
consigliato un 750W :bua:

Angels
21-03-22, 11:58
consigliato un 750W :bua:

Ce l'ho
https://www.amazon.it/gp/product/B07S4TKB4S/ref=ppx_yo_dt_b_asin_title_o02_s00?ie=UTF8&psc=1

GeeGeeOH
21-03-22, 12:22
Che verrà usato al 50-60%...

750W son utili per un i9 ed una 3090.

Darkless
21-03-22, 12:32
consigliato un 750W :bua:

https://www.emugifs.net/wp-content/uploads/2021/01/Ingenier-Cane-Mille-GIF-Fabio-De-Luigi-in-TV-a-Mai-Dire-Gol-con-la-Gialappa-s-Band.gif

Dadocoso
21-03-22, 13:29
Io ho un gold 750w con un 3900xt e 3090, tutt'apposto :sisi:


Una 3050 sopra i 300 euro, ma anche a 300, è da evitare come la peste. A prescindere. Meglio una GPU usata.
Cosa possa accadere cmq si sa: uscirà a breve la serie 4000 di Nvidia ed i prezzi delle 3000 continueranno a calare fino a quel momento. Non arriveranno mai all' msrp ma il trend del calo è una costante da mesi.

sono d'accordo, ma torno a dire, 2 anni fa é successa esattamente la stessa cosa, e dopo poco che sono uscite le serie 3xxx, le usate costavano piú di quanto dovevano costare le nuove in teoria :asd:

Angels
21-03-22, 13:33
Per sapere se la misura della scheda video e del case è ok può bastare guardare le specifiche tecniche del case, della scheda madre e della scheda video o è meglio aprire?

GeeGeeOH
21-03-22, 13:37
Se le specifiche sono ampiamente soddisfatte non sto ad aprire, se sono al limite si.

Darkless
21-03-22, 14:55
sono d'accordo, ma torno a dire, 2 anni fa é successa esattamente la stessa cosa, e dopo poco che sono uscite le serie 3xxx, le usate costavano piú di quanto dovevano costare le nuove in teoria :asd:

E grazie al cazzo, è scoppiata una pandemia :asd: Adesso la crisi già ci sta, quindi il trend resta quello. la vera incognita è vedere se con le 4000 tireranno fuori msrp come quelli delle 3000 o se li spareranno direttamente alti in partenza. Poi con l'aggiunta della guerra ci sarà n'altra botta di rincari sui nuovi prodotti.
La ragione die prezzi ancora alti è che diverse GPU sonos tate comprate a peso d'oro in piena crisi e il rivenditore ora non vuole smenarci.
Vista l'uscita abbastanza ravvicinata fra le due serie e la crisi dell'energia a stò giro mi aspetto però che molti miner, soprattutto quelli più casalinghi, non cambino il parco GPU andando ad infierire sulla situazione.
Io ero quasi tentato di prendere una 970 a 170 euro ma alla fine mi tengo ancora la 660 e amen.

Kinto
23-03-22, 08:32
Io sto valutando se prendere una 3060 a 700 euro o aspettare ancora, devo anche vedere bene se con la tripla ventola entra nel case o è troppo grande.
https://www.amazon.it/dp/B09664S1F6/?coliid=I1SJ6QUTCN12E9&colid=2RB0IXEMF2VXB&psc=1&ref_=lv_ov_lig_dp_it

A quella cifra io mi rifiuterei anche a pensarci!

Angels
23-03-22, 09:14
E sono d'accordo che i prezzi sono ancora alti, ma dal 2020 che ho preso gli altri componenti sono senza scheda video, sto ancora con la 660 del 2012.

GeeGeeOH
23-03-22, 09:15
Quindi ho aspettato 2 anni, altri 2 mesi proprio no!

Angels
23-03-22, 10:36
Quindi ho aspettato 2 anni, altri 2 mesi proprio no!

Non sono convinto che fra 2 mesi i prezzi scendano, leggevo in giro, forse se ne parla a settembre/ottobre di una discesa sostanziale dei prezzi delle 3000, con l'annuncio/uscita delle 4000, sono altri 6/7 mesi da aspettare.

GeeGeeOH
23-03-22, 10:43
Negli ultimi due mesi son scesi.


https://www.youtube.com/watch?v=DTXctJlAEcM

Angels
23-03-22, 11:31
E' vero che sono scesi, a dicembre stavano oltre 800 e ora siamo sotto i 700, vedremo più avanti.

Det. Bullock
23-03-22, 20:28
Io ormai aspetto la prossima generazione.
Si parla di salti assurdi di prestazioni che mi farebbero comodo se decidessi di mettermi con la VR.

Darkless
23-03-22, 20:38
E' vero che sono scesi, a dicembre stavano oltre 800 e ora siamo sotto i 700, vedremo più avanti.

Non manca molto all'uscita delle 4000. Le 3000 continueranno a calare.


Io ormai aspetto la prossima generazione.
Si parla di salti assurdi di prestazioni che mi farebbero comodo se decidessi di mettermi con la VR.

... anche di consumi

Det. Bullock
23-03-22, 22:51
... anche di consumi

Ho una limentatore da 750w, male che vada approfitterò di un eventuale calo di prezzi delle schede correnti.

Sembra comunque che non AMD il problema non sarà pronunciato come con Nvidia.

Darkless
24-03-22, 08:51
Ho una limentatore da 750w, male che vada approfitterò di un eventuale calo di prezzi delle schede correnti.


Diciamo che le premesse non sono buone, è da vedere se e quanto miglioreranno nella versione finale:

https://www.extremetech.com/gaming/332060-rumor-nvidias-rtx-4000-goes-nuclear-with-850w-tgp#:~:text=The%20variations%20will%20reportedly%2 0consume,this%20is%20subject%20to%20change.

gmork
24-03-22, 09:45
se è così, o fanno girare matrix o per il prossimo pc resterò sulle 3000. come se ci fossero dei matrix all'orizzonte, poi. pensano che la gente abbia schermi a 8k?
in before: accendi il pc e ti salta la corrente di casa :bua:

albero
24-03-22, 10:18
Qui in Benelux incominciano a trovarsi IN STOCK delle 3070 ti a 850€

Darkless
24-03-22, 11:19
in before: accendi il pc e ti salta la corrente di casa :bua:

Accendi il pc, spegni il quartiere :asd: Non fosse che undervoltano almeno sarebbe un deterrente per i miner

alezago88
24-03-22, 11:24
sinceramente è vero che aumenteranno i consumi ma saranno lineari all'aumento di prestazioni. Se con la serie 3000 puntavo alla 3060ti, se la 4050 dovesse avere le stesse prestazioni e gli stessi consumi prenderei quella e non l'eventuale 4060ti che andrebbe di più e consumerebbe di più.

Se la 4090 consumerà il 50% in piu e avrà il 50% in più di prestazioni sarà comunque un aumento lineare di entrambe. Diverso sarà se consumerà il doppio ed avrà solo il 50% di prestazione in più.

Dadocoso
24-03-22, 12:13
sinceramente è vero che aumenteranno i consumi ma saranno lineari all'aumento di prestazioni. Se con la serie 3000 puntavo alla 3060ti, se la 4050 dovesse avere le stesse prestazioni e gli stessi consumi prenderei quella e non l'eventuale 4060ti che andrebbe di più e consumerebbe di più.

Se la 4090 consumerà il 50% in piu e avrà il 50% in più di prestazioni sarà comunque un aumento lineare di entrambe. Diverso sarà se consumerà il doppio ed avrà solo il 50% di prestazione in più.

beh onestamente avere il 50% di prestazioni in piú a fronte del 50% di consumi in piú non sarebbe un gran risultato per una nuova generazione. Spero che il rapporto consumi/prestazioni migliori.

Inoltre spero anche che prima o poi vedremo un po' un inversione di tendenza per queste GPU (e alcune CPU). Su un desktop ovviamente i consumi non sono cosí importanti, peró c'é un limite... tra costo dell'energia che aumenta e TDP che tra poco raggiungeranno quelli di un fornetto direi che i consumi stanno diventando un po' eccessivi anche per un desktop.

Darkless
24-03-22, 12:42
Infatti. C'è stata solo una corsa alla potenza bruta nelle ultime due gen senza "badare a spese" sui consumi.

GeeGeeOH
24-03-22, 12:47
Da un lato la nuota architettura dovrebbe migliorare l'efficienza, ma se il grosso delle performances arriva dal "semplice" duplicare l'hardware non è questa gran cosa.
Soprattutto perché inevitabilmente si perde qualcosa "per strada" già nella sola gestione del extra hardware e nel muovere di più i dati.


Vedasi l'M1 Ultra di Apple (2x M1 Max).

Zhuge
24-03-22, 13:04
Qui in Benelux incominciano a trovarsi IN STOCK delle 3070 ti a 850€

:eek:

Weltall
24-03-22, 13:18
una cosa che non mi piace è che si aumenta costo, potenza e consumi solo in funzione della risoluzione. Mai nulla di nuovo e interessante. Solo numeri numeri numeri, 1440 meglio di 1080, 4k meglio di 1440, 8k meglio di 4k ecc ecc. che noia. Tra poco ti ci vorrà il microscopio per vedere i punti del monitor , e una parete da 4 metri.

GeeGeeOH
24-03-22, 13:38
Beh il raytracing è sostanzialmente ancora all'inizio.

Cioè, al momento attuale, si riesce a far girare Quake II (classe '97) completamente renderizzato in raytracing.

Darkless
24-03-22, 13:40
una cosa che non mi piace è che si aumenta costo, potenza e consumi solo in funzione della risoluzione. Mai nulla di nuovo e interessante. Solo numeri numeri numeri, 1440 meglio di 1080, 4k meglio di 1440, 8k meglio di 4k ecc ecc. che noia. Tra poco ti ci vorrà il microscopio per vedere i punti del monitor , e una parete da 4 metri.

In realtà dovrebbe andare pari passo col pannello che usi. Sotto i 32" il 4K ha poco senso.

Dadocoso
24-03-22, 14:12
una cosa che non mi piace è che si aumenta costo, potenza e consumi solo in funzione della risoluzione. Mai nulla di nuovo e interessante. Solo numeri numeri numeri, 1440 meglio di 1080, 4k meglio di 1440, 8k meglio di 4k ecc ecc. che noia. Tra poco ti ci vorrà il microscopio per vedere i punti del monitor , e una parete da 4 metri.

il raytracing in real time mi pare una innovazione molto importante invece, é la tecnologia che porterá i motori di rendering real time al pari con quelli usati per renderizzare gli effetti dei blockbusters.

So che molti continuano a dire che é inutile, ma io credo sia esattamente l'opposto. É una delle innovazioni piú importanti nei motori real time che c'é stata da diverso tempo

GeeGeeOH
24-03-22, 14:19
Più che inutile è forviante dire che quello che abbiamo ora sia "raytracing".
Solo un paio di effetti (ombre e riflessi) sono in raytracing, mentre il grosso è ancora rasterisation.

Darkless
24-03-22, 15:23
Più che inutile è forviante dire che quello che abbiamo ora sia "raytracing".
Solo un paio di effetti (ombre e riflessi) sono in raytracing, mentre il grosso è ancora rasterisation.

E per avere quel poco che hai devi sputare sangue, sia in termini di prestazioni che perdi che di consumi.

Dadocoso
24-03-22, 15:24
Più che inutile è forviante dire che quello che abbiamo ora sia "raytracing".
Solo un paio di effetti (ombre e riflessi) sono in raytracing, mentre il grosso è ancora rasterisation.

certo, non é ancora raytracing vero, peró sono ombre, riflessi E 1 bounce di global illumination. Comunque rivoluzionario averlo in real time.

Darkless
24-03-22, 16:26
Sarà anche rivoluzionario ma il rapporto costi/benefici è pessimo. Per ora se ne puo' ancora fare a meno, a maggior ragione sulla generazione 2000 potevan risparmiarselo, è stata una scusa per sparare altissimi i prezzi. Hanno anticipato troppo i tempi, dovevano aspettare almeno un paio di gen prima di buttarlo fuori ma oramai sentivano anche il fiato sul collo di AMD che come prestazioni brute li aveva raggiunti e dovevano inventarsi qualcosa.

GeeGeeOH
24-03-22, 16:37
E' poco rivoluzionario soprattutto perché, fino ad ora, non fa cose veramente strabilianti che non si possano fare in altro modo.
Quindi si, di strada da fare ce n'è ancora tanta.

Dadocoso
24-03-22, 16:53
E' poco rivoluzionario soprattutto perché, fino ad ora, non fa cose veramente strabilianti che non si possano fare in altro modo.
Quindi si, di strada da fare ce n'è ancora tanta.

sicuramente c'é ancora molta strada da fare, siamo agli inizi. Non sono assolutamente d'accordo sul fatto che si possano fare le stesse cose in altro modo. Certo, se intendi che prima della GI facevano comunque gli effetti speciali e le animazioni 3d che in qualche che erano guardabili, si, era possibile, la direzione artistica é sempre stata la cosa piú importante.
Peró costruivano anche le piramidi facendo rotolare massi enormi sui tronchi d'albero.

RTX é giá ora una rivoluzione: puoi fare le stesse cose che facevi prima in 1/20 del tempo e con molte meno limitazioni. Inoltre quando sfruttato a dovere fa una differenza come tra il giorno e la notte giá ora. Il problema é che nei giochi é pressoché inutilizzabile sul 90 e passa % dell'hardware dei giocatori, quindi anche le limitate possibilitá di una tecnologia appena nata non sono state minimamente sfruttate fin'ora.

Darkless
24-03-22, 17:31
sicuramente c'é ancora molta strada da fare, siamo agli inizi. Non sono assolutamente d'accordo sul fatto che si possano fare le stesse cose in altro modo. Certo, se intendi che prima della GI facevano comunque gli effetti speciali e le animazioni 3d che in qualche che erano guardabili, si, era possibile, la direzione artistica é sempre stata la cosa piú importante.
Peró costruivano anche le piramidi facendo rotolare massi enormi sui tronchi d'albero.

RTX é giá ora una rivoluzione: puoi fare le stesse cose che facevi prima in 1/20 del tempo e con molte meno limitazioni. Inoltre quando sfruttato a dovere fa una differenza come tra il giorno e la notte giá ora. Il problema é che nei giochi é pressoché inutilizzabile sul 90 e passa % dell'hardware dei giocatori, quindi anche le limitate possibilitá di una tecnologia appena nata non sono state minimamente sfruttate fin'ora.

E' ovvio. Per quanto Nvidia spinga e marchetti non ci si mette a investire più di tanto tempo e denaro per implementare qualcosa che vedranno si e no il 10% dei giocatori, soprattutto con la crisi delle GPU. Finchè l'hw non prenderà piede o, opzione ancora più remota, le console saranno in grado di reggerlo come si deve, lo vedrai utilizzato sempre solo in modo marginale. Nessuno gli sta dietro più di tanto.
Il fatto poi che non ci sia uno standard ma AMD e Nvidia viaggino su binari separati lo azzoppa ulteriormente e ne rallenta moltissimo la diffusione.

Dadocoso
24-03-22, 17:47
E' ovvio. Per quanto Nvidia spinga e marchetti non ci si mette a investire più di tanto tempo e denaro per implementare qualcosa che vedranno si e no il 10% dei giocatori, soprattutto con la crisi delle GPU. Finchè l'hw non prenderà e piede o, opzione ancora più remota, le console saranno in grado di reggerlo come si deve, lo vedrai utilizzato sempre solo in modo marginale. Nessuno gli sta dietro più di tanto.
Il fatto poi che non ci sia uno standard ma AMD e Nvidia viaggino su binari separati lo azzoppa ulteriormente e ne rallenta moltissimo la diffusione.

certo, su questo sono d'accordo al 100%. A mio avviso comunque non cambia il fatto che é una tecnologia che é in grado di rivoluzionare la grafica in tempo reale. Il problema é che al momento non solo é allo stato embrionale, ma soprattutto non viene praticamente usata.

GeeGeeOH
24-03-22, 18:53
sicuramente c'é ancora molta strada da fare, siamo agli inizi. Non sono assolutamente d'accordo sul fatto che si possano fare le stesse cose in altro modo. Certo, se intendi che prima della GI facevano comunque gli effetti speciali e le animazioni 3d che in qualche che erano guardabili, si, era possibile, la direzione artistica é sempre stata la cosa piú importante.
Peró costruivano anche le piramidi facendo rotolare massi enormi sui tronchi d'albero.
Ombre e riflessi in game fatti "tradizionalmente" rispetto a quelli fatti ora col raytracing sono pressoché indistinguibili al gamer.
Per quello la rivoluzione è ben lontana dal essere concretizzata.

Det. Bullock
24-03-22, 19:29
Diciamo che le premesse non sono buone, è da vedere se e quanto miglioreranno nella versione finale:

https://www.extremetech.com/gaming/332060-rumor-nvidias-rtx-4000-goes-nuclear-with-850w-tgp#:~:text=The%20variations%20will%20reportedly%2 0consume,this%20is%20subject%20to%20change.

Si parla comunque di Nvidia, bisogna vedere come sarà con le schede AMD con l'uso dei chiplet (che mi fa venire in mente le vecchie schede ATI come la Rage Fury Max).

Dadocoso
24-03-22, 19:33
Ombre e riflessi in game fatti "tradizionalmente" rispetto a quelli fatti ora col raytracing sono pressoché indistinguibili al gamer.
Per quello la rivoluzione è ben lontana dal essere concretizzata.

continui a parlare di riflessi e ombre e ignori completamente l'indirect lighting :asd:

GeeGeeOH
24-03-22, 19:46
continui a parlare di riflessi e ombre e ignori completamente l'indirect lighting :asd:Qualche esempio pratico?


Che io sappia, senza raytracing, solitamente lo precalcolano in sviluppo ed è fatta.

Dadocoso
24-03-22, 20:29
Qualche esempio pratico?


Che io sappia, senza raytracing, solitamente lo precalcolano in sviluppo ed è fatta.

Esatto, solo che per pre-calcolarlo col bake, in sviluppo devi creare delle uv ad hoc per il bake dell’illuminazione indiretta che sono una palla da fare. Inoltre il bake dell’illuminazione indiretta ha limiti piuttosto grandi e se ci pensi abbastanza ovvi: funziona solo se l’illuminazione è completamente statica e funziona solo per oggetti statici. Quindi nei giochi il ciclo giorno notte o qualsiasi fonte luminosa dinamica non viene inclusa nel bake, così come non vengono inclusi tutti i personaggi e gli oggetti dinamici.

Capisci bene che stando così le cose, avere la gi in real time fa una differenza enorme sia a livello di processo di creazione degli oggetti che a livello visivo

GeeGeeOH
24-03-22, 20:51
Ma il punto di vista è quello del consumatore finale, non di chi fa la salsiccia.

Che poi, con le pesanti limitazioni in termini di performance che sia hanno al momento, alla fine, resta una bella rogna da sviluppare comunque...

Dadocoso
24-03-22, 21:26
Vabbè ci sono entrambi i lati della medaglia secondo me. Anche se non dovesse avere alcun impatto visivo, nel momento che l’hw medio lo farà girare senza problemi verrà adottato come unico sistema di illuminazione, visto che riduce sensibilmente i tempi di sviluppo e quindi i costi.

Però c’è anche l’impatto grafico, dici che non si vede solo perché non hai mai visto la differenza in scene dove viene sfruttato. Comunque fino alla prossima generazione di console non sarà lo standard, quindi bai tranquillo :asd:

Darkless
25-03-22, 10:40
Vabbè ci sono entrambi i lati della medaglia secondo me. Anche se non dovesse avere alcun impatto visivo, nel momento che l’hw medio lo farà girare senza problemi verrà adottato come unico sistema di illuminazione, visto che riduce sensibilmente i tempi di sviluppo e quindi i costi.


Su quello sicuramente hai ragione ma al momento siamo lontanissimi da una situazione del genere. Prima con la serie 2000 hanno rincarato parecchio le schede con la scusa dei tensor core, ed erano ancora mdoelli acerbi che faticavano parecchio. Poi con la serie 3000 teoricamente avevano abbassato i prezzi ma ci si è messa la crisi, quindi anche per il secondo giro l'hw è lontanissimo dal prender piede. Inoltre come prestazioni seppur vadano nettamente meglio della gen precedente per l'RTX si paga ancora uno gran bello scotto sia di prestazioni che di consumi.
Poi non nascondiamoci dietro un dito: il vero sdoganamento alla massa dell'RTX che porterà gli sviluppatori a lavorarci seriamente arriverà solo quando sarà implementabile tranquillamente su console. Cosa ben lungi dall'avvenire. Infine ti ribadisco quanto detto prima: non c'è uno standard e tocca fare doppio lavoro.
Finchè non si risolvono tutte queste cose, e ci vorrà parecchio, la situazione non migliorerà significativamente.



Però c’è anche l’impatto grafico, dici che non si vede solo perché non hai mai visto la differenza in scene dove viene sfruttato. Comunque fino alla prossima generazione di console non sarà lo standard, quindi bai tranquillo :asd:

Si vede fino a un certo punto. Da spettatore magari lo noti di più ma giocando, soprattutto in giochi frenetici, lo cogli ben poco nella stragrande maggioranza dei casi.

Dadocoso
25-03-22, 11:30
Su quello sicuramente hai ragione ma al momento siamo lontanissimi da una situazione del genere. Prima con la serie 2000 hanno rincarato parecchio le schede con la scusa dei tensor core, ed erano ancora mdoelli acerbi che faticavano parecchio. Poi con la serie 3000 teoricamente avevano abbassato i prezzi ma ci si è messa la crisi, quindi anche per il secondo giro l'hw è lontanissimo dal prender piede. Inoltre come prestazioni seppur vadano nettamente meglio della gen precedente per l'RTX si paga ancora uno gran bello scotto sia di prestazioni che di consumi.
Poi non nascondiamoci dietro un dito: il vero sdoganamento alla massa dell'RTX che porterà gli sviluppatori a lavorarci seriamente arriverà solo quando sarà implementabile tranquillamente su console. Cosa ben lungi dall'avvenire. Infine ti ribadisco quanto detto prima: non c'è uno standard e tocca fare doppio lavoro.
Finchè non si risolvono tutte queste cose, e ci vorrà parecchio, la situazione non migliorerà significativamente.



Si vede fino a un certo punto. Da spettatore magari lo noti di più ma giocando, soprattutto in giochi frenetici, lo cogli ben poco nella stragrande maggioranza dei casi.

si delle console l'ho scritto anche io: non diventerá lo standard almeno fino alla prossima generazione.

Per quanto riguarda l'impatto della GI nei giochi frenetici, vero, ma alla fine é vero per la maggor parte degli orpelli grafici. Voglio dire, io sono appassionato di simulazioni di guida. La graficona della madonna mi piace, ma alla fine mentre guido mi basta che ci siano le cose funzionali (distanza visiva, una definizione decente e la fluiditá) del resto me ne accorgo poco.

Quindi alla fine dipende dal cosa viene usata peró dall'altra parte é una tecnologia che in certi contesti puó fare tanta differenza, a livello visivo, di atmosfera e anche di gameplay.

Darkless
25-03-22, 12:50
Quindi alla fine dipende dal cosa viene usata peró dall'altra parte é una tecnologia che in certi contesti puó fare tanta differenza, a livello visivo, di atmosfera e anche di gameplay.

Se implementata tout court sicuramente. Finchè la rileghi a pozzanghere e una manciata di elementi a schermo resta un orpello costosissimo che non vale il suo costo ma come detto prima siamo ben lontani da un cambio di situazione.

GeeGeeOH
25-03-22, 13:10
Non è che gli "orpelli" grafici siano da ignorare, il punto è che il miglioramento è veramente risibile ed il costo è assurdo.

Francamente non son così convinto che le cose cambieranno tanto in fretta.
Dubito fortemente la prossima generazione di console... a meno che no ci si sposti sul cloud.

Darkless
25-03-22, 14:56
Francamente non son così convinto che le cose cambieranno tanto in fretta.
Dubito fortemente la prossima generazione di console... a meno che no ci si sposti sul cloud.

Quella è impossibilie, soprattutto con l'aggravante dei costi attuali dell'hw

Darkless
26-03-22, 11:43
Dato che si parlava della prossima gen:
https://www.igorslab.de/en/new-details-about-nvidia-geforce-rtx-4090-to-24-gb-gddr6x-and-a-clever-voltage-converter-orgy/

Potrebbero arrivare a 600W di TDP

gmork
26-03-22, 11:51
quelle sono cmq schede top per gente che non ha problemi a spendere, manco per la bolletta dell'energia elettrica :asd:

per la 4090 servira' un alimentatore da 1k W?

Dadocoso
26-03-22, 13:48
quelle sono cmq schede top per gente che non ha problemi a spendere, manco per la bolletta dell'energia elettrica :asd:

per la 4090 servira' un alimentatore da 1k W?

mah guarda, io ho una 3090 che uso per lavoro, e ti assicuro che mi piacerebbe molto che le schede fossero piú efficienti specialmente visto che spesso e volentieri la scheda macina render per ore ed ore :bua:

Comunque se effettivamente il TDP sará di 600W direi che si, ci vorrá un alimentatore da almeno 1kw

GeeGeeOH
28-03-22, 10:48
Big Relief for PC Component Shoppers: US Lifts Import Tariffs on Components from China (https://www.techpowerup.com/293341/big-relief-for-pc-component-shoppers-us-lifts-import-tariffs-on-components-from-china)

gmork
28-03-22, 11:02
qui pro quo per non supportare putin?

GeeGeeOH
29-03-22, 14:12
Attenzione poveri! (alla Ranzani): NVIDIA Releases GeForce RTX 3090 Ti: Ampere the All-Powerful (https://www.anandtech.com/show/17334/nvidia-releases-geforce-rtx-3090-ti-ampere-the-allpowerful-)

gmork
29-03-22, 14:22
sarebbe da comprarla per farci girare campo minato, così per sfizio :asd3:

Darkless
29-03-22, 18:02
Se la attacco resta al buio tutto il quartiere

Dadocoso
29-03-22, 18:19
Ecco questa è inutile anche per me… 10% di prestazioni in più, stessa ram, molto più consumo. :nono:

ChioSa
29-03-22, 18:31
Beh considerando che fino a pochi mesi fa con 3000€ ci prendevi una 3080 è pure economica :asd:

Inviato dal mio MI 9 utilizzando Tapatalk

Darkless
29-03-22, 19:48
Ecco questa è inutile anche per me… 10% di prestazioni in più, stessa ram, molto più consumo. :nono:

Veramente è inutile per tutto il mondo, soprattutto quasi a ridosso della serie 4000.

Zhuge
29-03-22, 20:11
Veramente è inutile per tutto il mondo, soprattutto quasi a ridosso della serie 4000.

è come quando Vegeta contro Cell aumenta tantissimo la potenza del SSY1 e diventa lentissimo, mentre Goky sblocca e diventa SSY2

Dadocoso
29-03-22, 20:22
Veramente è inutile per tutto il mondo, soprattutto quasi a ridosso della serie 4000.

Beh quello che intendevo è che alla fine anche la 3090 non è che sia proprio una scheda necessaria a fini gaming a mioavviso. Per chi fa grafica 3d invece i 24gb di vram sono fondamentali rispetto agli 11 della 3080. Invece tra la 3090 e la 3090ti non c’è più senso neanche in ambito 3d :asd:

alezago88
29-03-22, 21:59
comunque dai benchmark va il doppio di una 3060ti, consumando il doppio di corrente. Ad un prezzo 3-4 volte superiore :asd:

Darkless
29-03-22, 23:34
Beh quello che intendevo è che alla fine anche la 3090 non è che sia proprio una scheda necessaria a fini gaming a mioavviso. Per chi fa grafica 3d invece i 24gb di vram sono fondamentali rispetto agli 11 della 3080. Invece tra la 3090 e la 3090ti non c’è più senso neanche in ambito 3d :asd:

Ma infatti lo sa anche Nvidia che sono prodotti più indicati per una fascia professionale ma per fare marketing e promozione si accosta il gaming a tutto. L'ha fatto anche Intel con gli i9 ad esempio.

GeeGeeOH
30-03-22, 07:20
Il marketing sul 8k è semplicemente ridicolo.

Darkless
30-03-22, 08:31
Poco ma sicuro.

Dadocoso
30-03-22, 08:41
Ma infatti lo sa anche Nvidia che sono prodotti più indicati per una fascia professionale ma per fare marketing e promozione si accosta il gaming a tutto. L'ha fatto anche Intel con gli i9 ad esempio.

Si ma almeno la 3090 ha un senso nel mercato professionale, a prescindere dal marketing. La 3090ti no :asd:

GeeGeeOH
30-03-22, 08:45
Sbaglio o gli mancano i driver "giusti" per il lavoro veramente professionale ed è buona per quello "semi professionale"?

Dadocoso
30-03-22, 09:27
Sbaglio o gli mancano i driver "giusti" per il lavoro veramente professionale ed è buona per quello "semi professionale"?

Boh ci sono i driver studio e idriver gaming, ma onestamente non mi pare cambi un tubo. Non puoi usare i driver quadro su una geforce, ma anche li mi pare cambi veramente poco, tipo l’unica cosa che a me eventualmente mancava era la possibilità di avere encoding hw su teamviewer o roba del genere. Per renderizzare la 3090 va leggermente più veloce della top quadro, solo che ha la metà della ram. La mia scheda ha renderizzato per giorni e giorni di seguito, non ha mai superato i 70 gradi e quindi per quello che faccio i driver quadro non mi sembrano necessari. Non so se qualche programma di cad c’è della roba bloccata coi driver geforce, ma non mi pare :uhm:

GeeGeeOH
30-03-22, 10:30
Mi sembra di ricordare che certi calcoli in virgola mobile sono pesantemente azzoppati senza i driver giusti.
Certi programmi mi sembrava di capire che non partivano senza i driver certificati o certe funzioni non erano disponibili.

Dadocoso
30-03-22, 11:01
Mi sembra di ricordare che certi calcoli in virgola mobile sono pesantemente azzoppati senza i driver giusti.
Certi programmi mi sembrava di capire che non partivano senza i driver certificati o certe funzioni non erano disponibili.

si probabilmente nel campo AI, machine learning o roba simile potrebbe essere come dici.

Darkless
30-03-22, 12:16
Si ma almeno la 3090 ha un senso nel mercato professionale, a prescindere dal marketing. La 3090ti no :asd:

Bhè, vedila così: se uno non ha ancora comprato la 3090 puo' prendersi direttamente questa :asd:
Per la cronaca ho appena visto il prezzo: "a partire da 2249 euro" :asd:

Per la serie Chernobyl scansati:
https://www.hwupgrade.it/news/skvideo/evga-geforce-rtx-3090-ti-kingpin-un-mostro-di-potenza-con-due-connettori-a-16-pin-1200w_105988.html

Weltall
30-03-22, 12:25
marchiano una scheda "kingpin" come il videogioco di una vita fà?

Dadocoso
30-03-22, 12:42
Bhè, vedila così: se uno non ha ancora comprato la 3090 puo' prendersi direttamente questa :asd:
Per la cronaca ho appena visto il prezzo: "a partire da 2249 euro" :asd:

Per la serie Chernobyl scansati:
https://www.hwupgrade.it/news/skvideo/evga-geforce-rtx-3090-ti-kingpin-un-mostro-di-potenza-con-due-connettori-a-16-pin-1200w_105988.html

beh si ok... mi sa che la differenza di prezzo é piú del 10% di prestazioni peró :asd:

Comunque boh, sono onestamente un po' "preoccupato" da questa tendenza dell'hw PC. Oggi ho letto che il nuovo top di gamma ryzen avrá TDP da 170w, quindi hanno aumentato anche quello. Ovviamente se le prestazioni lo giustificheranno ben venga, é ancora un TDP umano 170w per usi professionali, peró spero vivamente che si torni a pensare un minimo all'efficienza...

Per dire, apple non mi piace, specialmente nella sua cialtronaggine di marketing dove fanno delle sparate assurde... non posso negare peró che delle CPU che sono estremamente performanti alla metá della potenza delle controparti PC é una cosa che mi piacerebbe vedere anche su PC.

Darkless
30-03-22, 18:03
beh si ok... mi sa che la differenza di prezzo é piú del 10% di prestazioni peró :asd:

Comunque boh, sono onestamente un po' "preoccupato" da questa tendenza dell'hw PC. Oggi ho letto che il nuovo top di gamma ryzen avrá TDP da 170w, quindi hanno aumentato anche quello. Ovviamente se le prestazioni lo giustificheranno ben venga, é ancora un TDP umano 170w per usi professionali, peró spero vivamente che si torni a pensare un minimo all'efficienza...

Per dire, apple non mi piace, specialmente nella sua cialtronaggine di marketing dove fanno delle sparate assurde... non posso negare peró che delle CPU che sono estremamente performanti alla metá della potenza delle controparti PC é una cosa che mi piacerebbe vedere anche su PC.

Ti dirò, per quel che gioco io sarei anche disponibile a comprare versioni di schede un po' "depotenziate", tipo i modelli per laptop, con consumi, temperature ed ingombri inferiori alla controparte "full power".

Dadocoso
31-03-22, 09:17
Ti dirò, per quel che gioco io sarei anche disponibile a comprare versioni di schede un po' "depotenziate", tipo i modelli per laptop, con consumi, temperature ed ingombri inferiori alla controparte "full power".

diciamo che il "range" ce lo hai anche ora alla fine... vai dalla 3050ti che ha una versione a 60w alla 3090ti che ha boh, quanti? 400? 450? É giusto che se hai bisogno di prestazioni senza compromessi ci sia la scelta di prendere il top.

Il problema che vedo io é che al momento si é deciso che l'efficienza energetica la lasciamo stare :asd: Si punta tutto sulla potenza (giusto), senza peró cercare di aumentare l'efficienza energetica.

Vedere che Tomb raider emulato su rosetta su un m1 max fa circa la metá 0.4 degli fps a 60w di una 3080 mobile con tdp da 175w mi fa capire che c'é un discreto margine per provare a migliorare non solo le prestazioni, ma le prestazioni per watt e mi farebbe piacere se si riuscisse ad iniziare ad aumentare solo le prestazioni e a lasciare il TDP invariato. Anche perché giá i rumors circa la prossima generazione di schede mi pare stiano iniziando ad entrare nell'assurdo.

Una volta si scherzava che una scheda era un fornetto delonghi, ora siamo arrivati che lo é davvero :bua:

GeeGeeOH
31-03-22, 09:23
Ma i top di gamma non fanno testo per l'efficienza, non mirano a quella.
Sono tirati al limite ben oltre la curva d'efficienza in quanto mirano alle massime performance.
Il range ottimale sta nella fascia bassa e/o portatili dove l'efficienza effettivamente conta.

Dadocoso
31-03-22, 10:55
Ma i top di gamma non fanno testo per l'efficienza, non mirano a quella.
Sono tirati al limite ben oltre la curva d'efficienza in quanto mirano alle massime performance.
Il range ottimale sta nella fascia bassa e/o portatili dove l'efficienza effettivamente conta.

ma che c'entra, ovvio che le top di gamma son quelle che consumano di piú. Il problema é che una 3070ti ha il TDP piú alto del 20% di una titan di 5 anni fa, il trend mi pare ovvio ed oltretutto é un aumento esponenziale visto che si parla di aumenti di TDP tra il 50 e l'80% per la prossima generazione. Non sto dicendo che voglio una 3090 che consuma come una integrata, ma il trend dei consumi onestamente non mi pare "sano", non si puó continuare ad alzare i TDP all'infito :boh2:

infatti anche i portatili mid range oggi giorno hanno bisono di alimentatori da 300w, che qualche anno fa quasi quasi ci alimentavi un desktop con una 980 dentro :asd:

GeeGeeOH
31-03-22, 11:43
Premesso che il paragone con una Titan, che non erano spinte al limite, è un po' mal posto...
Anche se la 3070 Ti consumando di più in termini assoluti, è probabilmente più efficiente di schede così vecchie.
Consumi assoluti non sono per forza legati all'efficienza.
Consumare 500W e elaborare 60fps è più efficiente che consumare soli 100W ma farne 6fps.

alezago88
31-03-22, 12:41
qui https://www.tomshardware.com/features/graphics-card-power-consumption-tested
hanno fatto un test sull'efficienza delle schede video.

Non mi pare che l'efficienza sia cambiata particolarmente, anzi forse è migliorata.

albero
31-03-22, 12:46
Ciao ragazzi. Sono fuori da un po'. Ma un alim ANTEC earthwatts 650 80+ va bene per una 3070 /3070 TI? e per una 3080?

Mr Yod
31-03-22, 12:55
ma che c'entra, ovvio che le top di gamma son quelle che consumano di piú. Il problema é che una 3070ti ha il TDP piú alto del 20% di una titan di 5 anni fa, il trend mi pare ovvio ed oltretutto é un aumento esponenziale visto che si parla di aumenti di TDP tra il 50 e l'80% per la prossima generazione. Non sto dicendo che voglio una 3090 che consuma come una integrata, ma il trend dei consumi onestamente non mi pare "sano", non si puó continuare ad alzare i TDP all'infito :boh2:

infatti anche i portatili mid range oggi giorno hanno bisono di alimentatori da 300w, che qualche anno fa quasi quasi ci alimentavi un desktop con una 980 dentro :asd:C'è anche chi pensa sia tutta una strategia di Nvidia per tirare fuori schede che consumano meno in futuro, un po' come la cagata della serie 3k "che costa meno della serie precedente" (quando invece si confrontavano i prezzi delle 3080 con quelli delle 2080Ti :asd: )
Ad esempio dai commenti di questo video:

https://www.youtube.com/watch?v=HWS9G2WT42Q&t=610s


The strategy is to make GPUs draw extreme amounts power now so that Nvidia can make a presentation in the future about how power efficient their new cards are in comparison

Oppure, il commento migliore:

The year is 2027. The new Nvidia 8090 Tie needs 1.21 GigaWatts, and can only be powered by direct lightning strike.

:asd:


Io non credo che lo stiano facendo apposta, semplicemente hanno deciso di fregarsene per il momento, cosa che potrà tornare a loro vantaggio in futuro quando punteranno un po' di più sui consumi minori. :uhm:

Dadocoso
31-03-22, 12:57
Premesso che il paragone con una Titan, che non erano spinte al limite, è un po' mal posto...
Anche se la 3070 Ti consumando di più in termini assoluti, è probabilmente più efficiente di schede così vecchie.
Consumi assoluti non sono per forza legati all'efficienza.
Consumare 500W e elaborare 60fps è più efficiente che consumare soli 100W ma farne 6fps.

la titan era esattamente quello che é oggi la 3090 fino alla generazione 2xxx.

Detto questo, lo spero bene che l'efficienza generale migliori con il migliorare della tecnologia, ma la realtá é che la scheda top di gamma di 2 generazioni fa (la titan) consumava quasi la metá di una 3090. Questo é un fatto. La 3090 ha piú fps per watt? Certo, non lo nego assolutamente. Peró é anche innegabile che se continuiamo cosí tra un po' ci vorrá un contratto dell'elettricitá apposta per avere una scheda top di gamma in casa :asd:

Ultimo appunto. Le schede professionali non sono assolutamente spinte al limite, infatti tutte le quadro hanno sia frequenze che TDP piú bassi rispetto alla controparte geforce e infatti vanno anche leggermente meno di velocitá pura.

Dadocoso
31-03-22, 13:04
Ciao ragazzi. Sono fuori da un po'. Ma un alim ANTEC earthwatts 650 80+ va bene per una 3070 /3070 TI? e per una 3080?

credo di si, a patto che sia un ottimo alimentatore. Io ho un 750w gold con un 3900xt e 3090.


C'è anche chi pensa sia tutta una strategia di Nvidia per tirare fuori schede che consumano meno in futuro, un po' come la cagata della serie 3k "che costa meno della serie precedente" (quando invece si confrontavano i prezzi delle 3080 con quelli delle 2080Ti :asd: )
Ad esempio dai commenti di questo video:

https://www.youtube.com/watch?v=HWS9G2WT42Q&t=610s





Oppure, il commento migliore:


:asd:


Io non credo che lo stiano facendo apposta, semplicemente hanno deciso di fregarsene per il momento, cosa che potrà tornare a loro vantaggio in futuro quando punteranno un po' di più sui consumi minori. :uhm:

:asd:

Boh, ho un po' l'impressione che nvidia nel settore gaming/consumer si sia un po' tranquillizzata negli ultimi anni e ora che stanno venendo impensieriti da amd e che hanno dovuto spingere di piú le schede per spremere le prestazioni.

Altro motivo: apple. Al momento apple é lontana dalle prestazioni pure di nvidia per quanto riguarda le schede video, ma ha un'efficienza incredibile. Nvidia non avendo una risposta sul lato efficienza nel breve periodo forse ha deciso di puntare tutto sulla forza bruta, in modo da rendere chiaro il messaggio che se vuoi le massime prestazioni ti ci vuole una nvidia.

Mr Yod
31-03-22, 13:06
Boh, ho un po' l'impressione che nvidia nel settore gaming/consumer si sia un po' tranquillizzata negli ultimi anni e ora che stanno venendo impensieriti da amd e che hanno dovuto spingere di piú le schede per spremere le prestazioni.

Altro motivo: apple. Al momento apple é lontana dalle prestazioni pure di nvidia per quanto riguarda le schede video, ma ha un'efficienza incredibile. Nvidia non avendo una risposta sul lato efficienza nel breve periodo forse ha deciso di puntare tutto sulla forza bruta, in modo da rendere chiaro il messaggio che se vuoi le massime prestazioni ti ci vuole una nvidia.Esatto. :sisi:

GeeGeeOH
31-03-22, 13:14
Ciao ragazzi. Sono fuori da un po'. Ma un alim ANTEC earthwatts 650 80+ va bene per una 3070 /3070 TI? e per una 3080?
A meno che non lo usi con un i9 overclockato a schifo va più che bene.

Usa due cavi distinti per i due 8pin di alimentazione della scheda video, non lo stesso coi due attacchi.

GeeGeeOH
31-03-22, 13:21
Detto questo, lo spero bene che l'efficienza generale migliori con il migliorare della tecnologia, ma la realtá é che la scheda top di gamma di 2 generazioni fa (la titan) consumava quasi la metá di una 3090.Ma consumi ed efficienza non sono termini intercambiabili, son due cose diverse.
E l'efficienza non sta peggiorando col tempo, anzi.

I consumi assoluti salgono perché le richieste son salite.
Una volta ci si accontentava di 30fps, mentre oramai accontentarsi di 60fps è per poveri.
Senza contare la risoluzione e gli effetti.




Ultimo appunto. Le schede professionali non sono assolutamente spinte al limiteIl mio punto appunto.
Le consumer sono tirate, mentre per il mondo professionale oltre ad usare i chip migliori (prendono voltaggi più bassi) non li spingono troppo.
Quindi una professionale di qualche hanno può mantenere un vantaggio d'efficienza rispetto una consumer più nuova.

Le Titan sono state inconsistenti. A volte praticamente schede professionali, a volte più vicine ai consumer.

Maybeshewill
31-03-22, 14:19
qui https://www.tomshardware.com/features/graphics-card-power-consumption-tested
hanno fatto un test sull'efficienza delle schede video.

Non mi pare che l'efficienza sia cambiata particolarmente, anzi forse è migliorata.

Cioè la 970 consuma poco meno della 3060
pazzesco

alezago88
31-03-22, 14:53
Cioè la 970 consuma poco meno della 3060
pazzescoSi circa 20w di meno

Inviato dal mio RMX3363 utilizzando Tapatalk

GeeGeeOH
31-03-22, 14:56
Cioè la 970 consuma poco meno della 3060
pazzescoPazzesco che sia questo quello che ne cavi da quel link.
Consumerà una ventina di watt in più, ma elabora quasi il triplo dei FPS.

Mentre la 3060 è tra le più efficienti, la 970 e tra le peggiori.
Peggio della 980 Ti, molto strano considerando che generalmente le ammiraglie dovrebbero essere quelle che più sacrificano l'efficienza.
La generazione dopo la 1070 fa meglio della 1080 Ti.

Maybeshewill
31-03-22, 14:58
Sì... dicevo in senso positivo per la 3060 e negativo per la 970

Dadocoso
31-03-22, 15:00
qui https://www.tomshardware.com/features/graphics-card-power-consumption-tested
hanno fatto un test sull'efficienza delle schede video.

Non mi pare che l'efficienza sia cambiata particolarmente, anzi forse è migliorata.

giá detto, l'efficienza é migliorata sono d'accordo. Peró i TDP a paritá di fascia sono del 30% piú alti rispetto a due serie fa.

dalla 9xx alla 1xxx i TDP sono addirittura leggermente scesi. Poi da li aumentati ad ogni serie, finché ora si parla addirittura di un incremento di oltre il 50% in una generazione.

Lo ripeto, peró per l'ultima volta perché sennó poi diventa una barzelletta :asd:

l'efficienza é migliorata, sono d'accordo e non ho mai pensato il contrario. Il consumo assoluto peró sta raggiungendo dei livelli IMO troppo alti e vedendo che é oltretutto possibile ottimizzare ulteriormente l'efficienza spero che in futuro si inverta questa tendenza di alzare cosí tanto il TDP delle schede.

Basta, ora il concetto non lo esprimo piú, meglio di cosí non riesco ad esprimerlo tanto :asd:

alezago88
31-03-22, 15:02
No ho capito perfettamente, però come dicevo sulla serie 4000 di nvidia, alla fine a me interessa l'efficienza, quindi se per avere gli stessi fps di una 3060ti (a cui punto) basta una 4050 mi prenderei quella. Non é che prendo la 4060ti solo perché ha la stessa numerazione

Inviato dal mio RMX3363 utilizzando Tapatalk

GeeGeeOH
31-03-22, 15:05
Ma quello che i consumi massimi siano in salita credo lo sia da... sempre.

Una volta avevi schede video con due GPU (top di gamma) che non arrivavano a consumare 200W assieme:
GeForce 9800 GTX 140W mentre GeForce 9800 GX2 190W.


Anda andar più dietro si stentano a trovar valori perché non era proprio una considerazione.


ATi quotes the X800 XT’s power consumption in 3D games to be 67,48 Watts, while a Radeon 9800XT supposedly needs 67,54 Watts. [...]
Using the 110-Watts of the GeForce 6800 Ultra as our point of reference, we had calculated a power draw of 91.5 Watts in our last article !
https://www.tomshardware.com/reviews/ati,802-9.html
Cioè... 100W a dirla grossa... nel 2004.

Dadocoso
31-03-22, 16:07
No ho capito perfettamente, però come dicevo sulla serie 4000 di nvidia, alla fine a me interessa l'efficienza, quindi se per avere gli stessi fps di una 3060ti (a cui punto) basta una 4050 mi prenderei quella. Non é che prendo la 4060ti solo perché ha la stessa numerazione

Inviato dal mio RMX3363 utilizzando Tapatalk

beh si ti andrá bene di farci girare i giochi tra un paio d'anni come avresti fatto i girare i giochi oggi su una 3050 va bene, peró non aumenta solo l'efficienza, aumentano anche le esigenze dei giochi e nel caso professionale delle produzioni 3d


Ma quello che i consumi massimi siano in salita credo lo sia da... sempre.

Una volta avevi schede video con due GPU (top di gamma) che non arrivavano a consumare 200W assieme:
GeForce 9800 GTX 140W mentre GeForce 9800 GX2 190W.


Anda andar più dietro si stentano a trovar valori perché non era proprio una considerazione.

https://www.tomshardware.com/reviews/ati,802-9.html
Cioè... 100W a dirla grossa... nel 2004.

si é vero i tdp sono aumentati, ma mi sembrano aumentati di piú negli ultimi 5 anni anni che nei precedenti 10. Inoltre come hai detto, prima non era una considerazione perché erano valori "irrisori". Secondo me si sta avvicinando il momento per cui bisogna iniziare forse a porsi questa considerazione dei TDP, altrimenti se sei un professionista o un videogiocatore molto esigente tra qualche anno ci vorranno gli alimentatore da qualche megawatt se continua questa tendenza :asd:

sennó vi chiedo... a voi sta bene che i consumi continuino ad aumentare all'infinito?

Se tra 5 anni le schede entry level consumeranno 6-700 watt vi andrá bene? Io onestamente preferirei di no :asd:

alezago88
31-03-22, 16:31
beh si ti andrá bene di farci girare i giochi tra un paio d'anni come avresti fatto i girare i giochi oggi su una 3050 va bene, peró non aumenta solo l'efficienza, aumentano anche le esigenze dei giochi e nel caso professionale delle produzioni 3d



si é vero i tdp sono aumentati, ma mi sembrano aumentati di piú negli ultimi 5 anni anni che nei precedenti 10. Inoltre come hai detto, prima non era una considerazione perché erano valori "irrisori". Secondo me si sta avvicinando il momento per cui bisogna iniziare forse a porsi questa considerazione dei TDP, altrimenti se sei un professionista o un videogiocatore molto esigente tra qualche anno ci vorranno gli alimentatore da qualche megawatt se continua questa tendenza :asd:

sennó vi chiedo... a voi sta bene che i consumi continuino ad aumentare all'infinito?

Se tra 5 anni le schede entry level consumeranno 6-700 watt vi andrá bene? Io onestamente preferirei di no :asd:

no è chiaro che non mi andrebbe bene un aumento del genere e sono quasi certo che tra poco si tornerà a puntare sull'efficienza.

Ma a me, ora, andrebbe benissimo il passaggio da 1070 a 3060ti, è un raddoppio medio di prestazioni ad un 25% di energia in più.

Ovvio che sarebbe stato meglio il raddoppio a parità di energia, ma per quello potrei andare di 3060 e avrei circa un 30% di prestazioni aumentate a parità di corrente consumata.

GeeGeeOH
31-03-22, 17:22
Bisogna ricordare che una volta si passava anche da 130nm, a 90nm, a 65nm ed a 40nm nel giro di quattro anni (2003-2006).
Da 40nm a 28nm ci hanno messi altri quattro anni (2006-2010).
Ed i 28nm son rimasti con noi fino al 2016, sei anni... e li hanno spremuti per bene.
16-12-8/7nm son arrivati in rapida successione ogni due anni, ma i vantaggi son sempre meno.

Dadocoso
31-03-22, 17:24
ecco al discorso dei salti di processo produttivo non ci avevo pensato... peró un po' mi fa pensare che o tra poco si "inventerrano" qualcosa di nuovo (computer quantistici? :asd:) oppure stiamo forse raggiungendo certi limiti fisici di una certa tecnologia :uhm:

Mr Yod
31-03-22, 17:46
(computer quantistici? :asd:)
Esistono già. :asd:
Solo non vanno bene per l'uso domestico quotidiano. :bua:


https://www.youtube.com/watch?v=g_IaVepNDT4

Dadocoso
31-03-22, 18:24
Esistono già. :asd:
Solo non vanno bene per l'uso domestico quotidiano. :bua:


https://www.youtube.com/watch?v=g_IaVepNDT4

si ho visto che li hanno giá sfornati, ma immagino ci sia ancora da aspettare un po' prima di poterli usare per giocare a cyberpunk o per renderizzare in blender :asd:

GeeGeeOH
31-03-22, 19:38
Smartphone in generale e l'M1 di Apple sono a 5nm da quasi due anni: 2020.
Quest'anno 2022, con due anni di ritardo, dovremmo vedere sia nVidia 4000 che AMD 7000 pure a 5nm.

I prossimi iPhone, a fine anno, saranno a 3nm.
Dubito le schede video possano arrivare a questa dimensioni prima del 2025.
Quindi 2 generazioni a 5nm.


La roba quantistica non penso sia per l'ambito consumer.

Mr Yod
31-03-22, 21:15
La roba quantistica non penso sia per l'ambito consumer.
Lo dice anche nel video (e anche in altro video di non mi ricordo chi in cui facevano un tour in un posto in cui c'era un computer quantistico funzionante): non lo sono per niente. :bua:

Darkless
01-04-22, 07:05
Io saran quasi 10 anni oramai che aspetto di vedere stò grafene

Weltall
01-04-22, 07:40
La roba quantistica non penso sia per l'ambito consumer.
Bravo! Chi vuole un lampadario a valvole in casa?
https://i.redd.it/4d12756o2mvz.jpg

GeeGeeOH
01-04-22, 07:44
Vabbeh che pure i primi computar a transistor erano dei mostri.
Ma qui il "problema" è il lavoro che si fa con questi che è molto "diverso".

Dadocoso
01-04-22, 09:02
vabbé delle dimensioni non mi preoccuperei troppo visto che questo era un hdd da 5mb nel 1956

https://external-preview.redd.it/_UA5fKBjOh6nLVfhUqTO2xMDH-0fbhmvxrWe-6UdHYA.jpg?auto=webp&8698f7ae

credo ci sia margine di miglioramento da quel punto di vista :asd:

Per l'impiego beh si pare che non vadano bene per tutto. Lui parla di operazioni che hanno una forte componente di calcoli paralleli, che sono esattamente quello che avviene nel raytracing ad esempio (motivo per cui le gpu sono cosí superiori alle cpu), quindi mi chiedo se comunque in futuro potremmo vedere qualche applicazione piú "casalinga" anche per computer quantistici.

Ovviamente non é che penso tra qualche anno eh :asd: Mi immagino un futuro dove una "processing unit" quantistica si potrá installare come si installa oggi una scheda video, tipo acceleratore :sisi:

Kinto
01-04-22, 09:44
Bravo! Chi vuole un lampadario a valvole in casa?
https://i.redd.it/4d12756o2mvz.jpg

Ma è belliFFimo! :vojo::commosso:

gmork
01-04-22, 09:51
vabbé delle dimensioni non mi preoccuperei troppo visto che questo era un hdd da 5mb nel 1956

https://external-preview.redd.it/_UA5fKBjOh6nLVfhUqTO2xMDH-0fbhmvxrWe-6UdHYA.jpg?auto=webp&8698f7ae

credo ci sia margine di miglioramento da quel punto di vista :asd:

Per l'impiego beh si pare che non vadano bene per tutto. Lui parla di operazioni che hanno una forte componente di calcoli paralleli, che sono esattamente quello che avviene nel raytracing ad esempio (motivo per cui le gpu sono cosí superiori alle cpu), quindi mi chiedo se comunque in futuro potremmo vedere qualche applicazione piú "casalinga" anche per computer quantistici.

Ovviamente non é che penso tra qualche anno eh :asd: Mi immagino un futuro dove una "processing unit" quantistica si potrá installare come si installa oggi una scheda video, tipo acceleratore :sisi:

la vedo dura, a meno che non inventino materiali nuovi/miracoclosi. i chip di quei computer devono stare a temperature vicine allo zero assoluto. da quel che so, tutto quell'apparato che si vede all'esterno serve solo per il raffreddamento del processore.

GeeGeeOH
01-04-22, 09:55
Già. I "chip" sono già ragionevolmente piccoli... è tutto l'apparato per farli funzionare che è problematico.

Dadocoso
01-04-22, 09:58
boh, vedremo. La foto che ho postato dell'HDD che sembra un armadio era di quasi 80 anni fa, sono abbastanza sicuro che tra 80 o é cambiata completamente tecnologia o avranno risolto i problemi delle dimensioni :sisi:

GeeGeeOH
01-04-22, 10:04
I sistemi di refrigerazione estremi quanto si son miniaturizzati negli ultimi decenni?

gmork
01-04-22, 10:43
boh, vedremo. La foto che ho postato dell'HDD che sembra un armadio era di quasi 80 anni fa, sono abbastanza sicuro che tra 80 o é cambiata completamente tecnologia o avranno risolto i problemi delle dimensioni :sisi:

non ci resta che aspettare per vedere :bua:

Dadocoso
01-04-22, 11:27
I sistemi di refrigerazione estremi quanto si son miniaturizzati negli ultimi decenni?

non ne ho idea, ma sono sicuro che nel momento arrivasse una domanda per tecnologie di massa si miniaturizzerebbero molto velocemente :sisi:

- - - Aggiornato - - -


non ci resta che aspettare per vedere :bua:

spero un po' meno di 80 anni :asd:

Mr Yod
01-04-22, 11:33
non ne ho idea, ma sono sicuro che nel momento arrivasse una domanda per tecnologie di massa si miniaturizzerebbero molto velocemente :sisi:
Dadocoso in questa casa obbediamo alle leggi della termodinamica.

:asd:

GeeGeeOH
01-04-22, 11:35
La domanda c'è da decenni.
Probabilmente avremmo già risolto la fusione.

Dadocoso
01-04-22, 11:55
mi pare abbiamo giá avuto conversazioni del genere. Non voglio andare contro le leggi della termodinamica, ma sono abbastanza certo che quando hanno fatto i primi computer c'erano discorsi simili quando qualcuno ipotizzava di poterli usare in casa. Oggi li fanno entrare nei cellulari, con potenze e memorie migliaia di volte piú alte di quell'armadio :asd:

Poi GeeGeeOH, non te la prendere, sicuramente sbaglio io, peró non capisco una cosa. Nella pagina scorsa, in risposta al post di Wetall che mostrava un computer quantistico gigante e quindi poco pratico da mettere in casa hai scritto:

Vabbeh che pure i primi computar a transistor erano dei mostri.
Ma qui il "problema" è il lavoro che si fa con questi che è molto "diverso".

Non so se ho interpretato male il messaggio, ma ho inteso che, come per i primi computer anche qui probabilmente le dimensioni diminuiranno. Ora che l'ho detto anche io dici che é impossibile risolvere il problema delle dimensioni. Scusa ma a volte ho l'impressione tu ti diverta a dire il contrario di quello che dico io :asd:

La fusione non é possibile oggi, lo sará un giorno. La tecnologia avanza... non sono uno di quelli che pensa che di impossibile non c'é nulla (anzi, mi stanno abbastanza sulle palle) e credo che viviamo nel mondo fisico, ma la storia ci ha anche insegnato che quello che una volta era "magia" o "fantascienza", oggi é semplice scienza. E questi salti diventano sempre piú brevi, visto che come usiamo oggi i telefoni cellulari non era altro che fantascienza fino a 30-40 anni fa.

Quindi, non é che mi aspetto di usare i computer quantistici tra un paio d'anni per fare i rendering di blender, ma se la tecnologia quantistica avrá degli interessi a livello pratico per le masse, state tranquilli che prima o poi troveranno il modo di sfruttarli :sisi:

GeeGeeOH
01-04-22, 12:07
Quello che dicevo li, più che altro, era che non mi pongo nemmeno il problema che sia fattibile una riduzione del genere, perché quello non penso sia proprio il vero problema in questo caso.
Ma se ci poniamo il problema, penso siano cazzi e che i transistor facciano storia a se stante e non regola generale.

Generalmente trovo alquanto fallace ragionare col presupposto che visto che in passato abbiamo risolto problemi simili, si possa andare avanti all'infinito.
Ci possiamo sbagliare su quali siano i limiti, ma i limiti esistono.

gmork
01-04-22, 12:22
il vero botto sarà i.a.+computer quantistici evoluti (in ogni campo). nel nostro caso, con linee veloci magari non servirà tenere manco più hardware a casa che non sia per la connessione a farm di supercomputer quantistici per avere sempre il top del top :sbav:

Mr Yod
01-04-22, 13:03
Ecco, se ne volete comprare uno:

https://www.youtube.com/watch?v=60OkanvToFI

:asd:


La scheda col processore in sè è già più piccola di una 3090, il problema è solo il raffreddamento. :bua:
E quello non puoi miniaturizzarlo più di tanto, perchè la richiesta di raffreddamento (come anche di riscaldamento) esiste già da decenni e non solo in ambito PC: se bastasse quella per ottenere la miniaturizzazione oggi non avremmo dissipatori su cui devi pagarci l'IMU. :bua:
E i chip quantistici non vanno raffreddati perchè scaldano più di 4090Ti (quando uscirà), ma perchè hanno bisogno che le particelle non facciano il cazzo che vogliono, cosa che succederebbe a temperatura ambiente. :asd:

Dadocoso
01-04-22, 13:16
il vero botto sarà i.a.+computer quantistici evoluti (in ogni campo). nel nostro caso, con linee veloci magari non servirà tenere manco più hardware a casa che non sia per la connessione a farm di supercomputer quantistici per avere sempre il top del top :sbav:

si questo sono convinto anche io che sia una rivoluzione relativamente vicina nel tempo. Sono giá un paio d'anni che dico che nel giro di 10 anni sará normale avere solo un computer "client", ma che in realtá tutto il lavoro sará fatto in cloud. Dopotutto giá ora ci sono tante soluzioni sia per il gaming che per mercato professionale.

Certo, anche i computer dall'altra parte funzionano con la tecnologia esistente, peró giá il fatto di non dover necessariamente sviluppare tecnologie che devono entrare nella casa di ognuno cambia un po' le regole del gioco

GeeGeeOH
01-04-22, 14:11
Li la latenza è un altra bella rogna da risolvere.
Il problema non son tanto le connessioni ma l'infrastruttura del internet e questa non la si rivoluziona così rapidamente.

Dadocoso
01-04-22, 14:55
Li la latenza è un altra bella rogna da risolvere.
Il problema non son tanto le connessioni ma l'infrastruttura del internet e questa non la si rivoluziona così rapidamente.

Concordo, la latenza é da migliorare ed é l'anello debole della catena. Comunque calcola sto lavorando in questo istante da un portatile in Italia collegato a un fisso in Polonia, entrambi su normali linee internet casalinghe. Non ci giocherei a un simulatore di guida, ma per lavoro é giá godibilissimo con circa 40-50ms di latenza (su wifi). Non la vedo cosí impossibile specialmente mettendo il cloud su infrastrutture ad hoc invece che su una linea casalinga.

GeeGeeOH
14-04-22, 16:04
https://www.youtube.com/watch?v=ajDUIJalxis


https://www.youtube.com/watch?v=hBFNoKUHjcg

guru3d - AMD Ryzen 7 5800X3D review (https://www.guru3d.com/articles-pages/amd-ryzen-7-5800x3d-review,1.html)

fener75
18-04-22, 18:32
sapete che marca è la KFA2? la 3080 a 12 giga viene 1099 euro su drako

benvelor
18-04-22, 21:02
nella generazione passata era molto buona, soprattutto a prestazioni
con l'odierna, non lo so
è una di quelle che si filano in pochi perchè ha un nome poco conosciuto

cmq in tempo di carestia, farei poco lo schizzinoso: io a luglio scorso ho preso una xfx...

gmork
18-04-22, 21:08
immagno che ora che esce la serie 4000 scenderanno ancora

fener75
19-04-22, 08:16
non sono schizzinoso :) , ma spendere 1000 euro per un oggetto di cui non conosco la marca (e magari si spacca dopo 2 giorni) mi fa sentire un tremito nella forza.
Comunque coma alimentatore ho un Corsair CX650M mi basta o devo prenderne uno piu' "Grosso"?

GeeGeeOH
19-04-22, 08:21
CPU? Se hai un Intel K potrebbe non bastare.
Hanno dei picchi da paura.

benvelor
19-04-22, 08:54
non sono schizzinoso :) , ma spendere 1000 euro per un oggetto di cui non conosco la marca (e magari si spacca dopo 2 giorni) mi fa sentire un tremito nella forza.
Comunque coma alimentatore ho un Corsair CX650M mi basta o devo prenderne uno piu' "Grosso"?

meglio KFA che xfx
a mio parere
non credo che esistano schede che si rompono dopo 2 giorni: possono avere più o meno efficienza, miglior dissipazione del calore quindi alla lunga meno "usura", più o meno silenziosa, ma carrette no
poi c'è il discorso assistenza in caso di problemi
ho quasi sempre avuto asus o sapphire (e una gigabyte, qualche generazione fa), xfx in tempi normali non l'avrei considerata, però devo dire che per adesso (:look:) il suo lo fa, senza lucine, lucette e cazzi gheimers vari

fener75
19-04-22, 10:51
CPU? Se hai un Intel K potrebbe non bastare.
Hanno dei picchi da paura.

ho una i7 8700K

GeeGeeOH
19-04-22, 11:41
ho una i7 8700K
Dovresti essere a posto, son le serie 9, 10 ed 11 dove hanno veramente cagato fuori dal vaso.

Nyarlathotep
19-04-22, 17:40
Beh io ho preso una "Manli" 3070, pare funzionare bene e l'ho presa per circa 670 euro (su BPM power). Credo che di questi tempi anche le marche minori siano molto più accettabili.

Kinto
20-04-22, 07:23
Scusate ma che ha la XFX che non va? Io mi ricordo che andavano MOLTO bene costando il giusto

Ovviamente dipende sempre da modello a modello, ma era una marca che in Italia non era conosciutissima, ma apprezzata all'estero.

benvelor
20-04-22, 07:29
Scusate ma che ha la XFX che non va? Io mi ricordo che andavano MOLTO bene costando il giusto

Ovviamente dipende sempre da modello a modello, ma era una marca che in Italia non era conosciutissima, ma apprezzata all'estero.

sono molto spartane: non che me ne freghi, anzi, però sono parallelepipedi di plastica
come marca non è molto rinomata, ma pare vada bene
è un po' rumorosa a pieno regime, ma per il resto è ok
la differenza tra marca e marca si vede sulla lunga distanza e in caso di problemi (:tie:): presa a luglio su amazon a 700€, è una 6700xt

Kinto
20-04-22, 15:14
La mia RX580, ultima scheda video da pc fisso, era della XFX e prima ancora credo di aver comprato la prima geforce 256 o la 460 (ma non ricordo bene il modello e sigla) di marca XFX

Ne ho avute 2 e andavano molto bene. La 580 non era rumorosa, ma ansimava: Modello GTS XXX Edition

benvelor
20-04-22, 15:32
meglio, visto che mi sa che deve durare tanto, sapere di esperienze positive mi rincuora :sisi:

fener75
20-04-22, 22:12
Alla fine la ho comprata e sto aspettando che mi arrivi.
Nel caso mi servisse un nuovo alimentatore per sostituire il mio (corsair CX650M) va bene un 750 o meglio puntare al 850?
Le varie sigle hx, rm, ecc.. dei corsair cosa significano?
Ci sono marche migliori (magari a prezzi inferiori)?
Grazie

benvelor
21-04-22, 07:40
io ho un corsair RM 650x
mi ricordo che la serie RM e basta (senza x) fosse da evitare
sono ormai parecchi anni che ce l'ho, mi pare 7 o 8

GeeGeeOH
21-04-22, 08:21
Non dovresti aver problemi con quella combo CPU e GPU.
Marche migliori a prezzi inferiori dei Corsair non credo.

WhiteMason
02-05-22, 18:41
Vediamo, c'è ancora un po' di attività qui...? :asd:

Non seguo più il mercato, quindi non saprei... nella fascia entry-level, quella che una volta aveva schede video con dissipatore passivo, poca performance etc... ora che modelli ci sono?

(E dove potrei fare un confronto con una 5770 tipo...?)

Inviato dal mio KIW-L21 utilizzando Tapatalk

Necronomicon
02-05-22, 18:43
Io sto ancora aspettando di comprare una scheda più potente della R9 280 da 3 GB :asd:

WhiteMason
02-05-22, 18:45
Editato sopra!

Inviato dal mio KIW-L21 utilizzando Tapatalk

GeeGeeOH
02-05-22, 19:00
Dici HD 5770 del 2009?
Penso che una RX 6400 uscita qualche mese fa sia 2-3 volte più potente...

WhiteMason
02-05-22, 19:24
Dici HD 5770 del 2009?
Penso che una RX 6400 uscita qualche mese fa sia 2-3 volte più potente...

:bua:

Sì, HD 5770... :asd: Vedo che è già una scheda mid-range anche oltre i 200 €... la fascia più bassa cosa propone?

GeeGeeOH
02-05-22, 20:26
:asd: Beata ignoranza.
Con la pandemia i prezzi sono e s p l o s i .
La RX 6400 è la scheda di fascia più bassa che ci sia.

Una fascia media oramai son 4-500€, non 200€.

A spanne, per AMD, le cose dovrebbero essere circa così:
RX 6400 - 170€
RX 6500XT - 200€
RX 6600 - 350€
RX 6600XT - 450€
RX 6700XT - 650€
RX 6800 - 900k €
RX 6800XT - 1000€
RX 6900XT - 1100€

L'analoga alla tua 5770, cioè medio alta, una Rx 6700XT non penso la trovi a meno di 600€.
[Più di quanto ho speso per la Rx 6800, presa al lancio con tanto culo direttamente dal sito AMD senza rincari a 580€]
Fai conto che per giocare non andrei sotto la Rx 6600.
Sotto, se hai fortuna, c'è l'usato.

NVidia è pure peggio.


Ed i prezzi si son abbassati ultimamente eh!

gmork
02-05-22, 21:44
ma la serie 4000 quando la cacciano?

GeeGeeOH
03-05-22, 07:18
GeForce 900, metà settembre 2014.
GeForce 1000, fine maggio 2016.
GeForce 2000, metà settembre 2018.
GeForce 3000, metà settembre 2020.

GeForce 4000, settembre 2022 ?



Rx 400, fine giugno 2016
Rx Vega, metà agosto 2017
Rx 5000, primi di luglio 2019.
Rx 6000, metà novembre 2020.

Rx 7000, fine 2022 ?

Darkless
03-05-22, 09:16
ma la serie 4000 quando la cacciano?

Si presume a settembre. Poi ci sarà da ridere coi prezzi.
A stò giro però accadrà una cosa curiosa: resteranno sul mercato ancora anche con la serie 3000. Idealmente quest'ultima dovrebbe calare ulteriormente e la serie 4000 costare come le 3000 adesso ma qualcosa mi dice che i prezzi delle 3000 si stabilizzeranno e le 4000 daranno nuova spinta al mercato illegale degli organi.

gmork
03-05-22, 09:20
speravo prima, cmq le 3000 imho scenderanno per forza di cose e tanti si rifugeranno lì. con una 3060 si è cmq a posto per anni e anni se non si vuole il 4k

WhiteMason
03-05-22, 10:28
:asd: Beata ignoranza.
Con la pandemia i prezzi sono e s p l o s i .
La RX 6400 è la scheda di fascia più bassa che ci sia.

Una fascia media oramai son 4-500€, non 200€.

A spanne, per AMD, le cose dovrebbero essere circa così:
RX 6400 - 170€
RX 6500XT - 200€
RX 6600 - 350€
RX 6600XT - 450€
RX 6700XT - 650€
RX 6800 - 900k €
RX 6800XT - 1000€
RX 6900XT - 1100€

L'analoga alla tua 5770, cioè medio alta, una Rx 6700XT non penso la trovi a meno di 600€.
[Più di quanto ho speso per la Rx 6800, presa al lancio con tanto culo direttamente dal sito AMD senza rincari a 580€]
Fai conto che per giocare non andrei sotto la Rx 6600.
Sotto, se hai fortuna, c'è l'usato.

NVidia è pure peggio.


Ed i prezzi si son abbassati ultimamente eh!
:bua: Sapevo dell'aumento dei prezzi, ma non pensavo interessasse così tanto anche la fascia bassa... :bua:

Ancora più in basso comunque: non c'è nulla in vendita che abbia le stesse prestazioni della vecchia 5770...? :asd:

Non saprei, tipo la fascia bassa della generazione precedente...?

Inviato dal mio KIW-L21 utilizzando Tapatalk

GeeGeeOH
03-05-22, 11:25
Non saprei, tipo la faacia bassa della generazione precedente...?Ripeto:

Sotto, se hai fortuna, c'è l'usato.Auguri.

soldier
03-05-22, 13:10
Vista l' epopea che ho dovuto fare per prendere la rtx 3070 più o meno un annetto fa,quanto mi durerà ancora in 2k? Il resto è un ryzen 7 3800x e 32 gb di ram

Inviato dal mio ASUS_Z01GS utilizzando Tapatalk

GeeGeeOH
03-05-22, 13:17
Dipende dai giochi e dai settaggi/pretese.
4k, RT e 120fps? Probabilmente è già da buttare :asd:

Ma realisticamente uno può usarla fino alle prossime console...

Più che la scheda video terrei d'occhio i prezzi dei 5800X, se c'è un BIOS per la MoBo, potrebbe estendere la vita di quel PC di un paio d'anni senza toccare altro.

soldier
03-05-22, 13:26
Dipende dai giochi e dai settaggi/pretese.
4k, RT e 120fps? Probabilmente è già da buttare :asd:

Ma realisticamente uno può usarla fino alle prossime console...

Più che la scheda video terrei d'occhio i prezzi dei 5800X, se c'è un BIOS per la MoBo, potrebbe estendere la vita di quel PC di un paio d'anni senza toccare altro.Ho un monitor 2k a 60hz quindi del 4k non mi interessa [emoji23][emoji23] ..per il momento non sto avendo problemi,anche cyberpunk in 2k tutto al massimo con ray tracing quasi al massimo e dlss su bilanciato mi girava tra 50 e 60 fps a seconda delle zone.grazie per il consiglio sulle Cpu,la mia MoBo dovrebbe supportarla,più in là ci potrei fare un pensierino

Inviato dal mio ASUS_Z01GS utilizzando Tapatalk

WhiteMason
03-05-22, 16:20
Ripeto:
Auguri.
Asd, come si chiama la serie precedente, o quella precedente ancora? :bua:

Inviato dal mio KIW-L21 utilizzando Tapatalk

GeeGeeOH
03-05-22, 17:11
Asd, come si chiama la serie precedente, o quella precedente ancora? :bua:

Inviato dal mio KIW-L21 utilizzando TapatalkYou are not paying attention:

GeForce 900, metà settembre 2014.
GeForce 1000, fine maggio 2016.
GeForce 2000, metà settembre 2018.
GeForce 3000, metà settembre 2020.

GeForce 4000, settembre 2022 ?



Rx 400, fine giugno 2016
Rx Vega, metà agosto 2017
Rx 5000, primi di luglio 2019.
Rx 6000, metà novembre 2020.

Rx 7000, fine 2022 ?

Darkless
03-05-22, 19:12
speravo prima, cmq le 3000 imho scenderanno per forza di cose e tanti si rifugeranno lì. con una 3060 si è cmq a posto per anni e anni se non si vuole il 4k

Dalla cina ci sono ancora forti venti di crisi produttiva. Non mi aspetto calino ancora più di tanto.

WhiteMason
04-05-22, 09:42
You are not paying attention:
Ah, sì, asd, da mobile mi era sfuggito l'elenco, top Gee :sisi:

Inviato dal mio KIW-L21 utilizzando Tapatalk

Weltall
08-05-22, 16:48
domanda niubba, ma l'audio che esce dalle casse del monitor che è collegato via display port viene dalla scheda audio integrata nella mobo e passa alla geforce infine al monitor? O è la scheda video che si gestisce il tutto? Noto infatti che quando passo dalle cuffie al monitor anziché usare realtek, usa nvidia high definition audio, con i suoi drivers a parte.

GeeGeeOH
08-05-22, 16:49
Penso proprio dalla scheda video.
Basta guardare il nome del device li del controllo volume.

Weltall
08-05-22, 16:51
ah perfetto grazie

GeeGeeOH
10-05-22, 14:55
AMD Releases Radeon RX 6950 XT, 6750 XT, and 6650 XT: A Bit More Speed For Spring (https://www.anandtech.com/show/17381/amd-releases-radeon-rx-6950-xt-6750-xt-and-6650-xt)

Intel: Desktop Arc A-Series Launch Now Staggers in to Q3'22 (https://www.anandtech.com/show/17383/intel-desktop-arc-a-series-launch-now-staggers-in-to-q322)
Intel sta sprecando il miglior momento nella storia per lanciare le sue GPU...

Darkless
10-05-22, 15:50
Intel: Desktop Arc A-Series Launch Now Staggers in to Q3'22 (https://www.anandtech.com/show/17383/intel-desktop-arc-a-series-launch-now-staggers-in-to-q322)
Intel sta sprecando il miglior momento nella storia per lanciare le sue GPU...

Si e no. Intel dovrebbe presentare un bel po' di modelli per la fascia medio-bassa, per ora sembra punti più su quella quindi alla fine non è nemmeno in diretta concorrenza con AMD e Nvidia che continuano a sparare altissimo con potenza bruta e soprattutto prezzi. A stò punto un po' di ritardo gli cambia poco vista l'oscenità delle proposte altrui nella fascia bassa.

GeeGeeOH
23-05-22, 07:41
AMD Ryzen 7000 Announced: 16 Cores of Zen 4, Plus PCIe 5 and DDR5 for Socket AM5, Coming This Fall (https://www.anandtech.com/show/17399/amd-ryzen-7000-announced-zen4-pcie5-ddr5-am5-coming-fall)

https://images.anandtech.com/doci/17399/AMD%20Computex%202022%20Slide%20Deck%206_575px.JPG

https://images.anandtech.com/doci/17399/AMD%20Computex%202022%20Slide%20Deck%207_575px.JPG

Di base saranno APU con RDNA2 in quanto la GPU è integrata nel I/O die a 6nm.
Poi sicuramente, come fa Intel, ci saranno modelli dove è disattivata.

https://images.anandtech.com/doci/17399/AMD%20Computex%202022%20Slide%20Deck%209_575px.JPG

https://images.anandtech.com/doci/17399/AMD%20Computex%202022%20Slide%20Deck%2010_575px.JP G

gmork
23-05-22, 09:58
sembrano buone, resta de vedere se il confronto con la serie 4000 di nvidia le premierà o sarà impietoso, soprattutto lato ray tracing.

Darkless
23-05-22, 10:04
Non ricordo se i nuovi Ryzen Desktop avranno tutti la chace 3D "d'ufficio" o se resterà confinata in CPU ad hoc

GeeGeeOH
23-05-22, 11:06
Non ricordo se i nuovi Ryzen Desktop avranno tutti la chace 3D "d'ufficio" o se resterà confinata in CPU ad hocHanno parlato solo di cache L2, nulla di L3 ed oltre.
Quasi sicuramente sarà solo per versioni ad hoc.

- - - Aggiornato - - -


sembrano buone, resta de vedere se il confronto con la serie 4000 di nvidia le premierà o sarà impietoso, soprattutto lato ray tracing.E' grafica integrata che assieme alla CPU consuma una frazione di quello che ciucciano le GPU dedicate, due campionati differenti.

gmork
23-05-22, 11:29
ops mea culpa. sarà che ormai sono fissato con le schede video che devono uscire e vedo solo quelle pure dove non ci stanno :bua:

GeeGeeOH
10-06-22, 07:19
AMD RDNA 3/Navi 3X GPU Update: 50% Better Perf-Per-Watt, Using Chiplets For First Time (https://www.anandtech.com/show/17444/amd-rdnanavi-3x-update-50-better-perfperwatt-using-chiplets-for-first-time)
AMD’s 2022-2024 Client GPU Roadmap: RDNA 3 This Year, RDNA 4 Lands in 2024 (https://www.anandtech.com/show/17443/amds-client-gpu-roadmap-rdna-3-this-year-rdna-4-lands-in-2024)

RDNA3 quest'anno (poi magari effettivamente sugli scaffali il prossimo).
Salto d'efficienza simile a RDNA > RDNA2
Chiplets!!!

Weltall
10-06-22, 07:26
se al Perf-Per-Watt aggiungeranno Non-Cost-Com-Una-Casa , allora forse forse cambio marchio e ritorno a radeon dopo 20 anni senza comprarne una.

Darkless
10-06-22, 11:36
se al Perf-Per-Watt aggiungeranno Non-Cost-Com-Una-Casa

Questa è bella :asd:
Ma temo che fino a fine 2023 non avremo prezzi umani. In cina tira ancora una brutta aria a quanto pare.

Se non altro i prezzi dell'usato son calati parecchio e se disgraziatamente succedesse qualcosa alla 660 sotto i 200 euro si trova parecchia roba oramai.

albero
11-06-22, 08:10
Ragazzi ho preso una 3080. Oggi mi dovrebbe arrivare. Dal giorno che l'ho comprata mi cago addosso dall'emozione. Al momento ho una 1060 e passerò a un 1440p 21:9.

GeeGeeOH
11-06-22, 08:11
Un rene?

albero
12-06-22, 07:44
Si . 860€

Reeko
12-06-22, 08:40
È il suo prezzo

Inviato dal mio M2101K9G utilizzando Tapatalk

Necronomicon
13-06-22, 09:57
C'è ancora da star dietro ai bot per cambiare scheda o si riescono a comprare liberamente nei vari negozi dedicati?

Darkless
13-06-22, 10:03
C'è ancora da star dietro ai bot per cambiare scheda o si riescono a comprare liberamente nei vari negozi dedicati?

Si trovano abbastanza facilmente ora. Il problema è beccare l'offerta vicina all'msrp. Per quello devi star dietro a gruppi telegram etc.

Necronomicon
13-06-22, 12:54
E' che prima della pandemia pensavo di tirar avanti con una scheda da poco ma ormai è ora di rifare tutto il pc :asd:
C'è qualcuno di affidabile nel mercato "pre-assemblato" che mi lasci scegliere roba di qualità o è meglio ordinare pezzo per pezzo?

Zhuge
13-06-22, 13:59
io ho appena ordinato da pc specialist, quello di Avalon dopo due anni non s'è più fatto sentire

Reeko
13-06-22, 14:33
io ho appena ordinato da pc specialist, quello di Avalon dopo due anni non s'è più fatto sentireCredo abbia chiuso

Inviato dal mio M2101K9G utilizzando Tapatalk

Darkless
13-06-22, 14:48
E' che prima della pandemia pensavo di tirar avanti con una scheda da poco ma ormai è ora di rifare tutto il pc :asd:
C'è qualcuno di affidabile nel mercato "pre-assemblato" che mi lasci scegliere roba di qualità o è meglio ordinare pezzo per pezzo?

Avevo linkato un po' di negozi qualche tempo fa, non ricordo in che thread.

gmork
13-06-22, 15:00
io ho messo nei preferiti, in attesa di tempi migliori, 'sti qua

https://www.pcspecialist.it/pc-personalizzato/
https://nzxt.com/it-DE/category/gaming-pcs/build

ma mi sa che a meno di differenze eclatanti nei prezzi andrò in un negozio fisico, che se ci sono problemi all'arrivo almeno si risolve facile

Darkless
13-06-22, 16:32
Andando a memoria: AFK Store, Drako, PC Hunter, Trippodo, AK Informatica e pcspecialist

Necronomicon
13-06-22, 21:35
io ho messo nei preferiti, in attesa di tempi migliori, 'sti qua

https://www.pcspecialist.it/pc-personalizzato/
https://nzxt.com/it-DE/category/gaming-pcs/build

ma mi sa che a meno di differenze eclatanti nei prezzi andrò in un negozio fisico, che se ci sono problemi all'arrivo almeno si risolve facile

In pc specialist ti dicono se fai cazzate nel selezionare le robe? Perché insomma, uno può spendere 2500 euro di computer e comunque metterci solo 4 gb di ram, sarà mica normale il loro menù :asd:

Darkless
13-06-22, 21:41
In pc specialist ti dicono se fai cazzate nel selezionare le robe? Perché insomma, uno può spendere 2500 euro di computer e comunque metterci solo 4 gb di ram, sarà mica normale il loro menù :asd:

Bhè tecnicamente il PC funziona, non è un prolema loro :asd:

Zhuge
13-06-22, 22:34
In pc specialist ti dicono se fai cazzate nel selezionare le robe? Perché insomma, uno può spendere 2500 euro di computer e comunque metterci solo 4 gb di ram, sarà mica normale il loro menù :asd:

Posta la specifica sul forum del sito e ti aiutano. Io ho fatto così.

benvelor
14-06-22, 07:31
Andando a memoria: AFK Store, Drako, PC Hunter, Trippodo, AK Informatica e pcspecialist

drako e ak sono rapinatori con partita iva :bua:

io compro su bpm-power, ma non credo abbiano pre assemblati

Weltall
14-06-22, 08:08
in che senso rapinatori? Io stavo meditando sul prenderci due cose prima o poi...

Darkless
14-06-22, 08:41
drako e ak sono rapinatori con partita iva :bua:


Bhè tieni anche conto che:

1- Amazon fa storia a sè coi prezzi

2- Quelli con prezzi particolarmente bassi è facile seguano la via del defunto e-key

benvelor
14-06-22, 09:01
in che senso rapinatori? Io stavo meditando sul prenderci due cose prima o poi...

sono carissimi...

da bpm-power compro da anni, mai avuto problemi
ma in genere, mi capita di prendere roba da più siti, quando devo fare un pc nuovo
sempre ovviamente calcolando la convenienza del risparmio con le spese di spedizione

però su bpm di solito trovo tutto

Necronomicon
14-06-22, 09:56
Sarei perfettamente in grado di assemblare un pc, ma non avendolo mai fatto ho qualche dubbio sulla pasta termica e le ventole necessarie, insomma, troppa ricerca da fare :asd:

squallwii
14-06-22, 09:59
drako e ak sono rapinatori con partita iva :bua:

io compro su bpm-power, ma non credo abbiano pre assemblatiMa infatti. Stanno mediamente 300€ in più rispetto agli altri...paiono i prezzi delle schede video di 18 mesi fa

Inviato dal mio moto g200 5G utilizzando Tapatalk

Zhuge
14-06-22, 10:07
Sarei perfettamente in grado di assemblare un pc, ma non avendolo mai fatto ho qualche dubbio sulla pasta termica e le ventole necessarie, insomma, troppa ricerca da fare :asd:

Stesso mio problema, per questo pago e bon. :asd:

benvelor
14-06-22, 11:05
Sarei perfettamente in grado di assemblare un pc, ma non avendolo mai fatto ho qualche dubbio sulla pasta termica e le ventole necessarie, insomma, troppa ricerca da fare :asd:

se prendi un dissipatore after stock (e dovresti farlo :snob:) la pasta termica è compresa: vai su un noctua e non sbagli
per le ventole non capisco il problema, se ti vanno bene quelle fornite col case, basta attaccare i connettori alla scheda madre (o all'aggeggio che controlla le ventole e che non mi ricordo mai come si chiama :asd:)
cmq ci vuole tempo, capisco chi non ha voglia di farlo per conto proprio, l'importante, per me, è avere la possibilità di scegliere ogni singolo componente (pure le ventole del case, sono cultore del silenzio assoluto)
quindi, prendo "i pezzi" e me li monto
difficilmente cambio tutto il pc in un botto solo

Weltall
14-06-22, 12:24
una volta facevo anch'io così, i pc subivano tanti di quei cambiamenti da arrivare al punto che nel case non ci entrava questo, l'alimentatore non era potente per quello, una fatica che non rimpiango...
Mi sono reso conto che i vari componenti sentono il peso dell'età più o meno tutti insieme, se li compri tutti ben "allineati".
Negli ultimi due pc infatti non ho fatto grandi upgrade, nel penultimo solo scheda video e ram.
E nell'ultimo ho solo aggiunto due banchi di ram, e credo che me lo terrò così fino al compimento del suo 10° compleanno e se non c'è grano in abbondanza anche oltre.

GeeGeeOH
14-06-22, 12:31
Di base le schede video gaming marciano un ritmo ben diverso del resto del PC...
HDD ed SSD possono vivere per almeno un paio di cicli di CPU+MoBo+RAM, se non più.
Alimentatori idem, uno da 520W classe 2012 ha appena trovato un nuovo PC da alimentare, per quanto non più un PC serio da gaming.
Il case del PC di mio fratello credo sia al quinto upgrade "totale"... le porte USB2 sul frontale, sostituite da USB 3 e C nel primo slot 5.25".

Weltall
14-06-22, 13:49
questa di cambiare le porte è interessante, quando ho visto lasciare case in perfette condizioni estetiche mi ha fatto un po' tristezza... Ci devo provare prima o poi!

GeeGeeOH
14-06-22, 13:56
La rogna è che costano, val la pena solo se hai un case "premium" che ancora merita...

- - - Aggiornato - - -

AMD Plans Late-October or Early-November Debut of RDNA3 with Radeon RX 7000 Series (https://www.techpowerup.com/295833/amd-plans-late-october-or-early-november-debut-of-rdna3-with-radeon-rx-7000-series)

Weltall
14-06-22, 14:03
azz, come certi ricambi per le auto hehe... Aspettiamo il prossimo giro, usb5 ,pci 6 e nel frattempo gen 20...

Don Zauker
19-06-22, 18:51
Spiegatemi questo: nVidia 1080 Ti, da qualche giorno vedo righe verdi orizzontali e sotto
3DMark spesso il monitor si spegne.
Cambio da HDMI a DisplayPort e i problemi spariscono.
Già provato a cambiare cavo hdmi e usata altra sorgente per testare il monitor (nessun problema).
Sk video che sta salutando ?

Mr Yod
19-06-22, 19:33
Spiegatemi questo: nVidia 1080 Ti, da qualche giorno vedo righe verdi orizzontali e sotto
3DMark spesso il monitor si spegne.
Cambio da HDMI a DisplayPort e i problemi spariscono.
Già provato a cambiare cavo hdmi e usata altra sorgente per testare il monitor (nessun problema).
Sk video che sta salutando ?
Controlla che le ventole girino: potrebbe essere un surriscaldamento della RAM o della GPU. :uhm:

Don Zauker
19-06-22, 19:55
Controlla che le ventole girino: potrebbe essere un surriscaldamento della RAM o della GPU. :uhm:

Controllato tutto, pulito tutto da polvere e roba varia, le ventole girano regolarmente, ho anche provato con ventole settate in manuale al 100%.
Dal pannello di gestione vedo temperature in linea con gli standard.
Non capisco perché solo l’hdmi sembra soffrire di questo problema.

GeeGeeOH
19-06-22, 20:57
Sarà il controller HDMI ad aver problemi...

Vai di cavo DP ed amen.

Don Zauker
19-06-22, 20:59
Sarà il controller HDMI ad aver problemi...

Vai di cavo DP ed amen.

Speriamo si limiti a quello. Novoja di comprare una nuova sk video ora.

GeeGeeOH
19-06-22, 21:03
Comunque... DP è solitamente preferibile ad HDMI...

Mr Yod
20-06-22, 13:13
Vai di cavo DP ed amen.
Che è pure meglio. :sisi:

EDIT:

Comunque... DP è solitamente preferibile ad HDMI...Ecco, infatti. :sisi:

GeeGeeOH
22-06-22, 08:10
Collapse of crypto mining industry leads to auctioning off of thousands of graphics cards (https://www.guru3d.com/news-story/collapse-of-crypto-mining-industry-leads-to-auctioning-off-of-thousands-of-graphics-cards.html)

alezago88
22-06-22, 08:41
Gli devono rimanere tutte sul groppone [emoji4]

Inviato dal mio RMX3363 utilizzando Tapatalk

benvelor
22-06-22, 09:27
i prezzi si stanno avvicinando al prezzo di vendita al lancio... di 2 anni fa...

in ogni modo, se uno vdeve cambiare, almeno non si svena
esattamente un anno fa pagai la 6700xt 700€...

poi in autunno la nuova gen (almeno di fascia alta), potrebbe far calare ancora i prezzi: che diciamocelo, con la su citata scheda, gioco a 1440p a 90/100 fps, dipende dai giochi, ma mai sotto gli 80fps a dettagli massimi
onestamente, di una scheda più potente (visto anche che all'orizzonte nuove tecnologie innovative non ce ne sono e si tratterà di maggior forza bruta), coi giochi di oggi non me ne farei di una ceppa di nulla
poi se per contratto iniziano a fare i giochi poco ottimizzati e che gireranno ad cazzum, non lo so :bua:

invece della putenza, dovrebbero ottimizzare il rapporto forza/consumi, ma mi sembra che si vada a peggiorare di brutto

GeeGeeOH
22-06-22, 09:31
Le indiscrezioni sulle nuove generazioni puntano a più potenza ma con più consumi, quindi marginali se non nulli miglioramenti dell'efficienza.

Weltall
22-06-22, 09:34
Il problema resta ancora nella fascia bassa, che deve necessariamente scendere sotto i 250 euro. Mi riferisco alla 3050 che costa ancora troppo.

E comprati una 3060? Di recente ho visto altri video che mostrano vecchi pc con 3060 e 3070, nei giochi recenti ci sono colli di bottiglia paurosi...

GeeGeeOH
22-06-22, 09:56
https://www.youtube.com/watch?v=wnRyyCsuHFQ

benvelor
22-06-22, 10:11
Le indiscrezioni sulle nuove generazioni puntano a più potenza ma con più consumi, quindi marginali se non nulli miglioramenti dell'efficienza.

appunto
tra l'altro, potenza, per me, al momento inutile: se a dettagli massimi vado a 100fps, prima di arrivare a non poter sostenere i 60fps a dettagli alti, direi che ho tempo per la generazione del 2024
che poi, prima di passare alla 590, la 970 mi faceva sui 50fps coi giochi recenti a 1080 e me li son goduti lo stesso :caffe:

Darkless
22-06-22, 10:19
Le indiscrezioni sulle nuove generazioni puntano a più potenza ma con più consumi, quindi marginali se non nulli miglioramenti dell'efficienza.

Per Nvidia sicuramente, si parla di consumi mostruosi. Per RDNA 3 nelle solite slide AMD aveva sottolineato anche quanto han lavorato sull'efficenza. Staremo a vedere


Il problema resta ancora nella fascia bassa, che deve necessariamente scendere sotto i 250 euro. Mi riferisco alla 3050 che costa ancora troppo.


Solito discorso: dipende cosa intendi per fascia bassa. Oramai le cose stanno cambiando, e parecchio. Presumibilmente le prossime 4060 (per non parlare del modello Ti che faran sicuramente) saranno schede in grado di gestire il 2K, o WQHD che dir si voglia, avrà senso considerarle ancora fascia media o oramai mettiamo pure quelle in fascia alta ? E le 4050, se le faranno, come andranno ? Oramai variando risoluzioni ed utilizzando DLSS, FFX, Ray Tracing, etc. le prestazioni variano notevolmente. La classificazione non è più lineare come prima. Avrebbe più senso parlare di fascia "economica" ma alla fine con la crisi ed i rincari pure i prezzi son sballati. Sta diventando un caos.

- - - Aggiornato - - -


appunto
tra l'altro, potenza, per me, al momento inutile: se a dettagli massimi vado a 100fps, prima di arrivare a non poter sostenere i 60fps a dettagli alti, direi che ho tempo per la generazione del 2024
che poi, prima di passare alla 590, la 970 mi faceva sui 50fps coi giochi recenti a 1080 e me li son goduti lo stesso :caffe:

Perchè tu ragioni sui 60 fps. Oramai in molti sono passati a frame maggiori, 90, 120.... Conosco gente che dice di non riuscire più a giocare sotto i 90 fps, sente il gioco meno fluido.

benvelor
22-06-22, 10:56
può essere, ma per adesso ragiono sui 100 di media di AC Valhalla (secondo il contatore di amd) e ai 120 di mafia definitive edition :asd:

sono lontano dai 60 (limite mio), per questo dicevo, o mi tirano fuori qualcosa di irrinuciabile, o questa generazione la salterò (come ho saltato la 1xxx e con la 2xxx sono passato ad amd e la rx590)

GeeGeeOH
22-06-22, 12:08
Se si vuol spingere veramente il RT la potenza necessaria è almeno ancora un ordine di grandezza in la...

Necronomicon
22-06-22, 12:32
Francamente a me va bene giocare ancora sullo schermo FullHD, a quella risoluzione oltre una certa tipologia di schede son soldi buttati

Darkless
22-06-22, 12:35
Se si vuol spingere veramente il RT la potenza necessaria è almeno ancora un ordine di grandezza in la...

Si ma se continuano a spingere in tal senso senza badare ai consumi per le 5000 pasas direttamente l'Enel a farti un allacciamento a parte per il PC.

- - - Aggiornato - - -


Francamente a me va bene giocare ancora sullo schermo FullHD, a quella risoluzione oltre una certa tipologia di schede son soldi buttati

Anche il FullHD se cominci a piazzarci il RT ha il suo peso.