Visualizza Versione Completa : Il Circolino di Schede Video
Non succede nulla a quelle temperature, sono fatti per non avere problemi fino a circa 10° in più a seconda della CPU (amd e intel e ogni specifica generazione).
Al limite c'è un leggero downvolt, mobo permettendo (che cmq veramente, vivi sereno e goditi il PC come fosse una console, finchè non noti veri problemi)
mi preoccupavano i picchi a 90 (piu che altro mi sembrano strani per il lavoro in quel momento della cpu, ma potrebbe anche essere il gioco ottimizzato a cavolo)
comunque grazie a tutti per le info e la disponibilita'
https://ark.intel.com/content/www/us/en/ark/products/126684/intel-core-i78700k-processor-12m-cache-up-to-4-70-ghz.html
TJUNCTION: 100°C
Junction Temperature is the maximum temperature allowed at the processor die.
Det. Bullock
10-03-22, 18:15
Mi sono deciso a ordinare un dissipatore Noctua NH-U9s per il PC dell'attività così tolgo quello stock Intel.
Montarlo sarà un po' una rottura (e farò tutti i backup possibili prima di aprire il PC chenonsisamai) ma almeno avrò qualcosa che si può pulire più facilmente e terrà le temperature un po' più basse durante i mesi estivi.
mi preoccupavano i picchi a 90 (piu che altro mi sembrano strani per il lavoro in quel momento della cpu, ma potrebbe anche essere il gioco ottimizzato a cavolo)
comunque grazie a tutti per le info e la disponibilita'
Ma che dissipatore usi?
Mi sono deciso a ordinare un dissipatore Noctua NH-U9s per il PC dell'attività così tolgo quello stock Intel.
Montarlo sarà un po' una rottura (e farò tutti i backup possibili prima di aprire il PC chenonsisamai) ma almeno avrò qualcosa che si può pulire più facilmente e terrà le temperature un po' più basse durante i mesi estivi.
Ma che dissipatore usi?
un arctic freezer 33
Det. Bullock
11-03-22, 02:59
un arctic freezer 33
È molto buono.
Quante ventole hai nel case e come sono orientate?
L'arctic freezer che hai ha una o due ventole (ho visto che ci sono diverse varianti su google)?
L'idea di base è che il flusso d'aria vada da davanti a dietro, quindi con due ventole davanti sul case che immettono aria e una o due dietro, possibilmente con il dissipatore e le sue ventole orientate per asecondarlo.
e' la versione con una ventola. Poi ho una ventola da 120 in alto in fondo che butta fuori ed una da 120 in basso davanti al case che butta aria dentro.
Il case e' un CM N300. RIbadisco, non sono i 75 gradi che mi preoccupano, sono piu' i picchi a 80/83 che ogni tanto saltano fuori. La cpu viaggia a 4.6, ma mi piacerebbe provare a tirarla a 5.
Mi sa che devi provare a ridurre il voltaggio.
Mi sa che devi provare a ridurre il voltaggio.
ma se riduco il voltaggio, non riduco anche la frequenza ?
ma se riduco il voltaggio, non riduco anche la frequenza ?
Dipende. Devi provare a scalare di 0,1 volt alla volta e fare dei test per vedere se il sistema tiene. Se regge abbassi ancora e così via finchè non trovi il voltaggio ottimale per la frequenza. Con l'overclock di solito si procede così.
ma se riduco il voltaggio, non riduco anche la frequenza ?
No, rischi di ridurre la stabilità.
Di fabbrica abbondano con il voltaggio per assicurare la stabilità, a scapito di consumi e calore.
AMD's Ryzen 7 5800X3D Launches April 20th, Plus 6 New Low & Mid-Range Ryzen Chips (https://www.anandtech.com/show/17313/ryzen-7-5800x3d-launches-april-20th-plus-6-new-low-mid-range-ryzen-chips)
Det. Bullock
16-03-22, 16:25
Ho finalmente installato un Noctua NH-U9S sul PC dell'ufficio per liberarmi di quel coso Intel, diciamo che è stata un po' un'avventura. :asd:
Hanno contribuito la mia naturale sbadataggine (unita a un leggero stordimento dovuto a una recente infezione allo stomaco) e il case che è un mid-tower vecchio senza l'accesso dietro la CPU cosa che aggiunge un bel grattacapo visto che Intel che obbliga a installare una backplate se si vuole qualcosa che non usi quegli odiosi gancetti di plastica.
Al riassemblaggio la scheda video non faceva più contatto a dovere e l'ho dovuta togliere e rimettere due volte perché l'immagine venisse a schermo, praticamente un film dell'orrore. :asd:
Dipende. Devi provare a scalare di 0,1 volt alla volta e fare dei test per vedere se il sistema tiene. Se regge abbassi ancora e così via finchè non trovi il voltaggio ottimale per la frequenza. Con l'overclock di solito si procede così.
scusate, mi sono perso nei settaggi del bios (e sono anche imbranato), non e' che mi potete spiegare i passi da fare, nel caso apro un altro tread per non sporcare troppo questo, o indicarmi una guida scritta bene per nubbi?
Chiedo agli esperti, questa roba del directstorage a cui microsoft sta lavorando vi pare interessante dal punto di vista gaming? Ci darà più potenza nei giochi a parità di costi e consumi? Che hardware ci vuole?
Non ti da "più potenza" velocizza solo i caricamenti.
Indirettamente può liberare la CPU, ma questo non è praticamente mai un limite...
In teoria permetterà di aver texture di qualità di molto (ma molto) superiore a quanto possibile fino ad ora.
Al top probabilmente sarà necessario avere un SSD NVMe al pari di quelli delle ultime console (~5GB/s), ma su PC sicuramente ci saranno più livelli.
AMD Releases Adrenalin Software Spring 2022 Update: Adds RSR Upscaling and More (https://www.anandtech.com/show/17318/amd-releases-adrenalin-software-spring-2022-update-adds-rsr-and-more)
AMD Teases FSR 2.0: Temporal Upscaling Tech for Games Coming in Q2 (https://www.anandtech.com/show/17317/amd-teases-fsr-20-temporal-upscaling-tech-for-games-coming-in-q2)
Quindi in pratica roba già in commercio, c'è solo da aspettare che si muova la parte sw.
una domanda, ma la 3050 che ha preso tutte queste pessime recensioni, sarebbe un pessimo acquisto per l'upgrade da una 960 2gb ?
In realtÃ* ero interessato alla 3060 ma continuo a leggere che vuole ali da 650 W e il mio è da 550, e poi anche considerando che il pc non recentissimo, non so se ha senso metterci roba potente. Ho solo un paio di giochi che girerebbero meglio con un upgrade tutto qua.
Mah a sto punto ti direi di attendere e rifarti tutto il Pc come Cristo comanda. Se proprio vuoi fare un piccolo upgrade ora con meno di 200 euro una 970 usata la recuperi (se ti basta per quel paio di giochi).
Cmq non devi guardare solo i Wattaggi in un alimentatore.
550W di un alimentatore serio bastano ed avanzano.
La 3060 non arriva a consumare 200W.
I prezzi stanno calando ma forse conviene aspettare ancora un attimo.
quando i watt "avanzano" mi sento più tranquillo :)
Spetta.
Ci son alimentatori di merda che... lasciamo stare.
Fai prima a dire il modello che hai.
ah ho un xfx 80pb
questo : https://www.newegg.com/xfx-ts-series-p1550sxxb9-550w/p/N82E16817207013?AID=5555555
quando i watt "avanzano" mi sento più tranquillo :)
Puoi avere anche un alimentatore da 1000 Watt ma se è una cinesata ti esplode con una 960 mentre un buona limentatore da 500W ti tiene su una 3060. Il discorso sarebbe lungo. L'alimentatore è quella componente che molti sottovalutano, o guardano solo il wattaggio, che in realtà è la più importante per il PC.
I prezzi stanno calando ma forse conviene aspettare ancora un attimo.
Non guardo da un po' ma le 3050 avevano raggiunto i 400 euro e passa a un mese dal lancio. Pura follia. A quei prezzi è da evitare assolutamente.
infatti, solo sui 200 euro ha senso. Ma ho i miei dubbi che scenda fino a li.
ah ho un xfx 80pb
questo : https://www.newegg.com/xfx-ts-series-p1550sxxb9-550w/p/N82E16817207013?AID=5555555
Discreto.
ora che i prezzi stanno scendendo il "aspetta che scendano un altro po'" é il nuovo "aspetta che esca la serie 3xxx" del 2000 :asd:
é vero, dice che scenderanno di piú i prezzi. Ma la realtá é che la storia recente ci ha dimostrato che non si sa cosa possa accadere. Se trovi qualcosa a un prezzo che ti sembra fattibile boh... io forse non aspetterei piú di tanto. Magari tra 2 mesi spendi il 10% meno. O forse costerá il 20% di piú
ora che i prezzi stanno scendendo il "aspetta che scendano un altro po'" é il nuovo "aspetta che esca la serie 3xxx" del 2000 :asd:
é vero, dice che scenderanno di piú i prezzi. Ma la realtá é che la storia recente ci ha dimostrato che non si sa cosa possa accadere. Se trovi qualcosa a un prezzo che ti sembra fattibile boh... io forse non aspetterei piú di tanto. Magari tra 2 mesi spendi il 10% meno. O forse costerá il 20% di piú
Una 3050 sopra i 300 euro, ma anche a 300, è da evitare come la peste. A prescindere. Meglio una GPU usata.
Cosa possa accadere cmq si sa: uscirà a breve la serie 4000 di Nvidia ed i prezzi delle 3000 continueranno a calare fino a quel momento. Non arriveranno mai all' msrp ma il trend del calo è una costante da mesi.
Io sto valutando se prendere una 3060 a 700 euro o aspettare ancora, devo anche vedere bene se con la tripla ventola entra nel case o è troppo grande.
https://www.amazon.it/dp/B09664S1F6/?coliid=I1SJ6QUTCN12E9&colid=2RB0IXEMF2VXB&psc=1&ref_=lv_ov_lig_dp_it
consigliato un 750W :bua:
consigliato un 750W :bua:
Ce l'ho
https://www.amazon.it/gp/product/B07S4TKB4S/ref=ppx_yo_dt_b_asin_title_o02_s00?ie=UTF8&psc=1
Che verrà usato al 50-60%...
750W son utili per un i9 ed una 3090.
consigliato un 750W :bua:
https://www.emugifs.net/wp-content/uploads/2021/01/Ingenier-Cane-Mille-GIF-Fabio-De-Luigi-in-TV-a-Mai-Dire-Gol-con-la-Gialappa-s-Band.gif
Io ho un gold 750w con un 3900xt e 3090, tutt'apposto :sisi:
Una 3050 sopra i 300 euro, ma anche a 300, è da evitare come la peste. A prescindere. Meglio una GPU usata.
Cosa possa accadere cmq si sa: uscirà a breve la serie 4000 di Nvidia ed i prezzi delle 3000 continueranno a calare fino a quel momento. Non arriveranno mai all' msrp ma il trend del calo è una costante da mesi.
sono d'accordo, ma torno a dire, 2 anni fa é successa esattamente la stessa cosa, e dopo poco che sono uscite le serie 3xxx, le usate costavano piú di quanto dovevano costare le nuove in teoria :asd:
Per sapere se la misura della scheda video e del case è ok può bastare guardare le specifiche tecniche del case, della scheda madre e della scheda video o è meglio aprire?
Se le specifiche sono ampiamente soddisfatte non sto ad aprire, se sono al limite si.
sono d'accordo, ma torno a dire, 2 anni fa é successa esattamente la stessa cosa, e dopo poco che sono uscite le serie 3xxx, le usate costavano piú di quanto dovevano costare le nuove in teoria :asd:
E grazie al cazzo, è scoppiata una pandemia :asd: Adesso la crisi già ci sta, quindi il trend resta quello. la vera incognita è vedere se con le 4000 tireranno fuori msrp come quelli delle 3000 o se li spareranno direttamente alti in partenza. Poi con l'aggiunta della guerra ci sarà n'altra botta di rincari sui nuovi prodotti.
La ragione die prezzi ancora alti è che diverse GPU sonos tate comprate a peso d'oro in piena crisi e il rivenditore ora non vuole smenarci.
Vista l'uscita abbastanza ravvicinata fra le due serie e la crisi dell'energia a stò giro mi aspetto però che molti miner, soprattutto quelli più casalinghi, non cambino il parco GPU andando ad infierire sulla situazione.
Io ero quasi tentato di prendere una 970 a 170 euro ma alla fine mi tengo ancora la 660 e amen.
Io sto valutando se prendere una 3060 a 700 euro o aspettare ancora, devo anche vedere bene se con la tripla ventola entra nel case o è troppo grande.
https://www.amazon.it/dp/B09664S1F6/?coliid=I1SJ6QUTCN12E9&colid=2RB0IXEMF2VXB&psc=1&ref_=lv_ov_lig_dp_it
A quella cifra io mi rifiuterei anche a pensarci!
E sono d'accordo che i prezzi sono ancora alti, ma dal 2020 che ho preso gli altri componenti sono senza scheda video, sto ancora con la 660 del 2012.
Quindi ho aspettato 2 anni, altri 2 mesi proprio no!
Quindi ho aspettato 2 anni, altri 2 mesi proprio no!
Non sono convinto che fra 2 mesi i prezzi scendano, leggevo in giro, forse se ne parla a settembre/ottobre di una discesa sostanziale dei prezzi delle 3000, con l'annuncio/uscita delle 4000, sono altri 6/7 mesi da aspettare.
Negli ultimi due mesi son scesi.
https://www.youtube.com/watch?v=DTXctJlAEcM
E' vero che sono scesi, a dicembre stavano oltre 800 e ora siamo sotto i 700, vedremo più avanti.
Det. Bullock
23-03-22, 20:28
Io ormai aspetto la prossima generazione.
Si parla di salti assurdi di prestazioni che mi farebbero comodo se decidessi di mettermi con la VR.
E' vero che sono scesi, a dicembre stavano oltre 800 e ora siamo sotto i 700, vedremo più avanti.
Non manca molto all'uscita delle 4000. Le 3000 continueranno a calare.
Io ormai aspetto la prossima generazione.
Si parla di salti assurdi di prestazioni che mi farebbero comodo se decidessi di mettermi con la VR.
... anche di consumi
Det. Bullock
23-03-22, 22:51
... anche di consumi
Ho una limentatore da 750w, male che vada approfitterò di un eventuale calo di prezzi delle schede correnti.
Sembra comunque che non AMD il problema non sarà pronunciato come con Nvidia.
Ho una limentatore da 750w, male che vada approfitterò di un eventuale calo di prezzi delle schede correnti.
Diciamo che le premesse non sono buone, è da vedere se e quanto miglioreranno nella versione finale:
https://www.extremetech.com/gaming/332060-rumor-nvidias-rtx-4000-goes-nuclear-with-850w-tgp#:~:text=The%20variations%20will%20reportedly%2 0consume,this%20is%20subject%20to%20change.
se è così, o fanno girare matrix o per il prossimo pc resterò sulle 3000. come se ci fossero dei matrix all'orizzonte, poi. pensano che la gente abbia schermi a 8k?
in before: accendi il pc e ti salta la corrente di casa :bua:
Qui in Benelux incominciano a trovarsi IN STOCK delle 3070 ti a 850€
in before: accendi il pc e ti salta la corrente di casa :bua:
Accendi il pc, spegni il quartiere :asd: Non fosse che undervoltano almeno sarebbe un deterrente per i miner
sinceramente è vero che aumenteranno i consumi ma saranno lineari all'aumento di prestazioni. Se con la serie 3000 puntavo alla 3060ti, se la 4050 dovesse avere le stesse prestazioni e gli stessi consumi prenderei quella e non l'eventuale 4060ti che andrebbe di più e consumerebbe di più.
Se la 4090 consumerà il 50% in piu e avrà il 50% in più di prestazioni sarà comunque un aumento lineare di entrambe. Diverso sarà se consumerà il doppio ed avrà solo il 50% di prestazione in più.
sinceramente è vero che aumenteranno i consumi ma saranno lineari all'aumento di prestazioni. Se con la serie 3000 puntavo alla 3060ti, se la 4050 dovesse avere le stesse prestazioni e gli stessi consumi prenderei quella e non l'eventuale 4060ti che andrebbe di più e consumerebbe di più.
Se la 4090 consumerà il 50% in piu e avrà il 50% in più di prestazioni sarà comunque un aumento lineare di entrambe. Diverso sarà se consumerà il doppio ed avrà solo il 50% di prestazione in più.
beh onestamente avere il 50% di prestazioni in piú a fronte del 50% di consumi in piú non sarebbe un gran risultato per una nuova generazione. Spero che il rapporto consumi/prestazioni migliori.
Inoltre spero anche che prima o poi vedremo un po' un inversione di tendenza per queste GPU (e alcune CPU). Su un desktop ovviamente i consumi non sono cosí importanti, peró c'é un limite... tra costo dell'energia che aumenta e TDP che tra poco raggiungeranno quelli di un fornetto direi che i consumi stanno diventando un po' eccessivi anche per un desktop.
Infatti. C'è stata solo una corsa alla potenza bruta nelle ultime due gen senza "badare a spese" sui consumi.
Da un lato la nuota architettura dovrebbe migliorare l'efficienza, ma se il grosso delle performances arriva dal "semplice" duplicare l'hardware non è questa gran cosa.
Soprattutto perché inevitabilmente si perde qualcosa "per strada" già nella sola gestione del extra hardware e nel muovere di più i dati.
Vedasi l'M1 Ultra di Apple (2x M1 Max).
Qui in Benelux incominciano a trovarsi IN STOCK delle 3070 ti a 850€
:eek:
una cosa che non mi piace è che si aumenta costo, potenza e consumi solo in funzione della risoluzione. Mai nulla di nuovo e interessante. Solo numeri numeri numeri, 1440 meglio di 1080, 4k meglio di 1440, 8k meglio di 4k ecc ecc. che noia. Tra poco ti ci vorrà il microscopio per vedere i punti del monitor , e una parete da 4 metri.
Beh il raytracing è sostanzialmente ancora all'inizio.
Cioè, al momento attuale, si riesce a far girare Quake II (classe '97) completamente renderizzato in raytracing.
una cosa che non mi piace è che si aumenta costo, potenza e consumi solo in funzione della risoluzione. Mai nulla di nuovo e interessante. Solo numeri numeri numeri, 1440 meglio di 1080, 4k meglio di 1440, 8k meglio di 4k ecc ecc. che noia. Tra poco ti ci vorrà il microscopio per vedere i punti del monitor , e una parete da 4 metri.
In realtà dovrebbe andare pari passo col pannello che usi. Sotto i 32" il 4K ha poco senso.
una cosa che non mi piace è che si aumenta costo, potenza e consumi solo in funzione della risoluzione. Mai nulla di nuovo e interessante. Solo numeri numeri numeri, 1440 meglio di 1080, 4k meglio di 1440, 8k meglio di 4k ecc ecc. che noia. Tra poco ti ci vorrà il microscopio per vedere i punti del monitor , e una parete da 4 metri.
il raytracing in real time mi pare una innovazione molto importante invece, é la tecnologia che porterá i motori di rendering real time al pari con quelli usati per renderizzare gli effetti dei blockbusters.
So che molti continuano a dire che é inutile, ma io credo sia esattamente l'opposto. É una delle innovazioni piú importanti nei motori real time che c'é stata da diverso tempo
Più che inutile è forviante dire che quello che abbiamo ora sia "raytracing".
Solo un paio di effetti (ombre e riflessi) sono in raytracing, mentre il grosso è ancora rasterisation.
Più che inutile è forviante dire che quello che abbiamo ora sia "raytracing".
Solo un paio di effetti (ombre e riflessi) sono in raytracing, mentre il grosso è ancora rasterisation.
E per avere quel poco che hai devi sputare sangue, sia in termini di prestazioni che perdi che di consumi.
Più che inutile è forviante dire che quello che abbiamo ora sia "raytracing".
Solo un paio di effetti (ombre e riflessi) sono in raytracing, mentre il grosso è ancora rasterisation.
certo, non é ancora raytracing vero, peró sono ombre, riflessi E 1 bounce di global illumination. Comunque rivoluzionario averlo in real time.
Sarà anche rivoluzionario ma il rapporto costi/benefici è pessimo. Per ora se ne puo' ancora fare a meno, a maggior ragione sulla generazione 2000 potevan risparmiarselo, è stata una scusa per sparare altissimi i prezzi. Hanno anticipato troppo i tempi, dovevano aspettare almeno un paio di gen prima di buttarlo fuori ma oramai sentivano anche il fiato sul collo di AMD che come prestazioni brute li aveva raggiunti e dovevano inventarsi qualcosa.
E' poco rivoluzionario soprattutto perché, fino ad ora, non fa cose veramente strabilianti che non si possano fare in altro modo.
Quindi si, di strada da fare ce n'è ancora tanta.
E' poco rivoluzionario soprattutto perché, fino ad ora, non fa cose veramente strabilianti che non si possano fare in altro modo.
Quindi si, di strada da fare ce n'è ancora tanta.
sicuramente c'é ancora molta strada da fare, siamo agli inizi. Non sono assolutamente d'accordo sul fatto che si possano fare le stesse cose in altro modo. Certo, se intendi che prima della GI facevano comunque gli effetti speciali e le animazioni 3d che in qualche che erano guardabili, si, era possibile, la direzione artistica é sempre stata la cosa piú importante.
Peró costruivano anche le piramidi facendo rotolare massi enormi sui tronchi d'albero.
RTX é giá ora una rivoluzione: puoi fare le stesse cose che facevi prima in 1/20 del tempo e con molte meno limitazioni. Inoltre quando sfruttato a dovere fa una differenza come tra il giorno e la notte giá ora. Il problema é che nei giochi é pressoché inutilizzabile sul 90 e passa % dell'hardware dei giocatori, quindi anche le limitate possibilitá di una tecnologia appena nata non sono state minimamente sfruttate fin'ora.
sicuramente c'é ancora molta strada da fare, siamo agli inizi. Non sono assolutamente d'accordo sul fatto che si possano fare le stesse cose in altro modo. Certo, se intendi che prima della GI facevano comunque gli effetti speciali e le animazioni 3d che in qualche che erano guardabili, si, era possibile, la direzione artistica é sempre stata la cosa piú importante.
Peró costruivano anche le piramidi facendo rotolare massi enormi sui tronchi d'albero.
RTX é giá ora una rivoluzione: puoi fare le stesse cose che facevi prima in 1/20 del tempo e con molte meno limitazioni. Inoltre quando sfruttato a dovere fa una differenza come tra il giorno e la notte giá ora. Il problema é che nei giochi é pressoché inutilizzabile sul 90 e passa % dell'hardware dei giocatori, quindi anche le limitate possibilitá di una tecnologia appena nata non sono state minimamente sfruttate fin'ora.
E' ovvio. Per quanto Nvidia spinga e marchetti non ci si mette a investire più di tanto tempo e denaro per implementare qualcosa che vedranno si e no il 10% dei giocatori, soprattutto con la crisi delle GPU. Finchè l'hw non prenderà piede o, opzione ancora più remota, le console saranno in grado di reggerlo come si deve, lo vedrai utilizzato sempre solo in modo marginale. Nessuno gli sta dietro più di tanto.
Il fatto poi che non ci sia uno standard ma AMD e Nvidia viaggino su binari separati lo azzoppa ulteriormente e ne rallenta moltissimo la diffusione.
E' ovvio. Per quanto Nvidia spinga e marchetti non ci si mette a investire più di tanto tempo e denaro per implementare qualcosa che vedranno si e no il 10% dei giocatori, soprattutto con la crisi delle GPU. Finchè l'hw non prenderà e piede o, opzione ancora più remota, le console saranno in grado di reggerlo come si deve, lo vedrai utilizzato sempre solo in modo marginale. Nessuno gli sta dietro più di tanto.
Il fatto poi che non ci sia uno standard ma AMD e Nvidia viaggino su binari separati lo azzoppa ulteriormente e ne rallenta moltissimo la diffusione.
certo, su questo sono d'accordo al 100%. A mio avviso comunque non cambia il fatto che é una tecnologia che é in grado di rivoluzionare la grafica in tempo reale. Il problema é che al momento non solo é allo stato embrionale, ma soprattutto non viene praticamente usata.
sicuramente c'é ancora molta strada da fare, siamo agli inizi. Non sono assolutamente d'accordo sul fatto che si possano fare le stesse cose in altro modo. Certo, se intendi che prima della GI facevano comunque gli effetti speciali e le animazioni 3d che in qualche che erano guardabili, si, era possibile, la direzione artistica é sempre stata la cosa piú importante.
Peró costruivano anche le piramidi facendo rotolare massi enormi sui tronchi d'albero.
Ombre e riflessi in game fatti "tradizionalmente" rispetto a quelli fatti ora col raytracing sono pressoché indistinguibili al gamer.
Per quello la rivoluzione è ben lontana dal essere concretizzata.
Det. Bullock
24-03-22, 19:29
Diciamo che le premesse non sono buone, è da vedere se e quanto miglioreranno nella versione finale:
https://www.extremetech.com/gaming/332060-rumor-nvidias-rtx-4000-goes-nuclear-with-850w-tgp#:~:text=The%20variations%20will%20reportedly%2 0consume,this%20is%20subject%20to%20change.
Si parla comunque di Nvidia, bisogna vedere come sarà con le schede AMD con l'uso dei chiplet (che mi fa venire in mente le vecchie schede ATI come la Rage Fury Max).
Ombre e riflessi in game fatti "tradizionalmente" rispetto a quelli fatti ora col raytracing sono pressoché indistinguibili al gamer.
Per quello la rivoluzione è ben lontana dal essere concretizzata.
continui a parlare di riflessi e ombre e ignori completamente l'indirect lighting :asd:
continui a parlare di riflessi e ombre e ignori completamente l'indirect lighting :asd:Qualche esempio pratico?
Che io sappia, senza raytracing, solitamente lo precalcolano in sviluppo ed è fatta.
Qualche esempio pratico?
Che io sappia, senza raytracing, solitamente lo precalcolano in sviluppo ed è fatta.
Esatto, solo che per pre-calcolarlo col bake, in sviluppo devi creare delle uv ad hoc per il bake dell’illuminazione indiretta che sono una palla da fare. Inoltre il bake dell’illuminazione indiretta ha limiti piuttosto grandi e se ci pensi abbastanza ovvi: funziona solo se l’illuminazione è completamente statica e funziona solo per oggetti statici. Quindi nei giochi il ciclo giorno notte o qualsiasi fonte luminosa dinamica non viene inclusa nel bake, così come non vengono inclusi tutti i personaggi e gli oggetti dinamici.
Capisci bene che stando così le cose, avere la gi in real time fa una differenza enorme sia a livello di processo di creazione degli oggetti che a livello visivo
Ma il punto di vista è quello del consumatore finale, non di chi fa la salsiccia.
Che poi, con le pesanti limitazioni in termini di performance che sia hanno al momento, alla fine, resta una bella rogna da sviluppare comunque...
Vabbè ci sono entrambi i lati della medaglia secondo me. Anche se non dovesse avere alcun impatto visivo, nel momento che l’hw medio lo farà girare senza problemi verrà adottato come unico sistema di illuminazione, visto che riduce sensibilmente i tempi di sviluppo e quindi i costi.
Però c’è anche l’impatto grafico, dici che non si vede solo perché non hai mai visto la differenza in scene dove viene sfruttato. Comunque fino alla prossima generazione di console non sarà lo standard, quindi bai tranquillo :asd:
Vabbè ci sono entrambi i lati della medaglia secondo me. Anche se non dovesse avere alcun impatto visivo, nel momento che l’hw medio lo farà girare senza problemi verrà adottato come unico sistema di illuminazione, visto che riduce sensibilmente i tempi di sviluppo e quindi i costi.
Su quello sicuramente hai ragione ma al momento siamo lontanissimi da una situazione del genere. Prima con la serie 2000 hanno rincarato parecchio le schede con la scusa dei tensor core, ed erano ancora mdoelli acerbi che faticavano parecchio. Poi con la serie 3000 teoricamente avevano abbassato i prezzi ma ci si è messa la crisi, quindi anche per il secondo giro l'hw è lontanissimo dal prender piede. Inoltre come prestazioni seppur vadano nettamente meglio della gen precedente per l'RTX si paga ancora uno gran bello scotto sia di prestazioni che di consumi.
Poi non nascondiamoci dietro un dito: il vero sdoganamento alla massa dell'RTX che porterà gli sviluppatori a lavorarci seriamente arriverà solo quando sarà implementabile tranquillamente su console. Cosa ben lungi dall'avvenire. Infine ti ribadisco quanto detto prima: non c'è uno standard e tocca fare doppio lavoro.
Finchè non si risolvono tutte queste cose, e ci vorrà parecchio, la situazione non migliorerà significativamente.
Però c’è anche l’impatto grafico, dici che non si vede solo perché non hai mai visto la differenza in scene dove viene sfruttato. Comunque fino alla prossima generazione di console non sarà lo standard, quindi bai tranquillo :asd:
Si vede fino a un certo punto. Da spettatore magari lo noti di più ma giocando, soprattutto in giochi frenetici, lo cogli ben poco nella stragrande maggioranza dei casi.
Su quello sicuramente hai ragione ma al momento siamo lontanissimi da una situazione del genere. Prima con la serie 2000 hanno rincarato parecchio le schede con la scusa dei tensor core, ed erano ancora mdoelli acerbi che faticavano parecchio. Poi con la serie 3000 teoricamente avevano abbassato i prezzi ma ci si è messa la crisi, quindi anche per il secondo giro l'hw è lontanissimo dal prender piede. Inoltre come prestazioni seppur vadano nettamente meglio della gen precedente per l'RTX si paga ancora uno gran bello scotto sia di prestazioni che di consumi.
Poi non nascondiamoci dietro un dito: il vero sdoganamento alla massa dell'RTX che porterà gli sviluppatori a lavorarci seriamente arriverà solo quando sarà implementabile tranquillamente su console. Cosa ben lungi dall'avvenire. Infine ti ribadisco quanto detto prima: non c'è uno standard e tocca fare doppio lavoro.
Finchè non si risolvono tutte queste cose, e ci vorrà parecchio, la situazione non migliorerà significativamente.
Si vede fino a un certo punto. Da spettatore magari lo noti di più ma giocando, soprattutto in giochi frenetici, lo cogli ben poco nella stragrande maggioranza dei casi.
si delle console l'ho scritto anche io: non diventerá lo standard almeno fino alla prossima generazione.
Per quanto riguarda l'impatto della GI nei giochi frenetici, vero, ma alla fine é vero per la maggor parte degli orpelli grafici. Voglio dire, io sono appassionato di simulazioni di guida. La graficona della madonna mi piace, ma alla fine mentre guido mi basta che ci siano le cose funzionali (distanza visiva, una definizione decente e la fluiditá) del resto me ne accorgo poco.
Quindi alla fine dipende dal cosa viene usata peró dall'altra parte é una tecnologia che in certi contesti puó fare tanta differenza, a livello visivo, di atmosfera e anche di gameplay.
Quindi alla fine dipende dal cosa viene usata peró dall'altra parte é una tecnologia che in certi contesti puó fare tanta differenza, a livello visivo, di atmosfera e anche di gameplay.
Se implementata tout court sicuramente. Finchè la rileghi a pozzanghere e una manciata di elementi a schermo resta un orpello costosissimo che non vale il suo costo ma come detto prima siamo ben lontani da un cambio di situazione.
Non è che gli "orpelli" grafici siano da ignorare, il punto è che il miglioramento è veramente risibile ed il costo è assurdo.
Francamente non son così convinto che le cose cambieranno tanto in fretta.
Dubito fortemente la prossima generazione di console... a meno che no ci si sposti sul cloud.
Francamente non son così convinto che le cose cambieranno tanto in fretta.
Dubito fortemente la prossima generazione di console... a meno che no ci si sposti sul cloud.
Quella è impossibilie, soprattutto con l'aggravante dei costi attuali dell'hw
Dato che si parlava della prossima gen:
https://www.igorslab.de/en/new-details-about-nvidia-geforce-rtx-4090-to-24-gb-gddr6x-and-a-clever-voltage-converter-orgy/
Potrebbero arrivare a 600W di TDP
quelle sono cmq schede top per gente che non ha problemi a spendere, manco per la bolletta dell'energia elettrica :asd:
per la 4090 servira' un alimentatore da 1k W?
quelle sono cmq schede top per gente che non ha problemi a spendere, manco per la bolletta dell'energia elettrica :asd:
per la 4090 servira' un alimentatore da 1k W?
mah guarda, io ho una 3090 che uso per lavoro, e ti assicuro che mi piacerebbe molto che le schede fossero piú efficienti specialmente visto che spesso e volentieri la scheda macina render per ore ed ore :bua:
Comunque se effettivamente il TDP sará di 600W direi che si, ci vorrá un alimentatore da almeno 1kw
Big Relief for PC Component Shoppers: US Lifts Import Tariffs on Components from China (https://www.techpowerup.com/293341/big-relief-for-pc-component-shoppers-us-lifts-import-tariffs-on-components-from-china)
qui pro quo per non supportare putin?
Attenzione poveri! (alla Ranzani): NVIDIA Releases GeForce RTX 3090 Ti: Ampere the All-Powerful (https://www.anandtech.com/show/17334/nvidia-releases-geforce-rtx-3090-ti-ampere-the-allpowerful-)
sarebbe da comprarla per farci girare campo minato, così per sfizio :asd3:
Se la attacco resta al buio tutto il quartiere
Ecco questa è inutile anche per me… 10% di prestazioni in più, stessa ram, molto più consumo. :nono:
Beh considerando che fino a pochi mesi fa con 3000€ ci prendevi una 3080 è pure economica :asd:
Inviato dal mio MI 9 utilizzando Tapatalk
Ecco questa è inutile anche per me… 10% di prestazioni in più, stessa ram, molto più consumo. :nono:
Veramente è inutile per tutto il mondo, soprattutto quasi a ridosso della serie 4000.
Veramente è inutile per tutto il mondo, soprattutto quasi a ridosso della serie 4000.
è come quando Vegeta contro Cell aumenta tantissimo la potenza del SSY1 e diventa lentissimo, mentre Goky sblocca e diventa SSY2
Veramente è inutile per tutto il mondo, soprattutto quasi a ridosso della serie 4000.
Beh quello che intendevo è che alla fine anche la 3090 non è che sia proprio una scheda necessaria a fini gaming a mioavviso. Per chi fa grafica 3d invece i 24gb di vram sono fondamentali rispetto agli 11 della 3080. Invece tra la 3090 e la 3090ti non c’è più senso neanche in ambito 3d :asd:
comunque dai benchmark va il doppio di una 3060ti, consumando il doppio di corrente. Ad un prezzo 3-4 volte superiore :asd:
Beh quello che intendevo è che alla fine anche la 3090 non è che sia proprio una scheda necessaria a fini gaming a mioavviso. Per chi fa grafica 3d invece i 24gb di vram sono fondamentali rispetto agli 11 della 3080. Invece tra la 3090 e la 3090ti non c’è più senso neanche in ambito 3d :asd:
Ma infatti lo sa anche Nvidia che sono prodotti più indicati per una fascia professionale ma per fare marketing e promozione si accosta il gaming a tutto. L'ha fatto anche Intel con gli i9 ad esempio.
Il marketing sul 8k è semplicemente ridicolo.
Ma infatti lo sa anche Nvidia che sono prodotti più indicati per una fascia professionale ma per fare marketing e promozione si accosta il gaming a tutto. L'ha fatto anche Intel con gli i9 ad esempio.
Si ma almeno la 3090 ha un senso nel mercato professionale, a prescindere dal marketing. La 3090ti no :asd:
Sbaglio o gli mancano i driver "giusti" per il lavoro veramente professionale ed è buona per quello "semi professionale"?
Sbaglio o gli mancano i driver "giusti" per il lavoro veramente professionale ed è buona per quello "semi professionale"?
Boh ci sono i driver studio e idriver gaming, ma onestamente non mi pare cambi un tubo. Non puoi usare i driver quadro su una geforce, ma anche li mi pare cambi veramente poco, tipo l’unica cosa che a me eventualmente mancava era la possibilità di avere encoding hw su teamviewer o roba del genere. Per renderizzare la 3090 va leggermente più veloce della top quadro, solo che ha la metà della ram. La mia scheda ha renderizzato per giorni e giorni di seguito, non ha mai superato i 70 gradi e quindi per quello che faccio i driver quadro non mi sembrano necessari. Non so se qualche programma di cad c’è della roba bloccata coi driver geforce, ma non mi pare :uhm:
Mi sembra di ricordare che certi calcoli in virgola mobile sono pesantemente azzoppati senza i driver giusti.
Certi programmi mi sembrava di capire che non partivano senza i driver certificati o certe funzioni non erano disponibili.
Mi sembra di ricordare che certi calcoli in virgola mobile sono pesantemente azzoppati senza i driver giusti.
Certi programmi mi sembrava di capire che non partivano senza i driver certificati o certe funzioni non erano disponibili.
si probabilmente nel campo AI, machine learning o roba simile potrebbe essere come dici.
Si ma almeno la 3090 ha un senso nel mercato professionale, a prescindere dal marketing. La 3090ti no :asd:
Bhè, vedila così: se uno non ha ancora comprato la 3090 puo' prendersi direttamente questa :asd:
Per la cronaca ho appena visto il prezzo: "a partire da 2249 euro" :asd:
Per la serie Chernobyl scansati:
https://www.hwupgrade.it/news/skvideo/evga-geforce-rtx-3090-ti-kingpin-un-mostro-di-potenza-con-due-connettori-a-16-pin-1200w_105988.html
marchiano una scheda "kingpin" come il videogioco di una vita fà?
Bhè, vedila così: se uno non ha ancora comprato la 3090 puo' prendersi direttamente questa :asd:
Per la cronaca ho appena visto il prezzo: "a partire da 2249 euro" :asd:
Per la serie Chernobyl scansati:
https://www.hwupgrade.it/news/skvideo/evga-geforce-rtx-3090-ti-kingpin-un-mostro-di-potenza-con-due-connettori-a-16-pin-1200w_105988.html
beh si ok... mi sa che la differenza di prezzo é piú del 10% di prestazioni peró :asd:
Comunque boh, sono onestamente un po' "preoccupato" da questa tendenza dell'hw PC. Oggi ho letto che il nuovo top di gamma ryzen avrá TDP da 170w, quindi hanno aumentato anche quello. Ovviamente se le prestazioni lo giustificheranno ben venga, é ancora un TDP umano 170w per usi professionali, peró spero vivamente che si torni a pensare un minimo all'efficienza...
Per dire, apple non mi piace, specialmente nella sua cialtronaggine di marketing dove fanno delle sparate assurde... non posso negare peró che delle CPU che sono estremamente performanti alla metá della potenza delle controparti PC é una cosa che mi piacerebbe vedere anche su PC.
beh si ok... mi sa che la differenza di prezzo é piú del 10% di prestazioni peró :asd:
Comunque boh, sono onestamente un po' "preoccupato" da questa tendenza dell'hw PC. Oggi ho letto che il nuovo top di gamma ryzen avrá TDP da 170w, quindi hanno aumentato anche quello. Ovviamente se le prestazioni lo giustificheranno ben venga, é ancora un TDP umano 170w per usi professionali, peró spero vivamente che si torni a pensare un minimo all'efficienza...
Per dire, apple non mi piace, specialmente nella sua cialtronaggine di marketing dove fanno delle sparate assurde... non posso negare peró che delle CPU che sono estremamente performanti alla metá della potenza delle controparti PC é una cosa che mi piacerebbe vedere anche su PC.
Ti dirò, per quel che gioco io sarei anche disponibile a comprare versioni di schede un po' "depotenziate", tipo i modelli per laptop, con consumi, temperature ed ingombri inferiori alla controparte "full power".
Ti dirò, per quel che gioco io sarei anche disponibile a comprare versioni di schede un po' "depotenziate", tipo i modelli per laptop, con consumi, temperature ed ingombri inferiori alla controparte "full power".
diciamo che il "range" ce lo hai anche ora alla fine... vai dalla 3050ti che ha una versione a 60w alla 3090ti che ha boh, quanti? 400? 450? É giusto che se hai bisogno di prestazioni senza compromessi ci sia la scelta di prendere il top.
Il problema che vedo io é che al momento si é deciso che l'efficienza energetica la lasciamo stare :asd: Si punta tutto sulla potenza (giusto), senza peró cercare di aumentare l'efficienza energetica.
Vedere che Tomb raider emulato su rosetta su un m1 max fa circa la metá 0.4 degli fps a 60w di una 3080 mobile con tdp da 175w mi fa capire che c'é un discreto margine per provare a migliorare non solo le prestazioni, ma le prestazioni per watt e mi farebbe piacere se si riuscisse ad iniziare ad aumentare solo le prestazioni e a lasciare il TDP invariato. Anche perché giá i rumors circa la prossima generazione di schede mi pare stiano iniziando ad entrare nell'assurdo.
Una volta si scherzava che una scheda era un fornetto delonghi, ora siamo arrivati che lo é davvero :bua:
Ma i top di gamma non fanno testo per l'efficienza, non mirano a quella.
Sono tirati al limite ben oltre la curva d'efficienza in quanto mirano alle massime performance.
Il range ottimale sta nella fascia bassa e/o portatili dove l'efficienza effettivamente conta.
Ma i top di gamma non fanno testo per l'efficienza, non mirano a quella.
Sono tirati al limite ben oltre la curva d'efficienza in quanto mirano alle massime performance.
Il range ottimale sta nella fascia bassa e/o portatili dove l'efficienza effettivamente conta.
ma che c'entra, ovvio che le top di gamma son quelle che consumano di piú. Il problema é che una 3070ti ha il TDP piú alto del 20% di una titan di 5 anni fa, il trend mi pare ovvio ed oltretutto é un aumento esponenziale visto che si parla di aumenti di TDP tra il 50 e l'80% per la prossima generazione. Non sto dicendo che voglio una 3090 che consuma come una integrata, ma il trend dei consumi onestamente non mi pare "sano", non si puó continuare ad alzare i TDP all'infito :boh2:
infatti anche i portatili mid range oggi giorno hanno bisono di alimentatori da 300w, che qualche anno fa quasi quasi ci alimentavi un desktop con una 980 dentro :asd:
Premesso che il paragone con una Titan, che non erano spinte al limite, è un po' mal posto...
Anche se la 3070 Ti consumando di più in termini assoluti, è probabilmente più efficiente di schede così vecchie.
Consumi assoluti non sono per forza legati all'efficienza.
Consumare 500W e elaborare 60fps è più efficiente che consumare soli 100W ma farne 6fps.
qui https://www.tomshardware.com/features/graphics-card-power-consumption-tested
hanno fatto un test sull'efficienza delle schede video.
Non mi pare che l'efficienza sia cambiata particolarmente, anzi forse è migliorata.
Ciao ragazzi. Sono fuori da un po'. Ma un alim ANTEC earthwatts 650 80+ va bene per una 3070 /3070 TI? e per una 3080?
ma che c'entra, ovvio che le top di gamma son quelle che consumano di piú. Il problema é che una 3070ti ha il TDP piú alto del 20% di una titan di 5 anni fa, il trend mi pare ovvio ed oltretutto é un aumento esponenziale visto che si parla di aumenti di TDP tra il 50 e l'80% per la prossima generazione. Non sto dicendo che voglio una 3090 che consuma come una integrata, ma il trend dei consumi onestamente non mi pare "sano", non si puó continuare ad alzare i TDP all'infito :boh2:
infatti anche i portatili mid range oggi giorno hanno bisono di alimentatori da 300w, che qualche anno fa quasi quasi ci alimentavi un desktop con una 980 dentro :asd:C'è anche chi pensa sia tutta una strategia di Nvidia per tirare fuori schede che consumano meno in futuro, un po' come la cagata della serie 3k "che costa meno della serie precedente" (quando invece si confrontavano i prezzi delle 3080 con quelli delle 2080Ti :asd: )
Ad esempio dai commenti di questo video:
https://www.youtube.com/watch?v=HWS9G2WT42Q&t=610s
The strategy is to make GPUs draw extreme amounts power now so that Nvidia can make a presentation in the future about how power efficient their new cards are in comparison
Oppure, il commento migliore:
The year is 2027. The new Nvidia 8090 Tie needs 1.21 GigaWatts, and can only be powered by direct lightning strike.
:asd:
Io non credo che lo stiano facendo apposta, semplicemente hanno deciso di fregarsene per il momento, cosa che potrà tornare a loro vantaggio in futuro quando punteranno un po' di più sui consumi minori. :uhm:
Premesso che il paragone con una Titan, che non erano spinte al limite, è un po' mal posto...
Anche se la 3070 Ti consumando di più in termini assoluti, è probabilmente più efficiente di schede così vecchie.
Consumi assoluti non sono per forza legati all'efficienza.
Consumare 500W e elaborare 60fps è più efficiente che consumare soli 100W ma farne 6fps.
la titan era esattamente quello che é oggi la 3090 fino alla generazione 2xxx.
Detto questo, lo spero bene che l'efficienza generale migliori con il migliorare della tecnologia, ma la realtá é che la scheda top di gamma di 2 generazioni fa (la titan) consumava quasi la metá di una 3090. Questo é un fatto. La 3090 ha piú fps per watt? Certo, non lo nego assolutamente. Peró é anche innegabile che se continuiamo cosí tra un po' ci vorrá un contratto dell'elettricitá apposta per avere una scheda top di gamma in casa :asd:
Ultimo appunto. Le schede professionali non sono assolutamente spinte al limite, infatti tutte le quadro hanno sia frequenze che TDP piú bassi rispetto alla controparte geforce e infatti vanno anche leggermente meno di velocitá pura.
Ciao ragazzi. Sono fuori da un po'. Ma un alim ANTEC earthwatts 650 80+ va bene per una 3070 /3070 TI? e per una 3080?
credo di si, a patto che sia un ottimo alimentatore. Io ho un 750w gold con un 3900xt e 3090.
C'è anche chi pensa sia tutta una strategia di Nvidia per tirare fuori schede che consumano meno in futuro, un po' come la cagata della serie 3k "che costa meno della serie precedente" (quando invece si confrontavano i prezzi delle 3080 con quelli delle 2080Ti :asd: )
Ad esempio dai commenti di questo video:
https://www.youtube.com/watch?v=HWS9G2WT42Q&t=610s
Oppure, il commento migliore:
:asd:
Io non credo che lo stiano facendo apposta, semplicemente hanno deciso di fregarsene per il momento, cosa che potrà tornare a loro vantaggio in futuro quando punteranno un po' di più sui consumi minori. :uhm:
:asd:
Boh, ho un po' l'impressione che nvidia nel settore gaming/consumer si sia un po' tranquillizzata negli ultimi anni e ora che stanno venendo impensieriti da amd e che hanno dovuto spingere di piú le schede per spremere le prestazioni.
Altro motivo: apple. Al momento apple é lontana dalle prestazioni pure di nvidia per quanto riguarda le schede video, ma ha un'efficienza incredibile. Nvidia non avendo una risposta sul lato efficienza nel breve periodo forse ha deciso di puntare tutto sulla forza bruta, in modo da rendere chiaro il messaggio che se vuoi le massime prestazioni ti ci vuole una nvidia.
Boh, ho un po' l'impressione che nvidia nel settore gaming/consumer si sia un po' tranquillizzata negli ultimi anni e ora che stanno venendo impensieriti da amd e che hanno dovuto spingere di piú le schede per spremere le prestazioni.
Altro motivo: apple. Al momento apple é lontana dalle prestazioni pure di nvidia per quanto riguarda le schede video, ma ha un'efficienza incredibile. Nvidia non avendo una risposta sul lato efficienza nel breve periodo forse ha deciso di puntare tutto sulla forza bruta, in modo da rendere chiaro il messaggio che se vuoi le massime prestazioni ti ci vuole una nvidia.Esatto. :sisi:
Ciao ragazzi. Sono fuori da un po'. Ma un alim ANTEC earthwatts 650 80+ va bene per una 3070 /3070 TI? e per una 3080?
A meno che non lo usi con un i9 overclockato a schifo va più che bene.
Usa due cavi distinti per i due 8pin di alimentazione della scheda video, non lo stesso coi due attacchi.
Detto questo, lo spero bene che l'efficienza generale migliori con il migliorare della tecnologia, ma la realtá é che la scheda top di gamma di 2 generazioni fa (la titan) consumava quasi la metá di una 3090.Ma consumi ed efficienza non sono termini intercambiabili, son due cose diverse.
E l'efficienza non sta peggiorando col tempo, anzi.
I consumi assoluti salgono perché le richieste son salite.
Una volta ci si accontentava di 30fps, mentre oramai accontentarsi di 60fps è per poveri.
Senza contare la risoluzione e gli effetti.
Ultimo appunto. Le schede professionali non sono assolutamente spinte al limiteIl mio punto appunto.
Le consumer sono tirate, mentre per il mondo professionale oltre ad usare i chip migliori (prendono voltaggi più bassi) non li spingono troppo.
Quindi una professionale di qualche hanno può mantenere un vantaggio d'efficienza rispetto una consumer più nuova.
Le Titan sono state inconsistenti. A volte praticamente schede professionali, a volte più vicine ai consumer.
Maybeshewill
31-03-22, 14:19
qui https://www.tomshardware.com/features/graphics-card-power-consumption-tested
hanno fatto un test sull'efficienza delle schede video.
Non mi pare che l'efficienza sia cambiata particolarmente, anzi forse è migliorata.
Cioè la 970 consuma poco meno della 3060
pazzesco
Cioè la 970 consuma poco meno della 3060
pazzescoSi circa 20w di meno
Inviato dal mio RMX3363 utilizzando Tapatalk
Cioè la 970 consuma poco meno della 3060
pazzescoPazzesco che sia questo quello che ne cavi da quel link.
Consumerà una ventina di watt in più, ma elabora quasi il triplo dei FPS.
Mentre la 3060 è tra le più efficienti, la 970 e tra le peggiori.
Peggio della 980 Ti, molto strano considerando che generalmente le ammiraglie dovrebbero essere quelle che più sacrificano l'efficienza.
La generazione dopo la 1070 fa meglio della 1080 Ti.
Maybeshewill
31-03-22, 14:58
Sì... dicevo in senso positivo per la 3060 e negativo per la 970
qui https://www.tomshardware.com/features/graphics-card-power-consumption-tested
hanno fatto un test sull'efficienza delle schede video.
Non mi pare che l'efficienza sia cambiata particolarmente, anzi forse è migliorata.
giá detto, l'efficienza é migliorata sono d'accordo. Peró i TDP a paritá di fascia sono del 30% piú alti rispetto a due serie fa.
dalla 9xx alla 1xxx i TDP sono addirittura leggermente scesi. Poi da li aumentati ad ogni serie, finché ora si parla addirittura di un incremento di oltre il 50% in una generazione.
Lo ripeto, peró per l'ultima volta perché sennó poi diventa una barzelletta :asd:
l'efficienza é migliorata, sono d'accordo e non ho mai pensato il contrario. Il consumo assoluto peró sta raggiungendo dei livelli IMO troppo alti e vedendo che é oltretutto possibile ottimizzare ulteriormente l'efficienza spero che in futuro si inverta questa tendenza di alzare cosí tanto il TDP delle schede.
Basta, ora il concetto non lo esprimo piú, meglio di cosí non riesco ad esprimerlo tanto :asd:
No ho capito perfettamente, però come dicevo sulla serie 4000 di nvidia, alla fine a me interessa l'efficienza, quindi se per avere gli stessi fps di una 3060ti (a cui punto) basta una 4050 mi prenderei quella. Non é che prendo la 4060ti solo perché ha la stessa numerazione
Inviato dal mio RMX3363 utilizzando Tapatalk
Ma quello che i consumi massimi siano in salita credo lo sia da... sempre.
Una volta avevi schede video con due GPU (top di gamma) che non arrivavano a consumare 200W assieme:
GeForce 9800 GTX 140W mentre GeForce 9800 GX2 190W.
Anda andar più dietro si stentano a trovar valori perché non era proprio una considerazione.
ATi quotes the X800 XT’s power consumption in 3D games to be 67,48 Watts, while a Radeon 9800XT supposedly needs 67,54 Watts. [...]
Using the 110-Watts of the GeForce 6800 Ultra as our point of reference, we had calculated a power draw of 91.5 Watts in our last article !
https://www.tomshardware.com/reviews/ati,802-9.html
Cioè... 100W a dirla grossa... nel 2004.
No ho capito perfettamente, però come dicevo sulla serie 4000 di nvidia, alla fine a me interessa l'efficienza, quindi se per avere gli stessi fps di una 3060ti (a cui punto) basta una 4050 mi prenderei quella. Non é che prendo la 4060ti solo perché ha la stessa numerazione
Inviato dal mio RMX3363 utilizzando Tapatalk
beh si ti andrá bene di farci girare i giochi tra un paio d'anni come avresti fatto i girare i giochi oggi su una 3050 va bene, peró non aumenta solo l'efficienza, aumentano anche le esigenze dei giochi e nel caso professionale delle produzioni 3d
Ma quello che i consumi massimi siano in salita credo lo sia da... sempre.
Una volta avevi schede video con due GPU (top di gamma) che non arrivavano a consumare 200W assieme:
GeForce 9800 GTX 140W mentre GeForce 9800 GX2 190W.
Anda andar più dietro si stentano a trovar valori perché non era proprio una considerazione.
https://www.tomshardware.com/reviews/ati,802-9.html
Cioè... 100W a dirla grossa... nel 2004.
si é vero i tdp sono aumentati, ma mi sembrano aumentati di piú negli ultimi 5 anni anni che nei precedenti 10. Inoltre come hai detto, prima non era una considerazione perché erano valori "irrisori". Secondo me si sta avvicinando il momento per cui bisogna iniziare forse a porsi questa considerazione dei TDP, altrimenti se sei un professionista o un videogiocatore molto esigente tra qualche anno ci vorranno gli alimentatore da qualche megawatt se continua questa tendenza :asd:
sennó vi chiedo... a voi sta bene che i consumi continuino ad aumentare all'infinito?
Se tra 5 anni le schede entry level consumeranno 6-700 watt vi andrá bene? Io onestamente preferirei di no :asd:
beh si ti andrá bene di farci girare i giochi tra un paio d'anni come avresti fatto i girare i giochi oggi su una 3050 va bene, peró non aumenta solo l'efficienza, aumentano anche le esigenze dei giochi e nel caso professionale delle produzioni 3d
si é vero i tdp sono aumentati, ma mi sembrano aumentati di piú negli ultimi 5 anni anni che nei precedenti 10. Inoltre come hai detto, prima non era una considerazione perché erano valori "irrisori". Secondo me si sta avvicinando il momento per cui bisogna iniziare forse a porsi questa considerazione dei TDP, altrimenti se sei un professionista o un videogiocatore molto esigente tra qualche anno ci vorranno gli alimentatore da qualche megawatt se continua questa tendenza :asd:
sennó vi chiedo... a voi sta bene che i consumi continuino ad aumentare all'infinito?
Se tra 5 anni le schede entry level consumeranno 6-700 watt vi andrá bene? Io onestamente preferirei di no :asd:
no è chiaro che non mi andrebbe bene un aumento del genere e sono quasi certo che tra poco si tornerà a puntare sull'efficienza.
Ma a me, ora, andrebbe benissimo il passaggio da 1070 a 3060ti, è un raddoppio medio di prestazioni ad un 25% di energia in più.
Ovvio che sarebbe stato meglio il raddoppio a parità di energia, ma per quello potrei andare di 3060 e avrei circa un 30% di prestazioni aumentate a parità di corrente consumata.
Bisogna ricordare che una volta si passava anche da 130nm, a 90nm, a 65nm ed a 40nm nel giro di quattro anni (2003-2006).
Da 40nm a 28nm ci hanno messi altri quattro anni (2006-2010).
Ed i 28nm son rimasti con noi fino al 2016, sei anni... e li hanno spremuti per bene.
16-12-8/7nm son arrivati in rapida successione ogni due anni, ma i vantaggi son sempre meno.
ecco al discorso dei salti di processo produttivo non ci avevo pensato... peró un po' mi fa pensare che o tra poco si "inventerrano" qualcosa di nuovo (computer quantistici? :asd:) oppure stiamo forse raggiungendo certi limiti fisici di una certa tecnologia :uhm:
(computer quantistici? :asd:)
Esistono già. :asd:
Solo non vanno bene per l'uso domestico quotidiano. :bua:
https://www.youtube.com/watch?v=g_IaVepNDT4
Esistono già. :asd:
Solo non vanno bene per l'uso domestico quotidiano. :bua:
https://www.youtube.com/watch?v=g_IaVepNDT4
si ho visto che li hanno giá sfornati, ma immagino ci sia ancora da aspettare un po' prima di poterli usare per giocare a cyberpunk o per renderizzare in blender :asd:
Smartphone in generale e l'M1 di Apple sono a 5nm da quasi due anni: 2020.
Quest'anno 2022, con due anni di ritardo, dovremmo vedere sia nVidia 4000 che AMD 7000 pure a 5nm.
I prossimi iPhone, a fine anno, saranno a 3nm.
Dubito le schede video possano arrivare a questa dimensioni prima del 2025.
Quindi 2 generazioni a 5nm.
La roba quantistica non penso sia per l'ambito consumer.
La roba quantistica non penso sia per l'ambito consumer.
Lo dice anche nel video (e anche in altro video di non mi ricordo chi in cui facevano un tour in un posto in cui c'era un computer quantistico funzionante): non lo sono per niente. :bua:
Io saran quasi 10 anni oramai che aspetto di vedere stò grafene
La roba quantistica non penso sia per l'ambito consumer.
Bravo! Chi vuole un lampadario a valvole in casa?
https://i.redd.it/4d12756o2mvz.jpg
Vabbeh che pure i primi computar a transistor erano dei mostri.
Ma qui il "problema" è il lavoro che si fa con questi che è molto "diverso".
vabbé delle dimensioni non mi preoccuperei troppo visto che questo era un hdd da 5mb nel 1956
https://external-preview.redd.it/_UA5fKBjOh6nLVfhUqTO2xMDH-0fbhmvxrWe-6UdHYA.jpg?auto=webp&8698f7ae
credo ci sia margine di miglioramento da quel punto di vista :asd:
Per l'impiego beh si pare che non vadano bene per tutto. Lui parla di operazioni che hanno una forte componente di calcoli paralleli, che sono esattamente quello che avviene nel raytracing ad esempio (motivo per cui le gpu sono cosí superiori alle cpu), quindi mi chiedo se comunque in futuro potremmo vedere qualche applicazione piú "casalinga" anche per computer quantistici.
Ovviamente non é che penso tra qualche anno eh :asd: Mi immagino un futuro dove una "processing unit" quantistica si potrá installare come si installa oggi una scheda video, tipo acceleratore :sisi:
Bravo! Chi vuole un lampadario a valvole in casa?
https://i.redd.it/4d12756o2mvz.jpg
Ma è belliFFimo! :vojo::commosso:
vabbé delle dimensioni non mi preoccuperei troppo visto che questo era un hdd da 5mb nel 1956
https://external-preview.redd.it/_UA5fKBjOh6nLVfhUqTO2xMDH-0fbhmvxrWe-6UdHYA.jpg?auto=webp&8698f7ae
credo ci sia margine di miglioramento da quel punto di vista :asd:
Per l'impiego beh si pare che non vadano bene per tutto. Lui parla di operazioni che hanno una forte componente di calcoli paralleli, che sono esattamente quello che avviene nel raytracing ad esempio (motivo per cui le gpu sono cosí superiori alle cpu), quindi mi chiedo se comunque in futuro potremmo vedere qualche applicazione piú "casalinga" anche per computer quantistici.
Ovviamente non é che penso tra qualche anno eh :asd: Mi immagino un futuro dove una "processing unit" quantistica si potrá installare come si installa oggi una scheda video, tipo acceleratore :sisi:
la vedo dura, a meno che non inventino materiali nuovi/miracoclosi. i chip di quei computer devono stare a temperature vicine allo zero assoluto. da quel che so, tutto quell'apparato che si vede all'esterno serve solo per il raffreddamento del processore.
Già. I "chip" sono già ragionevolmente piccoli... è tutto l'apparato per farli funzionare che è problematico.
boh, vedremo. La foto che ho postato dell'HDD che sembra un armadio era di quasi 80 anni fa, sono abbastanza sicuro che tra 80 o é cambiata completamente tecnologia o avranno risolto i problemi delle dimensioni :sisi:
I sistemi di refrigerazione estremi quanto si son miniaturizzati negli ultimi decenni?
boh, vedremo. La foto che ho postato dell'HDD che sembra un armadio era di quasi 80 anni fa, sono abbastanza sicuro che tra 80 o é cambiata completamente tecnologia o avranno risolto i problemi delle dimensioni :sisi:
non ci resta che aspettare per vedere :bua:
I sistemi di refrigerazione estremi quanto si son miniaturizzati negli ultimi decenni?
non ne ho idea, ma sono sicuro che nel momento arrivasse una domanda per tecnologie di massa si miniaturizzerebbero molto velocemente :sisi:
- - - Aggiornato - - -
non ci resta che aspettare per vedere :bua:
spero un po' meno di 80 anni :asd:
non ne ho idea, ma sono sicuro che nel momento arrivasse una domanda per tecnologie di massa si miniaturizzerebbero molto velocemente :sisi:
Dadocoso in questa casa obbediamo alle leggi della termodinamica.
:asd:
La domanda c'è da decenni.
Probabilmente avremmo già risolto la fusione.
mi pare abbiamo giá avuto conversazioni del genere. Non voglio andare contro le leggi della termodinamica, ma sono abbastanza certo che quando hanno fatto i primi computer c'erano discorsi simili quando qualcuno ipotizzava di poterli usare in casa. Oggi li fanno entrare nei cellulari, con potenze e memorie migliaia di volte piú alte di quell'armadio :asd:
Poi GeeGeeOH, non te la prendere, sicuramente sbaglio io, peró non capisco una cosa. Nella pagina scorsa, in risposta al post di Wetall che mostrava un computer quantistico gigante e quindi poco pratico da mettere in casa hai scritto:
Vabbeh che pure i primi computar a transistor erano dei mostri.
Ma qui il "problema" è il lavoro che si fa con questi che è molto "diverso".
Non so se ho interpretato male il messaggio, ma ho inteso che, come per i primi computer anche qui probabilmente le dimensioni diminuiranno. Ora che l'ho detto anche io dici che é impossibile risolvere il problema delle dimensioni. Scusa ma a volte ho l'impressione tu ti diverta a dire il contrario di quello che dico io :asd:
La fusione non é possibile oggi, lo sará un giorno. La tecnologia avanza... non sono uno di quelli che pensa che di impossibile non c'é nulla (anzi, mi stanno abbastanza sulle palle) e credo che viviamo nel mondo fisico, ma la storia ci ha anche insegnato che quello che una volta era "magia" o "fantascienza", oggi é semplice scienza. E questi salti diventano sempre piú brevi, visto che come usiamo oggi i telefoni cellulari non era altro che fantascienza fino a 30-40 anni fa.
Quindi, non é che mi aspetto di usare i computer quantistici tra un paio d'anni per fare i rendering di blender, ma se la tecnologia quantistica avrá degli interessi a livello pratico per le masse, state tranquilli che prima o poi troveranno il modo di sfruttarli :sisi:
Quello che dicevo li, più che altro, era che non mi pongo nemmeno il problema che sia fattibile una riduzione del genere, perché quello non penso sia proprio il vero problema in questo caso.
Ma se ci poniamo il problema, penso siano cazzi e che i transistor facciano storia a se stante e non regola generale.
Generalmente trovo alquanto fallace ragionare col presupposto che visto che in passato abbiamo risolto problemi simili, si possa andare avanti all'infinito.
Ci possiamo sbagliare su quali siano i limiti, ma i limiti esistono.
il vero botto sarà i.a.+computer quantistici evoluti (in ogni campo). nel nostro caso, con linee veloci magari non servirà tenere manco più hardware a casa che non sia per la connessione a farm di supercomputer quantistici per avere sempre il top del top :sbav:
Ecco, se ne volete comprare uno:
https://www.youtube.com/watch?v=60OkanvToFI
:asd:
La scheda col processore in sè è già più piccola di una 3090, il problema è solo il raffreddamento. :bua:
E quello non puoi miniaturizzarlo più di tanto, perchè la richiesta di raffreddamento (come anche di riscaldamento) esiste già da decenni e non solo in ambito PC: se bastasse quella per ottenere la miniaturizzazione oggi non avremmo dissipatori su cui devi pagarci l'IMU. :bua:
E i chip quantistici non vanno raffreddati perchè scaldano più di 4090Ti (quando uscirà), ma perchè hanno bisogno che le particelle non facciano il cazzo che vogliono, cosa che succederebbe a temperatura ambiente. :asd:
il vero botto sarà i.a.+computer quantistici evoluti (in ogni campo). nel nostro caso, con linee veloci magari non servirà tenere manco più hardware a casa che non sia per la connessione a farm di supercomputer quantistici per avere sempre il top del top :sbav:
si questo sono convinto anche io che sia una rivoluzione relativamente vicina nel tempo. Sono giá un paio d'anni che dico che nel giro di 10 anni sará normale avere solo un computer "client", ma che in realtá tutto il lavoro sará fatto in cloud. Dopotutto giá ora ci sono tante soluzioni sia per il gaming che per mercato professionale.
Certo, anche i computer dall'altra parte funzionano con la tecnologia esistente, peró giá il fatto di non dover necessariamente sviluppare tecnologie che devono entrare nella casa di ognuno cambia un po' le regole del gioco
Li la latenza è un altra bella rogna da risolvere.
Il problema non son tanto le connessioni ma l'infrastruttura del internet e questa non la si rivoluziona così rapidamente.
Li la latenza è un altra bella rogna da risolvere.
Il problema non son tanto le connessioni ma l'infrastruttura del internet e questa non la si rivoluziona così rapidamente.
Concordo, la latenza é da migliorare ed é l'anello debole della catena. Comunque calcola sto lavorando in questo istante da un portatile in Italia collegato a un fisso in Polonia, entrambi su normali linee internet casalinghe. Non ci giocherei a un simulatore di guida, ma per lavoro é giá godibilissimo con circa 40-50ms di latenza (su wifi). Non la vedo cosí impossibile specialmente mettendo il cloud su infrastrutture ad hoc invece che su una linea casalinga.
https://www.youtube.com/watch?v=ajDUIJalxis
https://www.youtube.com/watch?v=hBFNoKUHjcg
guru3d - AMD Ryzen 7 5800X3D review (https://www.guru3d.com/articles-pages/amd-ryzen-7-5800x3d-review,1.html)
sapete che marca è la KFA2? la 3080 a 12 giga viene 1099 euro su drako
nella generazione passata era molto buona, soprattutto a prestazioni
con l'odierna, non lo so
è una di quelle che si filano in pochi perchè ha un nome poco conosciuto
cmq in tempo di carestia, farei poco lo schizzinoso: io a luglio scorso ho preso una xfx...
immagno che ora che esce la serie 4000 scenderanno ancora
non sono schizzinoso :) , ma spendere 1000 euro per un oggetto di cui non conosco la marca (e magari si spacca dopo 2 giorni) mi fa sentire un tremito nella forza.
Comunque coma alimentatore ho un Corsair CX650M mi basta o devo prenderne uno piu' "Grosso"?
CPU? Se hai un Intel K potrebbe non bastare.
Hanno dei picchi da paura.
non sono schizzinoso :) , ma spendere 1000 euro per un oggetto di cui non conosco la marca (e magari si spacca dopo 2 giorni) mi fa sentire un tremito nella forza.
Comunque coma alimentatore ho un Corsair CX650M mi basta o devo prenderne uno piu' "Grosso"?
meglio KFA che xfx
a mio parere
non credo che esistano schede che si rompono dopo 2 giorni: possono avere più o meno efficienza, miglior dissipazione del calore quindi alla lunga meno "usura", più o meno silenziosa, ma carrette no
poi c'è il discorso assistenza in caso di problemi
ho quasi sempre avuto asus o sapphire (e una gigabyte, qualche generazione fa), xfx in tempi normali non l'avrei considerata, però devo dire che per adesso (:look:) il suo lo fa, senza lucine, lucette e cazzi gheimers vari
CPU? Se hai un Intel K potrebbe non bastare.
Hanno dei picchi da paura.
ho una i7 8700K
ho una i7 8700K
Dovresti essere a posto, son le serie 9, 10 ed 11 dove hanno veramente cagato fuori dal vaso.
Nyarlathotep
19-04-22, 17:40
Beh io ho preso una "Manli" 3070, pare funzionare bene e l'ho presa per circa 670 euro (su BPM power). Credo che di questi tempi anche le marche minori siano molto più accettabili.
Scusate ma che ha la XFX che non va? Io mi ricordo che andavano MOLTO bene costando il giusto
Ovviamente dipende sempre da modello a modello, ma era una marca che in Italia non era conosciutissima, ma apprezzata all'estero.
Scusate ma che ha la XFX che non va? Io mi ricordo che andavano MOLTO bene costando il giusto
Ovviamente dipende sempre da modello a modello, ma era una marca che in Italia non era conosciutissima, ma apprezzata all'estero.
sono molto spartane: non che me ne freghi, anzi, però sono parallelepipedi di plastica
come marca non è molto rinomata, ma pare vada bene
è un po' rumorosa a pieno regime, ma per il resto è ok
la differenza tra marca e marca si vede sulla lunga distanza e in caso di problemi (:tie:): presa a luglio su amazon a 700€, è una 6700xt
La mia RX580, ultima scheda video da pc fisso, era della XFX e prima ancora credo di aver comprato la prima geforce 256 o la 460 (ma non ricordo bene il modello e sigla) di marca XFX
Ne ho avute 2 e andavano molto bene. La 580 non era rumorosa, ma ansimava: Modello GTS XXX Edition
meglio, visto che mi sa che deve durare tanto, sapere di esperienze positive mi rincuora :sisi:
Alla fine la ho comprata e sto aspettando che mi arrivi.
Nel caso mi servisse un nuovo alimentatore per sostituire il mio (corsair CX650M) va bene un 750 o meglio puntare al 850?
Le varie sigle hx, rm, ecc.. dei corsair cosa significano?
Ci sono marche migliori (magari a prezzi inferiori)?
Grazie
io ho un corsair RM 650x
mi ricordo che la serie RM e basta (senza x) fosse da evitare
sono ormai parecchi anni che ce l'ho, mi pare 7 o 8
Non dovresti aver problemi con quella combo CPU e GPU.
Marche migliori a prezzi inferiori dei Corsair non credo.
WhiteMason
02-05-22, 18:41
Vediamo, c'è ancora un po' di attività qui...? :asd:
Non seguo più il mercato, quindi non saprei... nella fascia entry-level, quella che una volta aveva schede video con dissipatore passivo, poca performance etc... ora che modelli ci sono?
(E dove potrei fare un confronto con una 5770 tipo...?)
Inviato dal mio KIW-L21 utilizzando Tapatalk
Necronomicon
02-05-22, 18:43
Io sto ancora aspettando di comprare una scheda più potente della R9 280 da 3 GB :asd:
WhiteMason
02-05-22, 18:45
Editato sopra!
Inviato dal mio KIW-L21 utilizzando Tapatalk
Dici HD 5770 del 2009?
Penso che una RX 6400 uscita qualche mese fa sia 2-3 volte più potente...
WhiteMason
02-05-22, 19:24
Dici HD 5770 del 2009?
Penso che una RX 6400 uscita qualche mese fa sia 2-3 volte più potente...
:bua:
Sì, HD 5770... :asd: Vedo che è già una scheda mid-range anche oltre i 200 €... la fascia più bassa cosa propone?
:asd: Beata ignoranza.
Con la pandemia i prezzi sono e s p l o s i .
La RX 6400 è la scheda di fascia più bassa che ci sia.
Una fascia media oramai son 4-500€, non 200€.
A spanne, per AMD, le cose dovrebbero essere circa così:
RX 6400 - 170€
RX 6500XT - 200€
RX 6600 - 350€
RX 6600XT - 450€
RX 6700XT - 650€
RX 6800 - 900k €
RX 6800XT - 1000€
RX 6900XT - 1100€
L'analoga alla tua 5770, cioè medio alta, una Rx 6700XT non penso la trovi a meno di 600€.
[Più di quanto ho speso per la Rx 6800, presa al lancio con tanto culo direttamente dal sito AMD senza rincari a 580€]
Fai conto che per giocare non andrei sotto la Rx 6600.
Sotto, se hai fortuna, c'è l'usato.
NVidia è pure peggio.
Ed i prezzi si son abbassati ultimamente eh!
ma la serie 4000 quando la cacciano?
GeForce 900, metà settembre 2014.
GeForce 1000, fine maggio 2016.
GeForce 2000, metà settembre 2018.
GeForce 3000, metà settembre 2020.
GeForce 4000, settembre 2022 ?
Rx 400, fine giugno 2016
Rx Vega, metà agosto 2017
Rx 5000, primi di luglio 2019.
Rx 6000, metà novembre 2020.
Rx 7000, fine 2022 ?
ma la serie 4000 quando la cacciano?
Si presume a settembre. Poi ci sarà da ridere coi prezzi.
A stò giro però accadrà una cosa curiosa: resteranno sul mercato ancora anche con la serie 3000. Idealmente quest'ultima dovrebbe calare ulteriormente e la serie 4000 costare come le 3000 adesso ma qualcosa mi dice che i prezzi delle 3000 si stabilizzeranno e le 4000 daranno nuova spinta al mercato illegale degli organi.
speravo prima, cmq le 3000 imho scenderanno per forza di cose e tanti si rifugeranno lì. con una 3060 si è cmq a posto per anni e anni se non si vuole il 4k
WhiteMason
03-05-22, 10:28
:asd: Beata ignoranza.
Con la pandemia i prezzi sono e s p l o s i .
La RX 6400 è la scheda di fascia più bassa che ci sia.
Una fascia media oramai son 4-500€, non 200€.
A spanne, per AMD, le cose dovrebbero essere circa così:
RX 6400 - 170€
RX 6500XT - 200€
RX 6600 - 350€
RX 6600XT - 450€
RX 6700XT - 650€
RX 6800 - 900k €
RX 6800XT - 1000€
RX 6900XT - 1100€
L'analoga alla tua 5770, cioè medio alta, una Rx 6700XT non penso la trovi a meno di 600€.
[Più di quanto ho speso per la Rx 6800, presa al lancio con tanto culo direttamente dal sito AMD senza rincari a 580€]
Fai conto che per giocare non andrei sotto la Rx 6600.
Sotto, se hai fortuna, c'è l'usato.
NVidia è pure peggio.
Ed i prezzi si son abbassati ultimamente eh!
:bua: Sapevo dell'aumento dei prezzi, ma non pensavo interessasse così tanto anche la fascia bassa... :bua:
Ancora più in basso comunque: non c'è nulla in vendita che abbia le stesse prestazioni della vecchia 5770...? :asd:
Non saprei, tipo la fascia bassa della generazione precedente...?
Inviato dal mio KIW-L21 utilizzando Tapatalk
Non saprei, tipo la faacia bassa della generazione precedente...?Ripeto:
Sotto, se hai fortuna, c'è l'usato.Auguri.
Vista l' epopea che ho dovuto fare per prendere la rtx 3070 più o meno un annetto fa,quanto mi durerà ancora in 2k? Il resto è un ryzen 7 3800x e 32 gb di ram
Inviato dal mio ASUS_Z01GS utilizzando Tapatalk
Dipende dai giochi e dai settaggi/pretese.
4k, RT e 120fps? Probabilmente è già da buttare :asd:
Ma realisticamente uno può usarla fino alle prossime console...
Più che la scheda video terrei d'occhio i prezzi dei 5800X, se c'è un BIOS per la MoBo, potrebbe estendere la vita di quel PC di un paio d'anni senza toccare altro.
Dipende dai giochi e dai settaggi/pretese.
4k, RT e 120fps? Probabilmente è già da buttare :asd:
Ma realisticamente uno può usarla fino alle prossime console...
Più che la scheda video terrei d'occhio i prezzi dei 5800X, se c'è un BIOS per la MoBo, potrebbe estendere la vita di quel PC di un paio d'anni senza toccare altro.Ho un monitor 2k a 60hz quindi del 4k non mi interessa [emoji23][emoji23] ..per il momento non sto avendo problemi,anche cyberpunk in 2k tutto al massimo con ray tracing quasi al massimo e dlss su bilanciato mi girava tra 50 e 60 fps a seconda delle zone.grazie per il consiglio sulle Cpu,la mia MoBo dovrebbe supportarla,più in là ci potrei fare un pensierino
Inviato dal mio ASUS_Z01GS utilizzando Tapatalk
WhiteMason
03-05-22, 16:20
Ripeto:
Auguri.
Asd, come si chiama la serie precedente, o quella precedente ancora? :bua:
Inviato dal mio KIW-L21 utilizzando Tapatalk
Asd, come si chiama la serie precedente, o quella precedente ancora? :bua:
Inviato dal mio KIW-L21 utilizzando TapatalkYou are not paying attention:
GeForce 900, metà settembre 2014.
GeForce 1000, fine maggio 2016.
GeForce 2000, metà settembre 2018.
GeForce 3000, metà settembre 2020.
GeForce 4000, settembre 2022 ?
Rx 400, fine giugno 2016
Rx Vega, metà agosto 2017
Rx 5000, primi di luglio 2019.
Rx 6000, metà novembre 2020.
Rx 7000, fine 2022 ?
speravo prima, cmq le 3000 imho scenderanno per forza di cose e tanti si rifugeranno lì. con una 3060 si è cmq a posto per anni e anni se non si vuole il 4k
Dalla cina ci sono ancora forti venti di crisi produttiva. Non mi aspetto calino ancora più di tanto.
WhiteMason
04-05-22, 09:42
You are not paying attention:
Ah, sì, asd, da mobile mi era sfuggito l'elenco, top Gee :sisi:
Inviato dal mio KIW-L21 utilizzando Tapatalk
domanda niubba, ma l'audio che esce dalle casse del monitor che è collegato via display port viene dalla scheda audio integrata nella mobo e passa alla geforce infine al monitor? O è la scheda video che si gestisce il tutto? Noto infatti che quando passo dalle cuffie al monitor anziché usare realtek, usa nvidia high definition audio, con i suoi drivers a parte.
Penso proprio dalla scheda video.
Basta guardare il nome del device li del controllo volume.
AMD Releases Radeon RX 6950 XT, 6750 XT, and 6650 XT: A Bit More Speed For Spring (https://www.anandtech.com/show/17381/amd-releases-radeon-rx-6950-xt-6750-xt-and-6650-xt)
Intel: Desktop Arc A-Series Launch Now Staggers in to Q3'22 (https://www.anandtech.com/show/17383/intel-desktop-arc-a-series-launch-now-staggers-in-to-q322)
Intel sta sprecando il miglior momento nella storia per lanciare le sue GPU...
Intel: Desktop Arc A-Series Launch Now Staggers in to Q3'22 (https://www.anandtech.com/show/17383/intel-desktop-arc-a-series-launch-now-staggers-in-to-q322)
Intel sta sprecando il miglior momento nella storia per lanciare le sue GPU...
Si e no. Intel dovrebbe presentare un bel po' di modelli per la fascia medio-bassa, per ora sembra punti più su quella quindi alla fine non è nemmeno in diretta concorrenza con AMD e Nvidia che continuano a sparare altissimo con potenza bruta e soprattutto prezzi. A stò punto un po' di ritardo gli cambia poco vista l'oscenità delle proposte altrui nella fascia bassa.
AMD Ryzen 7000 Announced: 16 Cores of Zen 4, Plus PCIe 5 and DDR5 for Socket AM5, Coming This Fall (https://www.anandtech.com/show/17399/amd-ryzen-7000-announced-zen4-pcie5-ddr5-am5-coming-fall)
https://images.anandtech.com/doci/17399/AMD%20Computex%202022%20Slide%20Deck%206_575px.JPG
https://images.anandtech.com/doci/17399/AMD%20Computex%202022%20Slide%20Deck%207_575px.JPG
Di base saranno APU con RDNA2 in quanto la GPU è integrata nel I/O die a 6nm.
Poi sicuramente, come fa Intel, ci saranno modelli dove è disattivata.
https://images.anandtech.com/doci/17399/AMD%20Computex%202022%20Slide%20Deck%209_575px.JPG
https://images.anandtech.com/doci/17399/AMD%20Computex%202022%20Slide%20Deck%2010_575px.JP G
sembrano buone, resta de vedere se il confronto con la serie 4000 di nvidia le premierà o sarà impietoso, soprattutto lato ray tracing.
Non ricordo se i nuovi Ryzen Desktop avranno tutti la chace 3D "d'ufficio" o se resterà confinata in CPU ad hoc
Non ricordo se i nuovi Ryzen Desktop avranno tutti la chace 3D "d'ufficio" o se resterà confinata in CPU ad hocHanno parlato solo di cache L2, nulla di L3 ed oltre.
Quasi sicuramente sarà solo per versioni ad hoc.
- - - Aggiornato - - -
sembrano buone, resta de vedere se il confronto con la serie 4000 di nvidia le premierà o sarà impietoso, soprattutto lato ray tracing.E' grafica integrata che assieme alla CPU consuma una frazione di quello che ciucciano le GPU dedicate, due campionati differenti.
ops mea culpa. sarà che ormai sono fissato con le schede video che devono uscire e vedo solo quelle pure dove non ci stanno :bua:
AMD RDNA 3/Navi 3X GPU Update: 50% Better Perf-Per-Watt, Using Chiplets For First Time (https://www.anandtech.com/show/17444/amd-rdnanavi-3x-update-50-better-perfperwatt-using-chiplets-for-first-time)
AMD’s 2022-2024 Client GPU Roadmap: RDNA 3 This Year, RDNA 4 Lands in 2024 (https://www.anandtech.com/show/17443/amds-client-gpu-roadmap-rdna-3-this-year-rdna-4-lands-in-2024)
RDNA3 quest'anno (poi magari effettivamente sugli scaffali il prossimo).
Salto d'efficienza simile a RDNA > RDNA2
Chiplets!!!
se al Perf-Per-Watt aggiungeranno Non-Cost-Com-Una-Casa , allora forse forse cambio marchio e ritorno a radeon dopo 20 anni senza comprarne una.
se al Perf-Per-Watt aggiungeranno Non-Cost-Com-Una-Casa
Questa è bella :asd:
Ma temo che fino a fine 2023 non avremo prezzi umani. In cina tira ancora una brutta aria a quanto pare.
Se non altro i prezzi dell'usato son calati parecchio e se disgraziatamente succedesse qualcosa alla 660 sotto i 200 euro si trova parecchia roba oramai.
Ragazzi ho preso una 3080. Oggi mi dovrebbe arrivare. Dal giorno che l'ho comprata mi cago addosso dall'emozione. Al momento ho una 1060 e passerò a un 1440p 21:9.
È il suo prezzo
Inviato dal mio M2101K9G utilizzando Tapatalk
Necronomicon
13-06-22, 09:57
C'è ancora da star dietro ai bot per cambiare scheda o si riescono a comprare liberamente nei vari negozi dedicati?
C'è ancora da star dietro ai bot per cambiare scheda o si riescono a comprare liberamente nei vari negozi dedicati?
Si trovano abbastanza facilmente ora. Il problema è beccare l'offerta vicina all'msrp. Per quello devi star dietro a gruppi telegram etc.
Necronomicon
13-06-22, 12:54
E' che prima della pandemia pensavo di tirar avanti con una scheda da poco ma ormai è ora di rifare tutto il pc :asd:
C'è qualcuno di affidabile nel mercato "pre-assemblato" che mi lasci scegliere roba di qualità o è meglio ordinare pezzo per pezzo?
io ho appena ordinato da pc specialist, quello di Avalon dopo due anni non s'è più fatto sentire
io ho appena ordinato da pc specialist, quello di Avalon dopo due anni non s'è più fatto sentireCredo abbia chiuso
Inviato dal mio M2101K9G utilizzando Tapatalk
E' che prima della pandemia pensavo di tirar avanti con una scheda da poco ma ormai è ora di rifare tutto il pc :asd:
C'è qualcuno di affidabile nel mercato "pre-assemblato" che mi lasci scegliere roba di qualità o è meglio ordinare pezzo per pezzo?
Avevo linkato un po' di negozi qualche tempo fa, non ricordo in che thread.
io ho messo nei preferiti, in attesa di tempi migliori, 'sti qua
https://www.pcspecialist.it/pc-personalizzato/
https://nzxt.com/it-DE/category/gaming-pcs/build
ma mi sa che a meno di differenze eclatanti nei prezzi andrò in un negozio fisico, che se ci sono problemi all'arrivo almeno si risolve facile
Andando a memoria: AFK Store, Drako, PC Hunter, Trippodo, AK Informatica e pcspecialist
Necronomicon
13-06-22, 21:35
io ho messo nei preferiti, in attesa di tempi migliori, 'sti qua
https://www.pcspecialist.it/pc-personalizzato/
https://nzxt.com/it-DE/category/gaming-pcs/build
ma mi sa che a meno di differenze eclatanti nei prezzi andrò in un negozio fisico, che se ci sono problemi all'arrivo almeno si risolve facile
In pc specialist ti dicono se fai cazzate nel selezionare le robe? Perché insomma, uno può spendere 2500 euro di computer e comunque metterci solo 4 gb di ram, sarà mica normale il loro menù :asd:
In pc specialist ti dicono se fai cazzate nel selezionare le robe? Perché insomma, uno può spendere 2500 euro di computer e comunque metterci solo 4 gb di ram, sarà mica normale il loro menù :asd:
Bhè tecnicamente il PC funziona, non è un prolema loro :asd:
In pc specialist ti dicono se fai cazzate nel selezionare le robe? Perché insomma, uno può spendere 2500 euro di computer e comunque metterci solo 4 gb di ram, sarà mica normale il loro menù :asd:
Posta la specifica sul forum del sito e ti aiutano. Io ho fatto così.
Andando a memoria: AFK Store, Drako, PC Hunter, Trippodo, AK Informatica e pcspecialist
drako e ak sono rapinatori con partita iva :bua:
io compro su bpm-power, ma non credo abbiano pre assemblati
in che senso rapinatori? Io stavo meditando sul prenderci due cose prima o poi...
drako e ak sono rapinatori con partita iva :bua:
Bhè tieni anche conto che:
1- Amazon fa storia a sè coi prezzi
2- Quelli con prezzi particolarmente bassi è facile seguano la via del defunto e-key
in che senso rapinatori? Io stavo meditando sul prenderci due cose prima o poi...
sono carissimi...
da bpm-power compro da anni, mai avuto problemi
ma in genere, mi capita di prendere roba da più siti, quando devo fare un pc nuovo
sempre ovviamente calcolando la convenienza del risparmio con le spese di spedizione
però su bpm di solito trovo tutto
Necronomicon
14-06-22, 09:56
Sarei perfettamente in grado di assemblare un pc, ma non avendolo mai fatto ho qualche dubbio sulla pasta termica e le ventole necessarie, insomma, troppa ricerca da fare :asd:
drako e ak sono rapinatori con partita iva :bua:
io compro su bpm-power, ma non credo abbiano pre assemblatiMa infatti. Stanno mediamente 300€ in più rispetto agli altri...paiono i prezzi delle schede video di 18 mesi fa
Inviato dal mio moto g200 5G utilizzando Tapatalk
Sarei perfettamente in grado di assemblare un pc, ma non avendolo mai fatto ho qualche dubbio sulla pasta termica e le ventole necessarie, insomma, troppa ricerca da fare :asd:
Stesso mio problema, per questo pago e bon. :asd:
Sarei perfettamente in grado di assemblare un pc, ma non avendolo mai fatto ho qualche dubbio sulla pasta termica e le ventole necessarie, insomma, troppa ricerca da fare :asd:
se prendi un dissipatore after stock (e dovresti farlo :snob:) la pasta termica è compresa: vai su un noctua e non sbagli
per le ventole non capisco il problema, se ti vanno bene quelle fornite col case, basta attaccare i connettori alla scheda madre (o all'aggeggio che controlla le ventole e che non mi ricordo mai come si chiama :asd:)
cmq ci vuole tempo, capisco chi non ha voglia di farlo per conto proprio, l'importante, per me, è avere la possibilità di scegliere ogni singolo componente (pure le ventole del case, sono cultore del silenzio assoluto)
quindi, prendo "i pezzi" e me li monto
difficilmente cambio tutto il pc in un botto solo
una volta facevo anch'io così, i pc subivano tanti di quei cambiamenti da arrivare al punto che nel case non ci entrava questo, l'alimentatore non era potente per quello, una fatica che non rimpiango...
Mi sono reso conto che i vari componenti sentono il peso dell'età più o meno tutti insieme, se li compri tutti ben "allineati".
Negli ultimi due pc infatti non ho fatto grandi upgrade, nel penultimo solo scheda video e ram.
E nell'ultimo ho solo aggiunto due banchi di ram, e credo che me lo terrò così fino al compimento del suo 10° compleanno e se non c'è grano in abbondanza anche oltre.
Di base le schede video gaming marciano un ritmo ben diverso del resto del PC...
HDD ed SSD possono vivere per almeno un paio di cicli di CPU+MoBo+RAM, se non più.
Alimentatori idem, uno da 520W classe 2012 ha appena trovato un nuovo PC da alimentare, per quanto non più un PC serio da gaming.
Il case del PC di mio fratello credo sia al quinto upgrade "totale"... le porte USB2 sul frontale, sostituite da USB 3 e C nel primo slot 5.25".
questa di cambiare le porte è interessante, quando ho visto lasciare case in perfette condizioni estetiche mi ha fatto un po' tristezza... Ci devo provare prima o poi!
La rogna è che costano, val la pena solo se hai un case "premium" che ancora merita...
- - - Aggiornato - - -
AMD Plans Late-October or Early-November Debut of RDNA3 with Radeon RX 7000 Series (https://www.techpowerup.com/295833/amd-plans-late-october-or-early-november-debut-of-rdna3-with-radeon-rx-7000-series)
azz, come certi ricambi per le auto hehe... Aspettiamo il prossimo giro, usb5 ,pci 6 e nel frattempo gen 20...
Don Zauker
19-06-22, 18:51
Spiegatemi questo: nVidia 1080 Ti, da qualche giorno vedo righe verdi orizzontali e sotto
3DMark spesso il monitor si spegne.
Cambio da HDMI a DisplayPort e i problemi spariscono.
Già provato a cambiare cavo hdmi e usata altra sorgente per testare il monitor (nessun problema).
Sk video che sta salutando ?
Spiegatemi questo: nVidia 1080 Ti, da qualche giorno vedo righe verdi orizzontali e sotto
3DMark spesso il monitor si spegne.
Cambio da HDMI a DisplayPort e i problemi spariscono.
Già provato a cambiare cavo hdmi e usata altra sorgente per testare il monitor (nessun problema).
Sk video che sta salutando ?
Controlla che le ventole girino: potrebbe essere un surriscaldamento della RAM o della GPU. :uhm:
Don Zauker
19-06-22, 19:55
Controlla che le ventole girino: potrebbe essere un surriscaldamento della RAM o della GPU. :uhm:
Controllato tutto, pulito tutto da polvere e roba varia, le ventole girano regolarmente, ho anche provato con ventole settate in manuale al 100%.
Dal pannello di gestione vedo temperature in linea con gli standard.
Non capisco perché solo l’hdmi sembra soffrire di questo problema.
Sarà il controller HDMI ad aver problemi...
Vai di cavo DP ed amen.
Don Zauker
19-06-22, 20:59
Sarà il controller HDMI ad aver problemi...
Vai di cavo DP ed amen.
Speriamo si limiti a quello. Novoja di comprare una nuova sk video ora.
Comunque... DP è solitamente preferibile ad HDMI...
Vai di cavo DP ed amen.
Che è pure meglio. :sisi:
EDIT:
Comunque... DP è solitamente preferibile ad HDMI...Ecco, infatti. :sisi:
Collapse of crypto mining industry leads to auctioning off of thousands of graphics cards (https://www.guru3d.com/news-story/collapse-of-crypto-mining-industry-leads-to-auctioning-off-of-thousands-of-graphics-cards.html)
Gli devono rimanere tutte sul groppone [emoji4]
Inviato dal mio RMX3363 utilizzando Tapatalk
i prezzi si stanno avvicinando al prezzo di vendita al lancio... di 2 anni fa...
in ogni modo, se uno vdeve cambiare, almeno non si svena
esattamente un anno fa pagai la 6700xt 700€...
poi in autunno la nuova gen (almeno di fascia alta), potrebbe far calare ancora i prezzi: che diciamocelo, con la su citata scheda, gioco a 1440p a 90/100 fps, dipende dai giochi, ma mai sotto gli 80fps a dettagli massimi
onestamente, di una scheda più potente (visto anche che all'orizzonte nuove tecnologie innovative non ce ne sono e si tratterà di maggior forza bruta), coi giochi di oggi non me ne farei di una ceppa di nulla
poi se per contratto iniziano a fare i giochi poco ottimizzati e che gireranno ad cazzum, non lo so :bua:
invece della putenza, dovrebbero ottimizzare il rapporto forza/consumi, ma mi sembra che si vada a peggiorare di brutto
Le indiscrezioni sulle nuove generazioni puntano a più potenza ma con più consumi, quindi marginali se non nulli miglioramenti dell'efficienza.
Il problema resta ancora nella fascia bassa, che deve necessariamente scendere sotto i 250 euro. Mi riferisco alla 3050 che costa ancora troppo.
E comprati una 3060? Di recente ho visto altri video che mostrano vecchi pc con 3060 e 3070, nei giochi recenti ci sono colli di bottiglia paurosi...
https://www.youtube.com/watch?v=wnRyyCsuHFQ
Le indiscrezioni sulle nuove generazioni puntano a più potenza ma con più consumi, quindi marginali se non nulli miglioramenti dell'efficienza.
appunto
tra l'altro, potenza, per me, al momento inutile: se a dettagli massimi vado a 100fps, prima di arrivare a non poter sostenere i 60fps a dettagli alti, direi che ho tempo per la generazione del 2024
che poi, prima di passare alla 590, la 970 mi faceva sui 50fps coi giochi recenti a 1080 e me li son goduti lo stesso :caffe:
Le indiscrezioni sulle nuove generazioni puntano a più potenza ma con più consumi, quindi marginali se non nulli miglioramenti dell'efficienza.
Per Nvidia sicuramente, si parla di consumi mostruosi. Per RDNA 3 nelle solite slide AMD aveva sottolineato anche quanto han lavorato sull'efficenza. Staremo a vedere
Il problema resta ancora nella fascia bassa, che deve necessariamente scendere sotto i 250 euro. Mi riferisco alla 3050 che costa ancora troppo.
Solito discorso: dipende cosa intendi per fascia bassa. Oramai le cose stanno cambiando, e parecchio. Presumibilmente le prossime 4060 (per non parlare del modello Ti che faran sicuramente) saranno schede in grado di gestire il 2K, o WQHD che dir si voglia, avrà senso considerarle ancora fascia media o oramai mettiamo pure quelle in fascia alta ? E le 4050, se le faranno, come andranno ? Oramai variando risoluzioni ed utilizzando DLSS, FFX, Ray Tracing, etc. le prestazioni variano notevolmente. La classificazione non è più lineare come prima. Avrebbe più senso parlare di fascia "economica" ma alla fine con la crisi ed i rincari pure i prezzi son sballati. Sta diventando un caos.
- - - Aggiornato - - -
appunto
tra l'altro, potenza, per me, al momento inutile: se a dettagli massimi vado a 100fps, prima di arrivare a non poter sostenere i 60fps a dettagli alti, direi che ho tempo per la generazione del 2024
che poi, prima di passare alla 590, la 970 mi faceva sui 50fps coi giochi recenti a 1080 e me li son goduti lo stesso :caffe:
Perchè tu ragioni sui 60 fps. Oramai in molti sono passati a frame maggiori, 90, 120.... Conosco gente che dice di non riuscire più a giocare sotto i 90 fps, sente il gioco meno fluido.
può essere, ma per adesso ragiono sui 100 di media di AC Valhalla (secondo il contatore di amd) e ai 120 di mafia definitive edition :asd:
sono lontano dai 60 (limite mio), per questo dicevo, o mi tirano fuori qualcosa di irrinuciabile, o questa generazione la salterò (come ho saltato la 1xxx e con la 2xxx sono passato ad amd e la rx590)
Se si vuol spingere veramente il RT la potenza necessaria è almeno ancora un ordine di grandezza in la...
Necronomicon
22-06-22, 12:32
Francamente a me va bene giocare ancora sullo schermo FullHD, a quella risoluzione oltre una certa tipologia di schede son soldi buttati
Se si vuol spingere veramente il RT la potenza necessaria è almeno ancora un ordine di grandezza in la...
Si ma se continuano a spingere in tal senso senza badare ai consumi per le 5000 pasas direttamente l'Enel a farti un allacciamento a parte per il PC.
- - - Aggiornato - - -
Francamente a me va bene giocare ancora sullo schermo FullHD, a quella risoluzione oltre una certa tipologia di schede son soldi buttati
Anche il FullHD se cominci a piazzarci il RT ha il suo peso.
Powered by vBulletin® Version 4.2.5 Copyright © 2025 vBulletin Solutions Inc. All rights reserved.