Visualizza Versione Completa : Il Circolino di Schede Video
Francamente a me va bene giocare ancora sullo schermo FullHD, a quella risoluzione oltre una certa tipologia di schede son soldi buttati
Idem, gioco in full hd e non mi va di cambiare monitor (che ho preso l'anno scorso).
Al massimo una entry level come la 3050 mi darebbe più fps per le competitive, e più ram tanto per provare uno o due openworld che ancora non ho osato ...
Se il prezzo non cala altri 100 lilleri pazienza.
AMD Releases FidelityFX Super Resolution 2.0 Source Code Through GPUOpen (https://www.techpowerup.com/296074/amd-releases-fidelityfx-super-resolution-2-0-source-code-through-gpuopen)
Perchè tu ragioni sui 60 fps. Oramai in molti sono passati a frame maggiori, 90, 120.... Conosco gente che dice di non riuscire più a giocare sotto i 90 fps, sente il gioco meno fluido.
Eccomi :sisi:
non scordatevi di noi poveri grafici 3d :snob: Non vorrete mica farmi comprare le quadro? :bua:
Comunque anche io sono un po' preoccupato dal trend generale dei consumi sia di cpu che, soprattutto, delle GPU. Poi sta cosa dei picchi non la sapevo... sti cazzi 600w di consumo di picco con la 3090 :bua: Mi domando se i miei BSOD potevano essere collegati anche a quello? :uhm: Peró credo piú che altro si spenga il pc e basta
- - - Aggiornato - - -
Eccomi :sisi:
Beh ma poi te giochi ad iracing, é un discorso a parte :asd:
Poi sta cosa dei picchi non la sapevo... sti cazzi 600w di consumo di picco con la 3090 :bua:
Posso confermare di persona :asd:
Cmq potrebbe essere i bsod fossero dovuti a quello :sisi:
Posso confermare di persona :asd:
Cmq potrebbe essere i bsod fossero dovuti a quello :sisi:
boh non so... puó anche darsi, peró dopo un picco del genere mi aspetterei il computer che si spenge come nel video di nexus, non un bsod. Secondo aspetto, da quando ho abbassato la frequenza della ram a 3200 non ho piú avuto problemi, quindi propenderei a credere che fossere i 3600 della ram il problema. A meno che abbassare la frequenza della ram non abbia diminuito i picchi della scheda video :asd:
Magari ricadi in limbo dove si distabilizza il sistema, ma non abbastanza da far scattare le protezioni...
Don Zauker
23-06-22, 08:50
Speriamo si limiti a quello. Novoja di comprare una nuova sk video ora.
E niente, ha salutato... una prece.
*** **** ** **** *** ***** *** ***** ** **** *** *** ** *** ** * * **** ******* ** *
https://rog.asus.com/microsite/ROGxEVANGELION/it/
:sbav:
cacchio evangelion faceva venire una tale depressione che non l'ho potuto seguire, altro che mecha. scusate l'ot :)
- - - Aggiornato - - -
E niente, ha salutato... una prece.
*** **** ** **** *** ***** *** ***** ** **** *** *** ** *** ** * * **** ******* ** *
cos'è una preghiera in asterischese per la povera vga?
Sarà la censura per le bestemmie che stava tirando...
Ogni volta che accendo il pc ci penso: dovessi cambiare la GPU potrei spararmi, deve resistere il più possibile :sisi:
gia... certo che con questa tecnologia ci hanno proprio incastrati :toilet:
Sarà la censura per le bestemmie che stava tirando...
Ogni volta che accendo il pc ci penso: dovessi cambiare la GPU potrei spararmi, deve resistere il più possibile :sisi:
Mah, la situazione è parecchio migliorata in generale anche se non rosea. Se poi non ti fai abbindolare dall'RTX vai sulle AMD che fanno poco meno delle controparti Nvidia, consumano un po' meno e soprattutto a differenza delle "verdi" le trovi oramai abbastanza vicine all' MSRP.
La gen 3000 Di Nividia col senno di poi si nota che è stata lanciata in tutta fretta. Hanno consumi e temperature stellari e con le varie custom non si son sbattute più
tanto con la dissipazione, a partire dai pad termici. Non è raro di leggere qualcuno che ha problemini ogni tanto.
che amd faccia poco meno, è da vedere... sulla stessa fascia di prezzo (anzi, meno), una 6700xt viaggia più di una 3070 liscia
è lato driver, che c'è differenza e se volesse usare il RT (che io reputo molto rinunciabile, ad oggi, per come è usato)
che amd faccia poco meno, è da vedere... sulla stessa fascia di prezzo (anzi, meno), una 6700xt viaggia più di una 3070 liscia
è lato driver, che c'è differenza e se volesse usare il RT (che io reputo molto rinunciabile, ad oggi, per come è usato)
Mediamente vanno qualcosina in meno, poi al solito nel singolo gioco possono anche andare meglio. Si parla in ogni caso di pochi punti percentuali, roba per i fissati dei benchmark.
sì, sono nell'ordine dell'1%, ma dalle comparazioni su YT, a 1440p, una 6700xt va più di una 3070 :boh2:
almeno nei video che ho visto un anno fa, quando stavo valutando se una 3070 valeva gli 80€ in più (e decisi di no :asd:)
poi sì, dipende dai giochi: emblematici i casi di AC Valhalla (decisamente pro amd) e Metro exodus (pro nvidia)
poi chissene, in effetti! :sisi:
non dimenticatevi il rt su minecraft che serve nvidia ^^
Dopo tanto tentennare mi sono deciso, appena ordinata
https://www.amazon.it/gp/product/B096658ZWP/ref=ppx_od_dt_b_asin_title_s00?ie=UTF8&psc=1
Dopo tanto tentennare mi sono deciso, appena ordinata
https://www.amazon.it/gp/product/B096658ZWP/ref=ppx_od_dt_b_asin_title_s00?ie=UTF8&psc=1
Bravo, finalmente prezzi umani :sisi:
Oggi da un altro spedizioniere non prime si trova anche a 468 ieri + 8,91 di spese di spedizione, io ho pagato 516 con prime.
Bravo, finalmente prezzi umani :sisi:
Umani ma ancora lontani dalla chimera msrp.
Oggi da un altro spedizioniere non prime si trova anche a 468 ieri + 8,91 di spese di spedizione, io ho pagato 516 con prime.
con 40€ in più prendevi una 6700xt (tra l'altro uguale alla mia), non ti conveniva? :uhm:
con 40€ in più prendevi una 6700xt (tra l'altro uguale alla mia), non ti conveniva? :uhm:
Mi dicono che nvidia sia meglio di amd per le schede video, ho cercato molto prima di decidermi
mah, se non ti interessa il RT, io cercheri il miglior rapporto prestazioni/prezzo
ce l'ho da un anno e tritura tutto a 1440p
prima avevo una 590
prima ancora una 970
e ancora prima una 7950
faccio un po' verde e un po' rosso, cercando il miglior compromesso: una 6700xt va come una 3070, consuma meno e costa poco più di una 3060
quando la presi, ero indeciso con la 3070, ma ho scelto amd per via della memoria in più e del costo minore
come scritto qualche post più su, se recuperi i confronti dell'epoca (1 anno fa esatto), nei test era in lievissimo vantaggio su nvidia
lato driver nvidia parte meglio, ma amd dà supporto anche alle schede più vecchie, a distanza di lustri, cosa che dall'altra parte non succede
si va a preferenza a parità di prezzo, ma nel tuo caso, una xfx (la mia) costa 559€, per quella differenza avrei preferito la maggior prestazione un future proof lievemente superiore
Mi dicono che nvidia sia meglio di amd per le schede video, ho cercato molto prima di decidermi
Bhè dipende. Con RT e DLSS è sicuramente parecchio avanti ma come prestazioni nude e crude siamo lì oramai, con la differenza che AMD ha attualmente un rapporto prezzo/prestazioni migliore.
con DLSS e FSR 2.0 siamo molto vicini
considera anche che l'FSR è diventato open, quindi mi aspetto che diventi il freesync dell'upscaling
non subito ovviamente
però prendere una scheda nuova ed essere già nella condizione di usare DLSS o FSR non è l'ideale (almeno con RT disattivato, che personalmente reputo ad oggi, com'è implementato, inutile)
scusate, ma se ati utilizza tecnologie universali e nvidia specifiche per le sue schede, facendo 2+2 sempre meglio nvidia, con le quali non sei tagliato fuori da nulla, al contrario di quelle ati ^^
Det. Bullock
28-06-22, 03:24
scusate, ma se ati utilizza tecnologie universali e nvidia specifiche per le sue schede, facendo 2+2 sempre meglio nvidia, con le quali non sei tagliato fuori da nulla, al contrario di quelle ati ^^
Da un lato però sostenere roba proprietaria è anche sostenere mosse monopolistiche.
La roba proprietaria poi ha il grosso problema che spesso muore subito e non viene nemmeno sfruttata a dovere perché chi programmerebbe un gioco attorno a delle feature che verranno dimenticate nella prossima gen?
Pensiamo a Physix.
nvidia però è leader da anni e le sue tecnologie proprietarie sono usate da molti giochi, ma a parte quello anche se domani gli sviluppatori decidessero all'improvviso di non usarle più (impossibile) non ci sarebbe nessun problema.
Non proprio, perché poi nVidia, per proteggere le sue, tende a non gettarsi su quelle free crosscompatibili.
Se non ricordo male l'FSR 1.0, quando lanciato da AMD (ATi è stata assorbita 2006), era stato ottimizzato solo per una GPU nVidia da AMD come "proof of concept" lasciando il resto, ovviamente, ad nVidia... che non s'è veramente impegnata.
Quindi, per quanto aperte, queste tecnologie tendono ad andar meglio su AMD poi...
C'è un sacco di lavoro dietro e spesso la componente hardware, che non si cambia con un aggiornamento driver, condiziona la resa... e chi sviluppa la tecnologia lo fa sulle idee alla base proprio hardware.
nvidia però è leader da anni e le sue tecnologie proprietarie sono usate da molti giochi, ma a parte quello anche se domani gli sviluppatori decidessero all'improvviso di non usarle più (impossibile) non ci sarebbe nessun problema.
tipo il g-sync, via... :roll:
FSR 2.0 è open e rilasciata gratuitamente agli sviluppatori, per chi programma, in futuro, sarà più semplice applicare quella che non DLSS: o almeno, FSR lo vedo come standard e DLSS come qualcosa in più
tipo i monitor: sono tutti freesync e qualcuno G-Sync compatibile
scusate, ma se ati utilizza tecnologie universali e nvidia specifiche per le sue schede, facendo 2+2 sempre meglio nvidia, con le quali non sei tagliato fuori da nulla, al contrario di quelle ati ^^
ATI tipo non esiste più
scusate, ma se ati utilizza tecnologie universali e nvidia specifiche per le sue schede, facendo 2+2 sempre meglio nvidia, con le quali non sei tagliato fuori da nulla, al contrario di quelle ati ^^
Semmai è l'opposto. Se una tecnologia è aperta e gratutita è molto più facile che diventi uno standard perchè più facilmente sfruttabile (e senza pagare e encessitare di hw proprietario). E' già successo col Freesync di AMD che ha praticamente ammazzato il G-sync di Nvidia (soprattutto per i costi).
Uno dei maggiori osteacoli alla diffusione capillare del ray tracing è proprio il fatto che non ci sia uno standard e che ognuno utilizza una tecnologia proprietaria. Col passare del tempo, anche a causa del fattore console, se mai si arriverà ad uno standard se le cose non cambieranno è più facile che sarà quello di AMD.
Ma quello che dice lui è che nVidia ti da, teoricamente, sia supporto al free che al proprietario.
In realtà vien privilegiato il proprietario finchè non viene reso irrilevante.
quello, ad oggi, è vero
ma come con il g-sync, nvidia si è dovuta adattare, così come, in caso di predominio futuro di FSR, si dovrà adattare a qualcosa non nato per lei
mio pensiero, oggi, a parità di prezzo e prestazioni, si va a preferenza personale
però a parità di prestazione, amd costa meno
e prendere una scheda nuova pensando già da ora a fare upscaling con DLSS o FSR, per me si sta sbagliando scelta di scheda
e anche per me, con amd dentro le console, alla fine prevarrà: sono gli scatolotti che fanno il mercato
Ma quello che dice lui è che nVidia ti da, teoricamente, sia supporto al free che al proprietario.
In realtà vien privilegiato il proprietario finchè non viene reso irrilevante.
Oggi si. Ma se in futuro prende piede come standard AMD poi per implementare anche l'RTX gli sviluppatori dovrebbero fare il lavoro doppio sul codice del gioco. Hai voja se dovrà pagarne di marchette Nvidia in quel caso.
ATI tipo non esiste più
ogni volta che parlo di amd mi viene da dire ati :bua:
amd sono una decina d'anni che è dentro le console, non mi pare sia cambiato nulla. mi ricordo quando dissi, anni e anni fa, "con amd nelle console nvidia sarà il passato".
L'essere nelle console incentiva solo gli sviluppatori dei giochi ad usare le tecnologie AMD, non li obbliga.
è proprio questo il punto. ai tempi si diceva che prendersi le console avrebbe tagliato fuori nvidia dal mercato per via del cross platform e probabilmente sarebbe stato cosi' se amd avesse usato tecnologie proprietarie, cosa che non ha fatto. la tecnologia vulkan di amd, nvidia la usa. fsr nvidia la usa. al contrario dlss la usa solo nvidia. se vuoi il ray tracing devi avere nvidia. e questi sono dati di fatto. io ho sempre avuto schede ati/amd e la radeon 270x dell'attuale pc l'ho presa proprio pensando alle console che dovevano "segare le gambe" a nvidia e poi quando è uscito vulkan ho pensato "adesso sì che nvidia se la vedra' male". inutile dire che non è stato assolutamente cosi', ma mi sa che al prossimo giro passo a nvidia.
è proprio questo il punto. ai tempi si diceva che prendersi le console avrebbe tagliato fuori nvidia dal mercato per via del cross platform
Ma come t'è venuto in mente un concetto simile ? Secondo te è mai possibile che qualcuno faccia un engine che giri sulo su AMD e non Nvidia o viceversa ???
e probabilmente sarebbe stato cosi' se amd avesse usato tecnologie proprietarie, cosa che non ha fatto. la tecnologia vulkan di amd, nvidia la usa. fsr nvidia la usa. al contrario dlss la usa solo nvidia. se vuoi il ray tracing devi avere nvidia. e questi sono dati di fatto. io ho sempre avuto schede ati/amd, ma mi sa che al prossimo giro passo a nvidia.
Stai facendo un po' di confusione però. Se vuoi il ray tracing puoi utilizzarlo benissimo anche con schede AMD. La tecnologia proprietaria di Nvida è RTX. AMD è rimasta un po' indietro sul ray tracing ma anche su Nvidia ad oggi è una tecnologia che lascia il tempo che trova e uno specchietto per le allodole per vendere schede sovrapprezzate. E' ancora parecchio esoso, sia in termini di calcoli che di conseguenti consumi delle schede, ed offre miglioramenti grafici marginali. A causa della pesantezza viene utilizzato solo in alcuni elementi dello scenario e inoltre per la mancanza di uno standard (vedi sopra) costringe ad un doppio lavoro. Tutti fattori che lo azzoppano. Ora che sarà gestibile in maniera relativamente agile dall'hw e potrà fare davvero al differenza a livello grafico, e ci vorranno almeno un altro paio di gen, AMD avrà già colmato il gap o quasi come è oramai a ridosso Nvidia a livello di mera rasterizzazione. Poi come già succede ora ci saranno titoli che gireranno meglio su Nvdia e altri con prestazioni migliori con AMD.
io passo verde o resto rosso secondo cosa succederà con le schede della seconda generazione prossima: chi ha 3xxx o 6xxx non ha ragione di passare alle nuove
guardo sempre il rapporto potenza/prezzo, i consumi e cosa uno riesce a proporre di davvero irrinunciabile rispetto all'altro: il RT senza upscaling ad oggi non è usabile, quindi per me non è qualcosa che mi fa pendere da una o dall'altra
ad oggi, il miglior rapporto ce l'ha amd :boh2:
Al di la di certe fantasie, come s'è visto lato CPU con Intel, non è generalmente proprio il caso di continuare ad ingrassare chi è in posizione dominante...
Altrimenti a quest' ora la 12th gen era ancora quad core < 5GHz...
Ma quello che dice lui è che nVidia ti da, teoricamente, sia supporto al free che al proprietario.
In realtà vien privilegiato il proprietario finchè non viene reso irrilevante.
invece è vero il contrario, il mio monito g-sync non supporta il freesync, viceversa tanti monitor freesync supportano anche g-sync
Appunto: "vien privilegiato il proprietario".
Necronomicon
28-06-22, 16:31
Oggi si. Ma se in futuro prende piede come standard AMD poi per implementare anche l'RTX gli sviluppatori dovrebbero fare il lavoro doppio sul codice del gioco. Hai voja se dovrà pagarne di marchette Nvidia in quel caso.
Penso che a volte Nvidia mandi anche i suoi programmatori per gestire i suoi "effetti esclusivi"
Penso che a volte Nvidia mandi anche i suoi programmatori per gestire i suoi "effetti esclusivi"Lo fanno... tutti... da sempre...
Se il progetto merita si manda gente a dar una mano.
Lo fanno... tutti... da sempre...
Se il progetto merita si manda gente a dar una mano.
Si presume però che il codice e l'engine di partenza si prestino ad un buon supporto e integrazione, insomma non è così immediato, soprattutto se parliamo di RT. Prima o poi si dovrà arrivare ad uno standard.
Quanto poi sia facile il lavoro è un altro discorso.
Dx12 e Vulkan dovevano dar più potere agli sviluppatori, ma siam ancora coi driver del day 1 con ottimizzazioni/correzzioni fatte ad hoc dai team AMD/nVidia...
credo che i veri "paletti" ci siano in ambito librerie rendering. Tipo Cuda e Optix sono oggettivamente migliori di OpenCL e vulkan. Le ultime due hanno fatto ottimi progressi ultimamente, ma diciamo che prima non ci funzionava nulla, oggi funziona, ma ci renderizzi molto piú lentamente che con una scheda equivalente nvidia
Se vuoi usare cuda o optix purtroppo ci vuole la scheda nvidia. Se vuoi usare vulkan o opencl invece, va bene anche nvidia, ma ovviamente non lo usa nessuno perché hai accesso a optix.
A me pare che stiano insistendo su poche strade, ( o su una sola, quella del rt) che richiederanno generazioni (e gigawatt) per essere di reale impatto sul videoludo. Perché non si lavora su qualcos'altro nel frattempo? Aumentiamo la qualità dell'audio per esempio, la fisica, o poligoni un po' più vivi e trasformabili, più dinamismo.
Il demo del Unreal Engine 5 era, anzi è, un qualcosa di mostruoso... e non centra niente col RT...
Det. Bullock
29-06-22, 15:21
A me pare che stiano insistendo su poche strade, ( o su una sola, quella del rt) che richiederanno generazioni (e gigawatt) per essere di reale impatto sul videoludo. Perché non si lavora su qualcos'altro nel frattempo? Aumentiamo la qualità dell'audio per esempio, la fisica, o poligoni un po' più vivi e trasformabili, più dinamismo.
L'audio tecnicamente parlando è al massimo a meno di essere audiofili, la fisica l'ha ammazzata Nvidia rendendo Physix una tecnologia proprietaria.
La fisica non è stata ammazzata, PhysX è stato ammazzato.
Non se ne parla più perché non fanno notizia, ma gli engine ci sono e vengono usati e sviluppati...
il formato audio dsd per dirne una, non lo vedo ancora sfruttato.
Ma non c'è solo l'aspetto "risoluzione" nelle cose, per esempio non ho ancora trovato un fps dove i rumori (per esempio il rumore dei passi) provenienti da altri ambienti, sotto o sopra il personaggio, o da caverne limitrofe mi suonino realistici.
Non c'è ancora un calcolo esatto per queste cose. A volte senti passi che non dovresti sentire... mica tutto il mondo è un barattolo di lamiera!
Phisx mi ricordo che lo attivavo e disattivavo e non notavo mai una differenza, ai tempi di fallout 4 .... Mah..
Comunque i mondi nei giochi sono disegnati, renderizzati, ma tutto sommato "morti" dal punto di vista dell'interazione meccanica che ci puoi fare. Non c'è mai niente di "elastico" a meno che non sia pre renderizzato. O sbaglio?
Le tecnologie audio "avanzate" ci sarebbero anche, dire che il problema è che a troppo pochi frega veramente e quindi non son molto usate.
Necronomicon
29-06-22, 20:01
Ormai tutti si accontentano della scheda audio della scheda madre, si dava più importanza un tempo a questo aspetto :sisi:
Penso che ciò sia dovuto principalmente alle continue rotture di cazzo che davano le schede audio e i loro driver che Windows spesso mal digerisce, specialmente le Creative :asd:
Io mi mi riferivo alle schede audio, ma al impiego di sistemi per elaborare il posizionamento, i riverberi, etc.
AMD aveva addirittura introdotto un coprocessore per questi calcoli.
Mi sembra lo avesse pure adottato la PS4.
Ormai tutti si accontentano della scheda audio della scheda madre, si dava più importanza un tempo a questo aspetto :sisi:
Perchè ormai tutti i DAC sono praticamente trasparenti, quindi l'unica discriminante è l'amplificatore che, nella totalità delle cuffie dimmerda presenti, è pressochè inutile (e pure in quelle buone dato che ci sono pure le versioni a bassa impedenza). :sisi:
Det. Bullock
30-06-22, 00:08
La fisica non è stata ammazzata, PhysX è stato ammazzato.
Non se ne parla più perché non fanno notizia, ma gli engine ci sono e vengono usati e sviluppati...
Non l'hardware dedicato, PhysX non era semplicemente un motore fisico ma anche hardware dedicato per la fisica di gioco. Nvidia comprandola e integrando l'hardware nelle sue schede video ha ammazzato tutto sul nascere.
Penso che ciò sia dovuto principalmente alle continue rotture di cazzo che davano le schede audio e i loro driver che Windows spesso mal digerisce, specialmente le Creative :asd:
io ho sempre la mia audigy, che suona molto meglio della scheda integrata (e la scheda macdre è del 2021)
nessun problema di driver
poi se l'attacchi alle cassine del cinese, ovvio che non senti differenza: ho un amplificatore con attaccate le casse, ma sono tutt'altro che un audiofilo :bua:
Non l'hardware dedicato, PhysX non era semplicemente un motore fisico ma anche hardware dedicato per la fisica di gioco. Nvidia comprandola e integrando l'hardware nelle sue schede video ha ammazzato tutto sul nascere.L'hardware dedicato non era in su un plus per nessuno.
GPGPU stava già prendendo piede e chi aveva veramente voglia di comprarsi un ulteriore scheda?
Il problema è stato provare a renderlo esclusivo. Problema più che altro per nVidia perché alla fine penso abbia vanificato l'acquisizione.
Alla fine è andato a girare anche su CPU come gli altri... del resto il vantaggio hardware andava comunque a scemare visto l'aumento dei core che abbiamo a disposizione.
Che m'avete fatto ricordare. Mi tornano in mente i primi video di physx con la lava e i vari fluidi. All'epoca erano tanta roba.
Non ero sul pezzo da almeno 3 anni e.. Ma che genere di miracoli ha creato AMD? 5600x consumi nulli prezzi invariati e performance incrementate, GPU che consumano meno delle nvidia (sebbene con fps inferiori)?
Conscio del fatto che prossima gen di cpu cambiava socket ho pensato di uppare ad ultima gen di cpu. (presa ora perché purtroppo dove sono io i prezzi non calano tanto ad uscita next gen e all'ultima gen release sono rimasto inculato con la gen precedente che è andata soldout nel giro di una sett quando non avevo tempo materiale per starci dietro 24/7 nel periodo critico :uhm:). E ho detto perché no? Facciamo il bis con una vga.
Sono passato da 2700x + rtx2060 a 5600x + 6800xt e (risoluzione 1080p) gli fps mi sono raddoppiati su tutti i giochi, wh3 da 40fps a 80-100, metro exodus sui 110. Non credo di aver mai fatto un upgrade così drastico
Sent from my CLT-L29 using Tapatalk
una 6800xt per il 1080 è lievemente overpowered :asd:
vuol dire che aumenteremo gli effetti speciali, poi in competitiva ogni fps è ben accetto :)
Io ho la 6800 lisca e gioco in 4k...
è una scheda da 900 euro, 3/4 di uno stipendio
E' arrivata direttamente dall'Inghilterra
https://i.imgur.com/nHleZog.jpg
una 6800xt per il 1080 è lievemente overpowered :asd:Devo rivedere i prezzi ma qualche annetto fa un display dai 1440 in su e con 1ms mi costava più della 2060 montata :chebotta: quindi presi questo benq 24' che stava cmq sui 200€...
L'aliasing a 1080 è fastidioso, però puntavo più sul refresh alto (144hz) e 1ms response, soprattutto il 1ms rispetto a un display da 30-60ms cambia tutto, pure a 40fps non li senti sembra tutto fluido e lo screen tearing praticamente non esiste
Sent from my CLT-L29 using Tapatalk
ho un LG ips 1440p a 144hz, lo pagai caruccio, ma si parla dell'estate 2019
adesso li trovi a prezzi molto abbordabili, più che altro ci sono di tante fasce
passare al 1440p dal 1080p è un salto notevole
vado tutto sopra i 100fps con una 6700xt, con la tua sei a prova di almeno due generazioni :sisi:
io ci penserei
io ho sempre la mia audigy, che suona molto meglio della scheda integrata (e la scheda macdre è del 2021)
nessun problema di driver
poi se l'attacchi alle cassine del cinese, ovvio che non senti differenza: ho un amplificatore con attaccate le casse, ma sono tutt'altro che un audiofilo :bua:
io esco dalla gpu ed entro nell'ampli... i giochi compatibili hanno Atmos, gli altri usano cmq il 5.1 con Dolby ecc ecc
ho un LG ips 1440p a 144hz, lo pagai caruccio, ma si parla dell'estate 2019
adesso li trovi a prezzi molto abbordabili, più che altro ci sono di tante fasce
passare al 1440p dal 1080p è un salto notevole
vado tutto sopra i 100fps con una 6700xt, con la tua sei a prova di almeno due generazioni :sisi:
io ci pensereiSi, credo che sarà il primo in lista per sconfiggere finalmente le foglioline fastidiose nei giochi :asd:
Però posticipo al prossimo anno meglio due, per ora siamo sazi, così sfrutto questo che ho e ne prenderò uno nel futuro che al momento sarebbe probabilmente high end e costa l'ira di dio quanto una 3080 :asd:
Sent from my CLT-L29 using Tapatalk
esagerato, o' cos'è??
un buon monitor 3/400 euro sono il giusto, anche meno se becchi l'offerta o il modello dell'anno prima (che avrà un'inutile feature in meno rispetto al nuovo che non userai mai)
esagerato, o' cos'è??
un buon monitor 3/400 euro sono il giusto, anche meno se becchi l'offerta o il modello dell'anno prima (che avrà un'inutile feature in meno rispetto al nuovo che non userai mai)Ah ho capito ora qual era la questione bloccante ai tempi dell'acquisto: il g-sync merda
Beh sono contento di essere tornato teamred lol
Sent from my CLT-L29 using Tapatalk
Io ragazzi vi stra-consiglio di risparmiare per passare al 21:9
Io ho un 32:9 :snob:
Inviato dal mio M2101K9G utilizzando Tapatalk
io sto aspettando i nuovi ryzen e le nuove amd e penso che farò il salto li...
tipo R7 e 7700
io cambierò pc l'anno prossimo... cpu amd o intel, gpu 200% nvidia :sisi:
Per me se ne riparla nel 2024, resistenza della 660 permettendo :asd:
Per me se ne riparla nel 2024, resistenza della 660 permettendo :asd:
ho una rtx 3080, una rx 6600 e una gtx 1650 super. Ne vuoi una? (esclusa la prima ovviamente)
Io ho una 2080 se interessa
ho una rtx 3080, una rx 6600 e una gtx 1650 super. Ne vuoi una? (esclusa la prima ovviamente)
Presumendo che non le regali e tenendo conto che dovrei cambiare case dato che nel 10100F temporaneo sono andato al risparmio e ne ho preso uno da 30 euro ti ringrazio ma vado avanti con la 660. Tanto gioco quasi solo roba 2D e isometrici oramai. Per il resto attenderò con pazienza.
https://www.youtube.com/watch?v=FR6x-rvHXUI
150-200$
:rotfl:
Ma io dico: c'è sta benedetta crisi delle materie prime e della produzione con le fonderie oberate. Perchè buttare nel cesso tempo, soldi e risorse in questo modo ? Fra questa e l'altra zozzeria di AMD, che era, la 6400 ? Tutta roba da buttare. Prodotti letteralmente senza senso.
io non l'avrei nemmeno toccata... ma io dico perché non fanno qualche scheda agp per i retrogame box? Che nell'usato quelle buone sono quasi finite!
NVIDIA GeForce RTX 40 Series Could Be Delayed Due to Flood of Used RTX 30 Series GPUs (https://www.techpowerup.com/296610/nvidia-geforce-rtx-40-series-could-be-delayed-due-to-flood-of-used-rtx-30-series-gpus)
Sto facendo assistenza da remoto ad un amico che sta in Spagna. Ieri ha scaricato i driver nuovi della gpu ed ha cominciato ad andare a scatti su qualsiasi gioco. Fatto giro di ddu, non ha funzionato. Fatto altro giro di ddu e messo i penultimi driver, non ha funzionato.
Ha fatto un ripristino ad un punto precedente, non ha funzionato e adesso sta formattando. Mi sto già preparando a dargli la brutta notizia :bua:
Ah, RTX 2070 :chebotta:
I driver nuovi gli hanno fritto la scheda? O è solo una spiacevole coincidenza?
I driver nuovi gli hanno fritto la scheda? O è solo una spiacevole coincidenza?
Sarebbe la seconda volta per Nvidia. Mi pare troppo...
Cmq basta qualsiasi software che ti monitora le temperature ed i voltaggi per vedere se sono quelli il problema. E controllare le ventole.
Det. Bullock
08-07-22, 16:54
Sto facendo assistenza da remoto ad un amico che sta in Spagna. Ieri ha scaricato i driver nuovi della gpu ed ha cominciato ad andare a scatti su qualsiasi gioco. Fatto giro di ddu, non ha funzionato. Fatto altro giro di ddu e messo i penultimi driver, non ha funzionato.
Ha fatto un ripristino ad un punto precedente, non ha funzionato e adesso sta formattando. Mi sto già preparando a dargli la brutta notizia :bua:
Ah, RTX 2070 :chebotta:
È la ragione per cui scarico solo i driver recommended di AMD e mai gli opzionali (qualunque sia la terminologia che usa Nvidia), tanto la roba per cui fanno le ottimizzazioni ad hoc raramente la gioco.
Io ho sempre la mia regola d'oro: se funziona tutto bene non aggiornare i driver, a maggior ragione se non hai una scheda recentissima.
come si disattiva l'aggiornamento automatico dei driver video di windows update (win10) ?
come si disattiva l'aggiornamento automatico dei driver video di windows update (win10) ?
Impostazioni di sistema avanzate -> Tag Hardware -> Impostazioni installazione dispositivo -> Selezioni NO nella schermata successiva.
(ovviamente mettere l'opzione direttamente fra quelle di Windows Update sarebbe stato troppo semplice e intuitivo per MS)
NVIDIA GeForce RTX 40 Series Could Be Delayed Due to Flood of Used RTX 30 Series GPUs (https://www.techpowerup.com/296610/nvidia-geforce-rtx-40-series-could-be-delayed-due-to-flood-of-used-rtx-30-series-gpus)Eh si su reddit gli haters sono passati da odiare i miner a odiare nvidia e amd perché quest ultime abbasseranno la produzione per tenere i prezzi alti :bua:
Sent from my CLT-L29 using Tapatalk
Ecco, complice un'ottima offerta sulla gpu e un calo di 300€ totali su altra roba, ho preso il pc nuovo (mi serve per lavoro). Non ho tempo di aspettare 6/8 mesi per una buona disponibilità del nuovo HW, soprattutto a prezzi "legali". :bua:
Sto facendo assistenza da remoto ad un amico che sta in Spagna. Ieri ha scaricato i driver nuovi della gpu ed ha cominciato ad andare a scatti su qualsiasi gioco. Fatto giro di ddu, non ha funzionato. Fatto altro giro di ddu e messo i penultimi driver, non ha funzionato.
Ha fatto un ripristino ad un punto precedente, non ha funzionato e adesso sta formattando. Mi sto già preparando a dargli la brutta notizia :bua:
Ah, RTX 2070 :chebotta:E niente, l'amico ha le ventole che non girano. La GPU arriva a 95 gradi, va in thermal throttling e gli si spegne il PC.
Dovrebbe provare a sostituirle, ma non è in grado. Porterà il PC in qualche negozio specializzato, sperando che ci sia qualche anima pia che tenti la riparazione, ma la vedo dura :bua:
Inviato dal mio M2101K9G utilizzando Tapatalk
E niente, l'amico ha le ventole che non girano. La GPU arriva a 95 gradi, va in thermal throttling e gli si spegne il PC.
Dovrebbe provare a sostituirle, ma non è in grado. Porterà il PC in qualche negozio specializzato, sperando che ci sia qualche anima pia che tenti la riparazione, ma la vedo dura :bua:
Avessi detto che va risaldato qualche chip. Provare a cambiare un dissipatore non è un'operazione a cuore aperto. Certo, a far le cose per bene cambierebbero anche pasta termica e pad ma almeno smontare un dissipatore e mettercene uno nuovo non dovrebbe essere un problema.
Secondo me è sufficiente cambiar le ventole. Ho però la sensazione che il negozietto specializzato non abbia molta voglia di mettere mano ad un pezzo hardware non comprato lì, ecco. Ma magari in Spagna la pensano diversamente, chissà
Secondo me è sufficiente cambiar le ventole. Ho però la sensazione che il negozietto specializzato non abbia molta voglia di mettere mano ad un pezzo hardware non comprato lì, ecco. Ma magari in Spagna la pensano diversamente, chissà
Quello è già più difficile. Nel senso che dovrebbero sbattersi ed andarsi a cercare le singole ventole, non oserei sperare tanto. Che per lo meno cambino in blocco tutta la dissipazione però non è così improbabile se trovi un negozio decente.
Secondo me è sufficiente cambiar le ventole. Ho però la sensazione che il negozietto specializzato non abbia molta voglia di mettere mano ad un pezzo hardware non comprato lì, ecco. Ma magari in Spagna la pensano diversamente, chissà
se il negozietto specializzato fa manutenzione, paghi il servizio di manutenzione, mica la fedeltà al posto. sarebbe una manovra antieconomica rinunciare a clienti che non comprano componenti da te specialista :asd:
I negozietti campano più per i servizi di assistenza che per la vendita dei componenti, soprattutto in questo periodo di scarsa disponibilità e prezzi alle stelle :asd:
:uhm: effettivamente avete ragione pure voi
Inviato dal mio M2101K9G utilizzando Tapatalk
https://www.youtube.com/watch?v=La-dcK4h4ZU
Ormai dalla faccia che fa il tizio si capisce la conclusione.
E' una scheda cheap per il mercato cinese, si sapeva già come sarebbe andata.
Det. Bullock
13-07-22, 23:45
Tra l'altro la fascia bassa è tristissima oggi, ricordo quando giocavo tranquillamente con una Radeon HD 7770 da cento Euro.
https://www.youtube.com/watch?v=Xa8qRtZvA8M
https://www.youtube.com/watch?v=Xa8qRtZvA8M
Si parla di ottobre per l'uscita sul mercato
https://multiplayer.it/notizie/nvidia-rtx-4090-periodo-di-uscita-ultimi-rumor.html
La fascia bassa non esiste più. Nel 2015 compravo una 960 rog strix a meno di 250 euro, e si giocava alla grande anche con titoli usciti 4 anni dopo.
Ora con 250 euro non ci compri nulla di valido, nemmeno con 300 euro...
Meglio farsi piacere l'orticoltura al più presto.
Ora con 250 euro non ci compri nulla di valido, nemmeno con 300 euro...
Meglio farsi piacere l'orticoltura al più presto.
Bhè dipende. Al Prime day con 250 euro ti portavi a casa delle 2060. Ad oggi con 300 euro o poco più trovi abbastanza facilmente la RX 6600 che è una signora scheda.
~300€ per una Rx 6600, la prima scheda valida.
~300€ per una Rx 6600, la prima scheda valida.
... che oramai è la nuova fascia bassa di fatto. Il problema è la fascia 200-250 euro dove non si trova nulla a meno di non virare sull'usato.
ed una fascia bassa+fsr od apu+fsr (1920x720+fsr1/2 o 1920x1080+fsr1/2)?
od ormai sono troppo vecchio io e mi sono ammorbidito?
fsr o simile, mi viene più facile fsr perché funzia a prescindere dalla casa (e perché funziona con proton ed una gtx660, almeno fsr1)
ed una fascia bassa+fsr od apu+fsr (1920x720+fsr1/2 o 1920x1080+fsr1/2)?
od ormai sono troppo vecchio io e mi sono ammorbidito?
fsr o simile, mi viene più facile fsr perché funzia a prescindere dalla casa (e perché funziona con proton ed una gtx660, almeno fsr1)
Fsr per il fullhd non ha senso, significa partire da un base di qualità infima ed usarlo su schede troppo vecchie non fa cmq miracoli. Se vuoi giocare in fullhd oggi ti conviene andare sull'usato o fare un sacrificio e pigliare una 6600 con la quale stai coperto davvero per parecchio tempo.
Già questi upscaling danno il meglio per monitor 4k quando hai una GPU che macina al massimo FHD.
sì intendevo usare 720p/1080p con fsr per scalare su monitor 1440p o 4k.
mi è scappato nella rilettura
Si vocifera 4 Agosto per le prossime CPU Ryzen 7000... presentazione, mentre commercializzazione per Settembre.
Si vocifera 4 Agosto per le prossime CPU Ryzen 7000... presentazione, mentre commercializzazione per Settembre.
La questione cruciale sarà il prezzo, soprattutto nella fascia medio/bassa dove ad oggi a meno di non beccare qualche offerta Intel vince a mani basse.
sì intendevo usare 720p/1080p con fsr per scalare su monitor 1440p o 4k.
mi è scappato nella rilettura
Vale sempre più o meno quanto detto prima: l'unico prodotto che puoi acquistare nuovo sul mercato che non costa moltissimo e che vale il suo prezzo è la 6600. Di suo in parecchi titoli il 1440p lo gestisce senza manco bisono di ffx/fsr.
Netherlander
29-07-22, 17:46
c'è una Sapphire Radeon RX 6700 10GB a 420 euro su LDLC
Ho due cose da scrivere
1) Unreal Engine 5
https://youtu.be/9R0eRZgzkxQ
Iniziano a farci cortometraggi (dice che col "real-time" riduce i tempi di produzione) e gira qualche gioco, non vedo l'ora che questo tipo di qualità diventi standard su gpu fascia media
2) Giocando Metro Exodus ho capito con ritardo che era la versione Enhanced con Raytracing: questa roba la devono mettere in tutti i giochi! :pippotto:
https://youtu.be/pmpwMiSDYP4
Sent from my CLT-L29 using Tapatalk
Cavolo, hanno fatto quel episodio con Unreal Engine?
Gran bell'episodio fra l'altro, anche se quello del granchio resta il top.
https://www.youtube.com/watch?v=e3o7tKRGcMY
Bei tempi quando con 150 euro ti pigliavi una 570.
AMD Ryzen 7000 Series Processors Would be Available September 15th (https://www.guru3d.com/news-story/amd-ryzen-7000-series-processors-would-be-available-september-15th.html)
announcements would be held on August 29th
Press embargo: September 13, 2022 at 9AM ET / 3PM CET
allora metro è uno dei miei preferiti e l'ho finito 1 volta senza ray tracing ma con dettagli medio alti credo (non è che ci abbia guardato). Che pc ci vuole per avere quella qualità in fhd?
- - - Aggiornato - - -
Comunque questo infinite bounce non è che mi convinca granché. A volte sembra che gli ambienti siano troppo illuminati.
Ho due cose da scrivere
1) Unreal Engine 5
https://youtu.be/9R0eRZgzkxQ
Iniziano a farci cortometraggi (dice che col "real-time" riduce i tempi di produzione) e gira qualche gioco, non vedo l'ora che questo tipo di qualità diventi standard su gpu fascia media
gran parte degli effetti speciali di the mandalorian sono renderizzati con l'Unreal Engine. ILM é dai tempi di rogue one che ha iniziato ad usarlo.
AMD Ryzen 7000 Series Processors Would be Available September 15th (https://www.guru3d.com/news-story/amd-ryzen-7000-series-processors-would-be-available-september-15th.html)
announcements would be held on August 29th
Press embargo: September 13, 2022 at 9AM ET / 3PM CET
non vedo l'ora di vedere le prestazioni del 7700X, potrebbe essere il mio prossimo pc per sostituire il mio (ahimé ora un po' vetusto) 6600K
allora metro è uno dei miei preferiti e l'ho finito 1 volta senza ray tracing ma con dettagli medio alti credo (non è che ci abbia guardato). Che pc ci vuole per avere quella qualità in fhd?
- - - Aggiornato - - -
Comunque questo infinite bounce non è che mi convinca granché. A volte sembra che gli ambienti siano troppo illuminati.Fascia medio alto, le nvidia 2xxx e 3xxx e le amd 6xxx hanno supporto hardware
gran parte degli effetti speciali di the mandalorian sono renderizzati con l'Unreal Engine. ILM é dai tempi di rogue one che ha iniziato ad usarlo.Si avevo letto. Chissà se diventerà standard, se ci mettono un decimo del tempo rispetto al tradizionale, si SPERA che sotto le stesse tempistiche la qualità finale sia superiore
Sent from my CLT-L29 using Tapatalk
Una cosa è aver hardware per fare RT, un altra è avere hardware per fare RT ad un livello adeguato.
Il minimo potrebbe benissimo stare su 2080 Ti / 3070 .
Cacchio mi è appena apparsa una notifica, "microsoft store ha appena installato nvidia control panel" . Guardo i drivers e da versione 3xx (credo o forse 4xx) si è passati a 5xx. Erano secoli che non aggiornava tanto che mi ero persuaso che facesse così perchè la 960 è vecchiotta.
Un'altra cosa strana, aprendo il pannello nvidia (per sistemare l'audio che dopo gli aggiornamenti me lo dirotta all monitor) mi ha chiesto di accettare una licenza, mai successo prima d'ora.
Uffa però, a me che servono driver aggiornati con una scheda vecchia ma che andava alla perfezione (mai un crash)?
Il control panel dello store non dovrebbe includere i driver.
Se non sbagli è stato rimosso dai driver e si installa da se tramite lo store.
Ma è solo il control panel.
I driver, se si son aggiornati, lo hanno fatto tramite windows update... come funziona da eoni.
hanno fatto in contemporanea, anche i driver installati oggi
I driver una volta installati hanno cercato poi il control panel.
Non viceversa.
non ho detto che è avvenuto viceversa, è stata la notifica sul control panel che mi ha fatto accorgere dei drivers. Ad ogni modo spero non diano problemi perché non ho idea di come tornare ai precedenti ne quale versione erano...
gia i primi problemi, con alcuni giochi vecchi ma che ancora uso la risoluzione si è bloccata a 120 hz, non va più a 240. E dato che mi serviva poter passare da schermo intero a finestra diverse volte a sessione ora perdo un sacco di tempo (ho un monitor che si prende alcuni secondi per cambiare risoluzione).
Come posso tornare ai driver che avevo fino all'altro ieri?
Con DDU puoi levare i driver attuali e ci dovrebbe essere pure il sistema per bloccare windows update.
E poi metti i driver che vuoi.
e se non so quali driver avevo prima? E il control panel non dovrebbe ritornare alla vecchia versione anche lui?
- - - Aggiornato - - -
da gestione dispositivi c'era il pulsante ripristina driver attivo fino a ieri, ma ancora non avevo fatto tutti i test e poi non sapevo se avrei fatto casini. ora è grigio
ho scoperto che dal sito ufficiale nvidia si scaricano facilmente i driver più vecchi. Per provarli cosa faccio disinstallo quelli nuovi prima? O questa procedura è superata?
WhiteMason
08-08-22, 16:38
È ancora una buona pratica sì, disinstalla quelli nuovi e vai con la versione che ti interessa. (Per il control panel, permettono di scaricare ed installare a parte anche quello, oppure no?)
Inviato dal mio KIW-L21 utilizzando Tapatalk
ho scoperto che dal sito ufficiale nvidia si scaricano facilmente i driver più vecchi. Per provarli cosa faccio disinstallo quelli nuovi prima? O questa procedura è superata?
In rete dovresti trovare abbastanza facilmente siti con l'archivio delle vecchie versioni.
È ancora una buona pratica sì, disinstalla quelli nuovi e vai con la versione che ti interessa. (Per il control panel, permettono di scaricare ed installare a parte anche quello, oppure no?)
Inviato dal mio KIW-L21 utilizzando Tapatalk
Ci avevo pensato, non so se il control panel va via con i drivers o è a parte. Ma a sensazione ti direi che è incluso in quel malloppone da 700 mega.
Come detto, fino a non molto tempo fa, il panel era incluso nel pacchetto driver.
Lo hanno scisso anche per poterlo aggiornarlo indipendentemente.
Non è che faccia nulla di che... alla fine è un editor per le impostazioni grafiche... ma non le attua mica.
si iniziano a trovare schede amd a prezzi interessanti, peccato per le prestazioni raytracing. Penso che comunque aspetterò la prossima gen ormai.
tipo questa https://www.bpm-power.com/it/online/componenti-pc/schede-video/scheda-amd-powercolor-radeon-b1880568
Le AMD è già da un po' che sono scese praticamente all'msrp. Tutte le GPU in generale stan calando. Le vendite sono crollate e c'è un sacco di invenduto da smaltire prima del lancio delle nuove gen, senza contare l'usato. Il problema è tutto il resto che sta aumentando... e se la Cina continua a giocare con Taiwan arriverà un'altra stangata.
Intel GPU Business in a $3.5 Billion Hole, Jon Peddie Recommends Sell or Kill (https://www.techpowerup.com/297707/intel-gpu-business-in-a-usd-3-5-billion-hole-jon-peddie-recommends-recommends-sell-or-kill)
Manco hanno iniziato...
Arc and Xe iGPUs don't support DirectX 9 (https://www.guru3d.com/news-story/arc-and-xe-igpus-dont-support-directx-9.html)
Problema decisamente relativo, ma per qualcuno potrebbe essere serio.
Più che altro se non ricordo male si eran focalizzati sulle DX12 e in DX11 le prestazioni crollavano, e quella è una cosa che interessa già a molti di più
a me sembra il periodo fine anni '90 inizio 2000 quando la 3dfx andava in pensione e svariati produttori facevano chipset, ne provai più di uno. Robaccia instabile, poco performante e poco supportata. Nemmeno ricordo come si chiamavano.
Buongiorno a tutti,
ammetto che è veramente tanto che non seguo e mi scuso anticipatamente perché non riesco/non ho voglia di leggere i millemila post precedenti...
Volevo chiedere un consiglio per una scheda video dal buon rapporto qualità/prezzo per giocare bene (principalmente a Fortnite) a 1080p.
La mia configurazione è:
CASE: Cooler Master MasterBox MB500 RGB - Case PC ATX;
PSU: Cooler Master MWE 650 Gold V2 (80 PLUS) Alimentatore Completamente Modulare;
CPU: 11th Gen Intel(R) Core(TM) i5-11400 @ 2.60GHz;
RAM: Kingston FURY Beast 16GB (2x8GB) 2666MHz DDR4 CL16;
SSD: WD Blue SN550 500 GB SSD NVMe, Gen3 x 4 PCIe, M.2 2280, 3D NAND.
Ringrazio anticipatamente chi mi risponderà (GeeGeeOH?)
Sembri avere il pc perfetto per una 3060
Probabilmente la Rx 6600 è la scheda del momento sui 300€.
Vedevo giusto ieri:
https://www.youtube.com/watch?v=djeL6qUTDTo
Su quello non c'è dubbio da tempo. Molti però continuano a spendere 100 euro in più per una 3060 che va uguale, se non pochissimo di più o di meno a seconda dei casi, perchè con Nvidia c'è lerretiics. Voglio vederli poi ad usarlo su un 3060, già fatica ora figuriamoci fra un annetto.
Più che altro si nota che ora con la minore delle 3 sorelle che rappresentano la fascia alta di verdi o rossi oramai si gioca anche in 1440p.
AMD Announces Ryzen 7000 Reveal Livestream for August 29th (https://www.anandtech.com/show/17534/amd-sets-ryzen-7000-reveal-livestream-for-august-29th)
scusate, esiste un tool per verificare se la scheda video funziona correttamente? Grazie
Fai lo stress test con OCCT o prova i vari benchmark e verifica di non avere artefatti, poi confronta i punteggi con quelli pubblicati online per il tuo modello e vedi se i valori sono in linea.
provato occt, testata scheda per un ora, tutto ok, il test di stabilità non ho potuto farlo perche vuole i soldi su patreon
provato occt, testata scheda per un ora, tutto ok, il test di stabilità non ho potuto farlo perche vuole i soldi su patreon
Fai qualche bench pesante e se non ti salta stai tranquillo che è a posto.
Sembri avere il pc perfetto per una 3060
Probabilmente la Rx 6600 è la scheda del momento sui 300€.
Vedevo giusto ieri:
***CUT***
Grazie a entrmbi, prendo in considerazione! :)
3060ti, non la liscia ;)
Non vale nemmeno lontanamente il prezzo a cui si trova in giro.
vedi tu
https://www.nexths.it/Products/details/sku/4719331309428
550€ sarebbe un buon prezzo per te???
25-30% in più di performance ma per quasi il doppio del prezzo.
bhe la 3060 ti si trova anche a 480 euro, ma secondo me è ancora troppo
bhe la 3060 ti si trova anche a 480 euro, ma secondo me è ancora troppo
Hai voja se è troppo. Soprattutto considerando tutti i difetti cronici dell'architettura della serie 3000.
Hai voja se è troppo. Soprattutto considerando tutti i difetti cronici dell'architettura della serie 3000.
Quali sarebbero questi difetti?
Difetti? Funzionano bene e sono efficienti. :asd:
Cmq, se trova una 3060 a 300€, buon per lui, ovviamente.
La mia 3080 12gb l'ho undervoltata con OC (core oltre i 2ghz) e non supera mai i 300W sotto carico. La vecchia 1080 era costantemente intorno ai 210W, quindi non mi lamento, visto che è molto più prestante e soprattutto molto più fredda.
Quali sarebbero questi difetti?
Problemi di temperature in primis e una qualità costruttiva altalenante. I più famosi sono i problemi dei transistor delle 3080 su parecchi modelli, ma in maniera minore il problema era abbastanza diffuso, hanno anche grandissimi picchi di consumi (con tutte le conseguenze del caso) una tantum decisamente anomali. Inoltre i pad terminici di molti modelli lasciano a desiderare per qualità e posizionamento. Hanno anche sparato a mille i consumi per puntare solo alla potenza bruta. In generale è una delle serie meno riuscite di Nvidia probabilmente frutto della fretta con cui le hanno dovute buttare fuori e gliele hanno anche pagate a peso d'oro. In una situazione normale le cose sarebbero andate molto diversamente e ci sarebbero state molte più proteste ma si sà, in tempi di carestia...
Ho una 3080 tuf, temperature nella norma
Problemi di temperature in primis e una qualità costruttiva altalenante. I più famosi sono i problemi dei transistor delle 3080 su parecchi modelli, ma in maniera minore il problema era abbastanza diffuso, hanno anche grandissimi picchi di consumi (con tutte le conseguenze del caso) una tantum decisamente anomali. Inoltre i pad terminici di molti modelli lasciano a desiderare per qualità e posizionamento. Hanno anche sparato a mille i consumi per puntare solo alla potenza bruta. In generale è una delle serie meno riuscite di Nvidia probabilmente frutto della fretta con cui le hanno dovute buttare fuori e gliele hanno anche pagate a peso d'oro. In una situazione normale le cose sarebbero andate molto diversamente e ci sarebbero state molte più proteste ma si sà, in tempi di carestia...
1) Il problema dei transistor era in realtà un problema di voltaggio impostato troppo basso, da linee guida di nvdia, che faceva crashare la scheda quando veniva richiesta potenza, corretto prima via driver e poi con bios aggiornati.
2) I consumi sono alti perchè le prestazioni sono alte. Anzi, in termini di potenza/consumi/temperature, il rapporto è incredibilmente positivo. Schede che mediamente raggiungono frequenze alte, temperature basse (70/75 gradi in full con le ventole che paiono spente), con un consumo rapportato all'alta efficienza del processo di produzione e quindi della corrente non dispersa in calore.
3) I thermal pad c'entrano una cippa, sono i dissi a non coprire direttamente le memorie nel 99% dei casi, per scelte ingegneristiche. Le uniche memorie che diventano calde, sono le gddr6x, che possono raggiungere e superare i 90 gradi, ma che sono garantite da Micron fino ai 115. Anche qui nessun problema. ;)
4) Queste sono le migliori schede nvidia forse mai uscite, altrochè.
5) L'ultima frase fa sorridere, per essere buoni, come se il Covid non abbia ampiamente influito su questo e altre cose, ma vabbè, il tuo post sembra molto sulla linea del "non cielo dikonoo!!111!"
4) Queste sono le migliori schede nvidia forse mai uscite, altrochè.
https://www.youtube.com/watch?v=ztVMib1T4T4
Certo che son serio, i numeri parlano chiaro. Poi sul discorso prezzi possiamo chiaccherare fin l'anno prossimo. Oppure anche no, qui mi pare ci siano un paio di persone troppo fanboy e che sparano senza prendere la mira. ;)
"I numeri parlano chiaro" :rotfl:
Certo guardando esclusivamente la generazione precedente, che è stata la generazione peggiore con regresso in termini di prezzo/prestazioni, la 3000 fa un certa figura...
Ma in assoluto?
780Ti vs 580: +100% di performance ed un +60% di performance per $.
980Ti vs 780: +75% di performance ed un +75% di performance per $.
1080 Ti vs 980Ti: +85% di performance ed un +77% di performance per $.
2080 Ti vs 1080 Ti: +40% di performance ed un -32% (si, negativo) di performance per $.
3090 vs 2080 Ti: +45% di performance ed un +21% di performance per $.
E si parla di MSRP, non dei prezzi su strada post "casini" (per quello la 3090 Ti non ha numeri, considerare la 3090 liscia è un abbuono avendo un rapporto sicuramente più favorevole in termini di performance per $).
Una volta era normale vedere miglioramenti ben superiori al 50%.
Ma certo, son gli altri ad essere fanboy...
Ma il bello è che ho scritto "poi sui prezzi possiamo parlane per un anno", anche senza considerare le fluttuazioni di prezzo dei singoli componenti. Se poi prendi in considerazione che una moderna scheda video è un sistema COMPLETO a parte...
Cmq, la serie 2xxx ha introdotto il ray tracing in tempo reale, il DLSS e altre chicche, quando negli ultimi 15 anni c'è stata solo una costante rincorsa al numero di FPS+ rispetto la generazione precedente. Proprio roba da nulla. :facepalm:
Ah, nella mia carriera ho avuto più gpu ATI/Radeon che nvidia... Ma va bene eh. ;)
Detto questo, con te non voglio continuare nessuna discussione. A memoria, in anni di forum, non ho mai visto un tuo intervento utile o che avesse un valore maggiore al "devo far vedere che ce l'ho più grosso io + smile". ;)
Un conto è ignorare i rialzi esterni dovuti alla "situazione globale", ma non si può semplicemente ignorare il prezzo.
Si parla di nVida vs. nVidia. AMD non centra una sega. Non c'è fanboyismo. Ma è bello nascondersene dietro.
Se per te le uniche novità negli ultimi 15 anni sono "ray tracing in tempo reale" e DLSS direi che hai veramente una conoscenza del argomento... molto piccina.
"I numeri parlano chiaro" :rotfl:
Certo guardando esclusivamente la generazione precedente, che è stata la generazione peggiore con regresso in termini di prezzo/prestazioni, la 3000 fa un certa figura...
Ma in assoluto?
780Ti vs 580: +100% di performance ed un +60% di performance per $.
980Ti vs 780: +75% di performance ed un +75% di performance per $.
1080 Ti vs 980Ti: +85% di performance ed un +77% di performance per $.
2080 Ti vs 1080 Ti: +40% di performance ed un -32% (si, negativo) di performance per $.
3090 vs 2080 Ti: +45% di performance ed un +21% di performance per $.
E si parla di MSRP, non dei prezzi su strada post "casini" (per quello la 3090 Ti non ha numeri, considerare la 3090 liscia è un abbuono avendo un rapporto sicuramente più favorevole in termini di performance per $).
:wat:
Ai tempi, la "tassa" RTX aveva scatenato un certo putiferio.
Era un analisi uscita (poco) dopo il lancio della 2080 Ti (quasi quattro anni fa) basata credo sui numeri storici di Anandtech/Tom's.
Poi integrati con quelli della 3000.
3090 Ti ha solo prezzo ufficiale "insensato" di 2000$.
Cioè la 3090 Ti sarà un 10-15% meglio della liscia, ma per ben un 1/3 in più di prezzo.
A spanne sarebbe molto vicina in termini di performance per $ della 2080 Ti.
Il confronto sarebbe sulla la scheda single GPU di punta [non Titan (si, si potrebbe discutere)].
(mi sembra di capire che la 700 veniva considerato mero refresh della 600)
Ma non capisco in che modo interpretare la lista con le percentuali sulle prestazioni che hai messo: rispetto a cosa? :uhm:
Oltre al fatto che non capisco perchè confrontare una 3090 con una 2080Ti. :uhm:
Ai tempi, la "tassa" RTX aveva scatenato un certo putiferio.
Era un analisi uscita (poco) dopo il lancio della 2080 Ti (quasi quattro anni fa) basata credo sui numeri storici di Anandtech/Tom's.
Poi integrati con quelli della 3000.
3090 Ti ha solo prezzo ufficiale "insensato" di 2000$.
Cioè la 3090 Ti sarà un 10-15% meglio della liscia, ma per ben un 1/3 in più di prezzo.
A spanne sarebbe molto vicina in termini di performance per $ della 2080 Ti.
Il confronto sarebbe sulla la scheda single GPU di punta [non Titan (si, si potrebbe discutere)].
(mi sembra di capire che la 700 veniva considerato mero refresh della 600)
si, ma il confronto fatto solo con le top di gamma serve a poco. fatelo con le medio/medio alte (es. 1060 vs 2060 vs 3060 o 1070 vs 2070 vs 3070) e vedrai che le performance e sopratutto i prezzi non sono saliti così tanto.
siamo perfettamente a conoscenza del fatto che le top di gamma costino sempre di più. d'altronde anche i cellulari top di gamma 10 anni fa costavano 600€...
- - - Aggiornato - - -
Ma non capisco in che modo interpretare la lista con le percentuali sulle prestazioni che hai messo: rispetto a cosa? :uhm:
Oltre al fatto che non capisco perchè confrontare una 3090 con una 2080Ti. :uhm:
tra di loro ovviamente
si, ma il confronto fatto solo con le top di gamma serve a poco. fatelo con le medio/medio alte (es. 1060 vs 2060 vs 3060 o 1070 vs 2070 vs 3070) e vedrai che le performance e sopratutto i prezzi non sono saliti così tanto.
Hai voja se son saliti. Gli ultimi prezzi sensati sono stati quelli pre-mining. Poi s'è sballato tutto. Dopo la prima botta di minatori i prezzi delle Nvidia (anche in quel caso quelli delle AMD fortunatamente eran ridiscesi molto più rapidamente) non han fatto in tempo a normalizzarsi che han buttato fuori la serie 2000 con prezzi ancora stellari con la scusa dei tensor core per l'RTX. Al giro dopo han capito che avevano esagerato e han provato a rimettersi in carreggiata con msrp decenti ma poi è partita la pandemia ed è andato tutto in vacca (per i normali acquirenti, ai miner invece han venduto un botto di schede sottobanco prima del lancio).
Ora i prezzi stanno scendendo ma sono ancora lontani dell'msrp e non c'è quasi nessuno che compra (e scendono proprio per quello), e vorrei ben vedere chi paga a due anni di distanza una scheda a quello che doveva essere il suo prezzo di lancio (anzi ancora almeno un centinaio di euro in più), a maggior ragione con una nuova gen alle porte. Le proiezioni di Nvidia non sono molto rosee e han posticipato il lancio della prossima generazione sperando che il mercato si ripigliasse ma ad oggi è sempre fermo (e vorrei ben dire). Stanno, almeno parzialmente, pagando lo scotto di tutti gli errori (per non dire proprio pagliacciate) fatti in precedenza. A quello aggiungi un situazione di performance per watt e per $ pessima con l'ultima gen (oltre ai vari difetti di design e costruzione elencati prima) e completi il quadretto della desolante situazione attuale.
E la situazione è ancora lontana da un miglioramento significativo grazie a crisi delle materie prime, costi dic arburante e trasporti, Putin che gioca a Risiko, la Cina che insegue la chimera dello "zero contagi" bloccando intere città per 4 asintomatici e nel mentre fa la simpatica con Taiwan, giusto per gradire.
si, ma il confronto fatto solo con le top di gamma serve a poco. fatelo con le medio/medio alte
E' che con le fasce intermedie la storia diventa molto più complessa tornando indietro, i confronti son difficili.
Non sempre c'è un confronto diretto a parità di "nome".
- - - Aggiornato - - -
Ma non capisco in che modo interpretare la lista con le percentuali sulle prestazioni che hai messo: rispetto a cosa? :uhm:
Oltre al fatto che non capisco perchè confrontare una 3090 con una 2080Ti. :uhm:Come scritto "il confronto sarebbe sulla scheda single GPU di punta" (una volta c'erano pure soluzioni multi GPU integrate sullo stesso PCB) generazione n vs. precedente.
Se la nuova va il doppio, ma costa pure il doppio sarà +100% e 0%.
Come scritto "il confronto sarebbe sulla scheda single GPU di punta" (una volta c'erano pure soluzioni multi GPU integrate sullo stesso PCB) generazione n vs. precedente.
Se la nuova va il doppio, ma costa pure il doppio sarà +100% e 0%.
Ok: chiaro. :sisi:
Ritengo comunque forzato confrontare una 3090 con una 2080Ti, nonostante le cazzate di nvidia, con tanto di gaming in 8k (anche perchè poi in realtà dovresti fare 3090Ti con 2080Ti), dato che è stata nvidia stessa a confrontare la 3080 con la 2080(Ti). :uhm:
Questa gen di gpu è stata una bomba di prestazioni, ma è vero: da giocatore guardando puramente benchmark gaming contro il prezzo, nvidia non conviene
I prezzi sono direttamente ancorati alle perf di mining, Nvidia smina meglio quindi costa di più, poi probabilmente si è aggiunta alla solita solfa che per tanti a prescindere nvidia sia > amd
Sent from my CLT-L29 using Tapatalk
AMD Details Ryzen 7000 Launch: Ryzen 7950X and More, Coming Sept. 27th (https://www.anandtech.com/show/17552/amd-details-ryzen-7000-launch-up-ryzen-7950x-coming-sept-27)
[...]all of the Ryzen 7000 chips come with an iGPU [but] is not designed to be a high-performance GPU like on AMD’s APUs.
[...]13% increase in IPC over their Zen 3
[...]top-end Ryzen 9 7950X will have a maximum turbo clockspeed of 5.7GHz, 800MHz (16%) higher than the equivalent Ryzen 9 5950X
[...]AMD expects to deliver a 29% generational increase in single-threaded performance
Latest CPU-Z Update Adds Support for Ryzen 7000 non-X SKUs: Possible 65W OEM-only Parts (https://www.techpowerup.com/298350/latest-cpu-z-update-adds-support-for-ryzen-7000-non-x-skus-possible-65w-oem-only-parts)
AMD Teases Next-Gen RDNA3 Graphics Card: Claims to Repeat 50% Perf/Watt Gain (https://www.techpowerup.com/298320/amd-teases-next-gen-rdna3-graphics-card-claims-to-repeat-50-perf-watt-gain)
AMD CEO Dr Lisa Su confirmed a 2022 launch for RDNA3.
Intel Unveils 13th Generation Core Raptor Lake-S September 27th, available October 20th. (https://www.guru3d.com/news-story/intel-unveils-13th-generation-core-raptor-lake-s-september-27thavailable-october-20th.html)
(Lo stesso giorno che escono i Ryzen 7000.)
Non-K 13th Gen Core i5 (such as i5-13400) Based on Older "Alder Lake" Architecture, Hints Intel Slide (https://www.techpowerup.com/298706/non-k-13th-gen-core-i5-such-as-i5-13400-based-on-older-alder-lake-architecture-hints-intel-slide)
Se vero, semplicemente pessimo.
Intel Expects to Lose More Market Share, to Reconsider Exiting Other Businesses (https://www.techpowerup.com/298712/intel-expects-to-lose-more-market-share-to-reconsider-exiting-other-businesses)
Intel's CEO Pat Gelsinger announced that he expects the company to continue to lose its market share to AMD as the competition has "too much momentum".
AMD's Ryzen and EPYC processors continue to deliver power and efficiency performance figures, which drives customers towards the company.
Pat Gelsinger has emphasized that the company will continue to exit more businesses where it doesn't thrive. Just like it did with Optane memoryOptane era veramente una cosa interessante.
Ethereum Switches to Proof of Stake, GPU Mining is Dead (https://www.techpowerup.com/298894/ethereum-switches-to-proof-of-stake-gpu-mining-is-dead)
ah quindi da oggi migliaia di schede video usate per minare saranno sul mercato?
Non è una cosa a sorpresa, stanno smantellando da tempo...
mah, io non mi fiderei a comprare schede con decine di migliaia di ore di lavoro a tutta birra sul groppone.
Per quanto non le prenderei nemmeno io, solitamente venivano downclockate e downvoltate per raggiungere l'apice dell'efficienza, non le tiravano a tutta birra.
dato un'occhiata, non è che ci sono dei prezzi da urlo...
Ethereum Switches to Proof of Stake, GPU Mining is Dead (https://www.techpowerup.com/298894/ethereum-switches-to-proof-of-stake-gpu-mining-is-dead)
Vabbè, lo sappiamo tutti come finirà: passeranno a minare altro. Guadagneranno di meno ma tanto le schede oramai sono ammortizzate, si guadagnasse anche un euro al giorno è sempre un guadagno.
Mi sa che il mondo crypto è un po' troppo incerto al momento... più il costo della corrente attuale...
need macchina del tempo per tornare indietro e fare una abbuffata di bitcoin nel 2009
Mi sa che il mondo crypto è un po' troppo incerto al momento... più il costo della corrente attuale...
Incerto di sicuro ma se mini in perdita stai tranquillo che non ci vai. Anche eliminado ethereum ci sono diverse altre valute che stan prendendo piede. Probabilmente avremo meno minatori "della domenica", quello sì. Discorso del tutto diverso invece per l'investimento in crypto, quello sì che è un terno al lotto.
Ad ogni modo il grosso delle farm sta in asia e in Russia, dove non hanno il caro bollette dell'Europa.
need macchina del tempo per tornare indietro e fare una abbuffata di bitcoin nel 2009
:bua:
Consiglio di tenere d'occhio i prezzi del nuovo, perché la richiesta di gpu è a picco. Se i prezzi non scendono, beh sapete il motivo (ovvero: retailer infami che non vogliono abbassare i prezzi) :asd:
Sent from my CLT-L29 using Tapatalk
Da quello che ho capito dall'ultimo "incontro" con gli investitori di nVidia, questa ha detto che sta controllando il numero di GPU che consegna ai produttori per controllare i prezzi (e prevede che la cosa continui per i prossimi due trimestri) che ha "allineato" con la prossima offerta.
Quindi la serie 4000 verrà lanciata probabilmente solo col prossimo anno ed i prezzi saranno maggiori a quelli delle 3000 che resteranno disponibili ancora a lungo.
https://www.youtube.com/watch?v=cV9QES-FUAM
Boom!
EVGA and NVIDIA To Split: EVGA Won’t Make Next-Gen NVIDIA Cards (https://www.anandtech.com/show/17578/evga-and-nvidia-to-split-evga-wont-make-nextgen-nvidia-cards)
https://images.anandtech.com/doci/17578/JPR_AIB_Gross-Margin_575px.png
AMD to Launch Radeon RX 7000 RDNA3 on 3rd November (https://www.techpowerup.com/299051/amd-to-launch-radeon-rx-7000-rdna3-on-3rd-november)
GeForce RTX 4080/4090 announcements (preview) (https://www.guru3d.com/articles-pages/geforce-series-4000-announcements-(preview),1.html)
Metto anche qua da Just 4 Spam
4080
https://i.imgur.com/fnbIFTn.jpeg
4090
https://i.imgur.com/dkhewR9.jpeg
1100 euro l'msrp del modello più sfigato :chebotta: A spanne la 4060 sarà sui 600 abbondanti e la 4070 sopra gli 800. D'altraparte si sapeva. Le 3000 restano in commercio e non gli abbassano i prezzi, quindi queste devon spararle alte. Son curioso di vedere quanto venderanno senza la spinta del mining.
DLSS 3 comunque pare una cosa mostruosa.
Meriterebbero proprio un AMD che gli tira una mossa alla Ryzen 2017 ad Intel...
Ma non succederà.
Le due 4080 non cambiano solo per quantitativo di VRAM:
4080 16GB 256bit 9728 core (1199$)
4080 12GB 192bit 7680 core ~79% (899$)
Questa è veramente una mera 4070... e semplicemente ingiustificabile a 900$!
Meriterebbero proprio un AMD che gli tira una mossa alla Ryzen 2017 ad Intel...
Ma non succederà.
I prezzi saranno alti anche per AMD, c'è pur sempre la crisi, ma se in rasterizzazione se le giocano restano ancora indietro per DLSS (o FFX che dir si voglia) e RT quindi Nvidia mantiene più appeal.
A pensar male potrei dire che il DLSS 3, per me la cosa più interessante uscita dalla presentazione, non sia compatibile manco con le 3000 per scelta voluta più che per limiti tecnici.
Cercando un lato positivo si puo' nutrire una flebile speranza in una 4050 con prezzo/prestazioni decenti, e a stò giro se tanto mi da tanto pure la 50 sarà una bella bestia... speranza che però svanisce sul nascere tenendo presente la "rogna" della serie 3000 che resterà sul mercato ancora a lungo.
con la 6700xt che ho, questa gen manco la guardo: cosa me ne faccio di cambiare scheda, se già ora a 1440p faccio più di 90fps con tutti i giochi, anche i più esosi? :uhm:
risposta, niente :asd:
quindi seguirò con interesse e basta, tra l'altro amd, al contrario di nvidia, non fa giochetti sulla retrocompatibilità delle sue tecnologie, quindi il FSR aggiornato in futuro, me lo becceherò pure io :sisi:
La cosa più interessante che ho visto è stato il futuro rilascio del tool per portare l'rt un pò in ogni gioco. Potrebbe dare una mano a diffondersi e svecchiare tanti vecchi titoli.
se già ora a 1440p faccio più di 90fps con tutti i giochi, anche i più esosi? :uhm:
Ma qui vogliono portarci nel ray tracing...
la 4090 sembra interessante per il rendering, ma ovviamente c'é da aspettare i benchmark.
Sbaglio o non hanno rilasciato info ufficiali sui TDP? Si vede solo nel grafico dell'efficienza, sulla carta aumentata sensibilmente. Li la 4090 la fanno arrivare fino a 450w.
Per quanto mi riguarda a seconda delle prestazioni/TDP della 4090 potrei anche decidere di prendere una seconda 3090, raddoppiando cosí la ram. Vedremo.
la 4090 sembra interessante per il rendering, ma ovviamente c'é da aspettare i benchmark.
Sbaglio o non hanno rilasciato info ufficiali sui TDP? Si vede solo nel grafico dell'efficienza, sulla carta aumentata sensibilmente. Li la 4090 la fanno arrivare fino a 450w.
Per quanto mi riguarda a seconda delle prestazioni/TDP della 4090 potrei anche decidere di prendere una seconda 3090, raddoppiando cosí la ram. Vedremo.
Ho visto che in questo periodo le 3090 sono scontate un po' ovunque (qua meno che in america, dove costano quanto una 3080Ti :bua: ). :sisi:
Ho visto che in questo periodo le 3090 sono scontate un po' ovunque (qua meno che in america, dove costano quanto una 3080Ti :bua: ). :sisi:
vabbé in america c'é sempre il discorso che nel prezzo non c'é l'iva perché dipende da stato a stato, o roba del genere.
Comunque si, ora i tempi sarebbero anche buoni per prendere una seconda 3090 :uhm: Provo ad aspettare un po' per rendermi conto meglio di queste nuove schede, spero che non succeda una nuova apocalisse delle schede video nel frattempo :bua:
La cosa più interessante che ho visto è stato il futuro rilascio del tool per portare l'rt un pò in ogni gioco. Potrebbe dare una mano a diffondersi e svecchiare tanti vecchi titoli.
La morte delle remastered :asd:
con la 6700xt che ho, questa gen manco la guardo: cosa me ne faccio di cambiare scheda, se già ora a 1440p faccio più di 90fps con tutti i giochi, anche i più esosi? :uhm:
risposta, niente :asd:
quindi seguirò con interesse e basta, tra l'altro amd, al contrario di nvidia, non fa giochetti sulla retrocompatibilità delle sue tecnologie, quindi il FSR aggiornato in futuro, me lo becceherò pure io :sisi:
Non hai ancora capito il giochino. A livello di rasterizzazione tutta la scorsa gen, sia AMD che Nvidia, a parte rare eccezioni i giochi li brutalizzava tutti senza problemi, non c'è tutto questo bisogno di più potenza bruta. Ma la gente deve giocare in 2-4K col RT, stanno spingendo tutto su quello. Sin dal lancio, prematuro, della serie 2000 le schede han sempre fatto molta fatica. Forse, grazie soprattutto al DLSS3, questa serie 4000 è la prima davvero in grado di gestirlo decentemente.
DLSS3, come lo hanno spacciato, mi sembra un po' troppo magico: genera frame dal... nulla?
Ma qui vogliono portarci nel ray tracing...
ah beh, allora... :asd:
- - - Aggiornato - - -
La morte delle remastered :asd:
Non hai ancora capito il giochino. A livello di rasterizzazione tutta la scorsa gen, sia AMD che Nvidia, a parte rare eccezioni i giochi li brutalizzava tutti senza problemi, non c'è tutto questo bisogno di più potenza bruta. Ma la gente deve giocare in 2-4K col RT, stanno spingendo tutto su quello. Sin dal lancio, prematuro, della serie 2000 le schede han sempre fatto molta fatica. Forse, grazie soprattutto al DLSS3, questa serie 4000 è la prima davvero in grado di gestirlo decentemente.
che spingano pure, non ho interesse :boh2:
una generazione si salta sempre, a meno di non avere l'albero dei soldi in giardino
una generazione si salta sempre, a meno di non avere l'albero dei soldi in giardino
Una ? Io ne salto 5 o 6 di solito :asd:
Lusso è cambiare ogni due/tre generazioni...
vabbé in america c'é sempre il discorso che nel prezzo non c'é l'iva perché dipende da stato a stato, o roba del genere.Vero. :bua:
in effetti la 1660ti del mio portatile va sempre piú che bene per giocare a 1080p con il 90% dei giochi in circolazione
Una ? Io ne salto 5 o 6 di solito :asd:
era per dire :asd:
dalla gtx970 sono passato alla 590: quante sono 2/3?
e dalla 590 alla 6700xt perchè col passaggio dal fhd ai 1440p non ce la faceva
se no era sempre lì: l'ho montata al pc del nipote e va sempre una meraviglia
il fatto è che finchè va bene, non si cambia :sisi:
era per dire :asd:
dalla gtx970 sono passato alla 590: quante sono 2/3?
e dalla 590 alla 6700xt perchè col passaggio dal fhd ai 1440p non ce la faceva
se no era sempre lì: l'ho montata al pc del nipote e va sempre una meraviglia
il fatto è che finchè va bene, non si cambia :sisi:
Io son passato dalla Voodoo1, alla Voodoo2, alla geforce 2, alla GTX 275 all'attuale GTX 660. Hai voja se ne salto di generazioni :asd:
DLSS3, come lo hanno spacciato, mi sembra un po' troppo magico: genera frame dal... nulla?
interpolazione da una risoluzione inferiore. Tramite AI è in grado di generare una risoluzione superiore abbastanza fedele a quello che sarebbe dovuto essere l'originale
interpolazione da una risoluzione inferiore. Tramite AI è in grado di generare una risoluzione superiore abbastanza fedele a quello che sarebbe dovuto essere l'originale
Non solo, l'IA genera in anticipo i frame, è quella la vera novità. E soprattutto hanno alvorato moltissimo sull'algoritmo di parallelizzazione delle operazioni dando un boost significativo alle performance.
interpolazione da una risoluzione inferiore. Tramite AI è in grado di generare una risoluzione superiore abbastanza fedele a quello che sarebbe dovuto essere l'originaleQuello è il vecchio.
Ora promettono di superare i colli di bottiglia di CPU o GPU.
Molto vagamente "A.I. qualcosa".
La storia del elaborazione Out-of-Order è un altra ancora.
Anandtech - AMD Zen 4 Ryzen 9 7950X and Ryzen 5 7600X Review: Retaking The High-End (https://www.anandtech.com/show/17585/amd-zen-4-ryzen-9-7950x-and-ryzen-5-7600x-review-retaking-the-high-end)
Guru3D - AMD Ryzen 9 7950X review (https://www.guru3d.com/articles-pages/amd-ryzen-9-7950x-review,1.html) | DDR5 Ryzen 7 7700 DDR5 memory scaling review (https://www.guru3d.com/articles-pages/ddr5-ryzen-7-7700-ddr5-memory-scaling-review,1.html)
https://www.youtube.com/watch?v=nRaJXZMOMPU
https://www.youtube.com/watch?v=_WubXd2tXOA
https://www.youtube.com/watch?v=pfbAoV6gJFI
ho guardato solo GN per il 7950x... cioé praticamente quello che hanno guadagnato in prestazioni hanno perso in efficienza se ho capito bene? :uhm: La cpu consuma esattamente il doppio underload rispetto alla gen precedente, e le prestazioni sono mediamente il 50/60% migliori.
Poi c'é anche il discorso dei 95 gradi "a prescindere" e che la bontá del raffreddamento detterá le prestazioni in modo piú prominente che in passato.
Boh... spero di aver capito male ma non mi pare una gran generazione
visto niente, ma se è così vuol dire che amd sta con l'acqua alla gola rispetto alla concorrenza
Diciamo che hanno completato la "migrazione" dalle più classiche CPU al "modello" GPU.
O, forse meglio, le GPU già da generazioni hanno questo approccio di... dargli tutto il possibile.
Quando un qualcosa spinge al massimo possibile, l'efficienza, di conseguenza, ne risente.
Sarebbe da trovare qualche test con settaggi bloccati.
Su GN l'R9 5950X resta più efficiente del R9 7950X ma questo è sui valori di R9 5900X... non di un Intel i9...
----
Mentre dalla review del R5 7600X, in produttività, questo va a prendersi il R7 5800X, cioè compensa due core.
Se non sbaglio non diverso dal R5 5600X che raggiungeva il R7 3700X...
Nei giochi R5 7600X sostanzialmente raggiunge R7 5800X3D... che ovviamente rimane più attraente come upgrade per chi è giù su AM4.
visto niente, ma se è così vuol dire che amd sta con l'acqua alla gola rispetto alla concorrenza
Bah non direi, Semplicemente a stò giro si son concentrati più sulla piattaforma che sulle CPU in sè che si son limitati a tirare per il collo con le frequenze. E' il debutto di AM5 con tutti i suoi cazzi e mazzi (e costi alle stelle sia di mb che di ram). Di certo questi 7000 sono poco appetibili per costi, temperature e consumi ma i frutti del lavoro di AMD si vedranno con la prossima serie. Se anche con i 9000 saremo nella stessa situazione allora sì che c'è qualche problemino. Parlare di AMD con l'acqua alla gola mi pare un filino esagerato.
Francamente non mi aspetto miracoli dalla serie 13 Intel che non dovrebbe distaccarsi moltissimo dalla serie 12.
Acqua alla gola è avere la CPU spinta fuori realistiche specifiche per una manciata di minuti finché nemmeno un chiller ce la fa più.
Qui va 95° in una manciata di secondi e ci resta poi per ore senza downclockarsi nel oblio.
NB: specifiche per overclock manuale parlano di 115°.
Poi c'è l'ECO Mode.
AMD's Ryzen 7000 ECO Modes are as follows:
170W TDP Base = 105W with ECO Mode enabled
105W TDP Base = 65W with ECO Mode enabled
[...]
For reference, restricting the Ryzen 9 7950X to 65W only loses around 18-19% in CB23 MT performance; very impressive.
Il vero punto debole in tutto son le MoBo ed i prezzi folli.
Tocca veramente aspettare le B650.
Il vero punto debole in tutto son le MoBo ed i prezzi folli.
Tocca veramente aspettare le B650.
Esatto. Per mobo e ram devi vendere un rene. E poi pure le CPU non certo economiche. D'altraparte col cambio di socket lo stacco ci voleva ma gli taglierà parecchio le gambe come vendite.
Continuano poi a lasciar scoperta la fascia di CPU più economiche dove Intel la fa da padrone. E pensare che per le config economiche AMD potrebbe sforzarsi e sfornare una APU coi controcazzi che coprirebbe la fascia bassa sia di CPU che di schede grafiche gaming.
C'è da dire che una CPU da 150€ abbinata a 300€ di RAM ed altri di MoBo non avrebbe molto senso comunque.
C'è da dire che una CPU da 150€ abbinata a 300€ di RAM ed altri di MoBo non avrebbe molto senso comunque.
A questo giro hai sicuramente ragione visti i prezzi esorbitanti. Sarebbe però stato un'ulteriore motivo per concentrarsi su una APU che coprisse la fascia bassa.
Non credo cmq che i nuovi intel saranno molto più economici. Per non spendere un patrimonio ora tocca guardare e sperare nei ribassi delle gen precedenti (che restano sempre ottimo hardware)
sinceramente sono un po' deluso dalle recensioni degli ultimi ryzen, mi aspettavo qualcosina in più
Acqua alla gola è avere la CPU spinta fuori realistiche specifiche per una manciata di minuti finché nemmeno un chiller ce la fa più.
Qui va 95° in una manciata di secondi e ci resta poi per ore senza downclockarsi nel oblio.
Si, ok: ma con un raffreddamento a liquido con radiatore triplo. :bua:
Qua se ti cala una ventola ottieni la fusione nucleare in casa, Ryzen 9 ITER Edition. :asd:
Già che stai usando un impianto a liquido: significa che stai scaldando gli altri componenti (tipo la scheda grafica), hai di fatto un riscaldamento a liquido per tutto tranne la CPU. :bua:
A meno di non avere due loop separati. :uhm:
In pratica l'ECO Mode è la modalità di lavoro normale e quella standard è in realtà una modalità turbo. :sisi:
In ogni caso con quei dati il 7950 mi sembra ancora più di nicchia di un 5950/3950. :uhm:
Si, ok: ma con un raffreddamento a liquido con radiatore triplo. :bua:
Qua se ti cala una ventola ottieni la fusione nucleare in casa, Ryzen 9 ITER Edition. :asd:
Già che stai usando un impianto a liquido: significa che stai scaldando gli altri componenti (tipo la scheda grafica), hai di fatto un riscaldamento a liquido per tutto tranne la CPU. :bua:
A meno di non avere due loop separati. :uhm:
In pratica l'ECO Mode è la modalità di lavoro normale e quella standard è in realtà una modalità turbo. :sisi:
In ogni caso con quei dati il 7950 mi sembra ancora più di nicchia di un 5950/3950. :uhm:Bon in realtà dai test su techpowerup quelle temperature si hanno solo in produttività spinta sulla CPU, tipo cinebench. In gaming si sta sui 65,che sono comunque alti ma gestibilissimi
Inviato dal mio RMX3363 utilizzando Tapatalk
Si, ok: ma con un raffreddamento a liquido con radiatore triplo. :bua:
Qua se ti cala una ventola ottieni la fusione nucleare in casa, Ryzen 9 ITER Edition. :asd: :facepalm:
A prescindere dal raffreddamento la CPU vien spinta fin verso i 95°.
Più raffreddamento hai disponibile, più frequenza extra guadagni.
Se hai raffreddamento "tradizionale" non avrai o avrai poca frequenza extra.
Funziona come funzionano le GPU da diverse generazioni ed, in parte, come stavano già facendo coi 5000.
7950X avrebbe 4.5GHz con tutti i core. Nelle review, con raffreddamento spinto, andava a 5.2GHz da se.
E stabilmente, non meri picchi momentanei.
in ogni caso mi pare una release piuttosto deludente. I grafici di efficienza parlano chiaro: la serie zen4 al momento é meno efficiente di zen 3 :boh2:
Poi certo, siamo agli albori della nuova piattaforma e via dicendo, ma questo non cambia i fatti. Spero che ci sia parecchio margine di miglioramento sulla nuova AM5, peró per me a questo giro AMD non ha fatto una gran release da quello che vedo per il momento. Con raptor lake alle porte credo che il vantaggio AMD nel campo CPU sia ormai andato.
Mi sembra che la modalità ECO sia interessante in quel ambito, son le review che si son concentrate solo sulle performances massime.
https://images.anandtech.com/graphs/graph17585/130335.png
Comunque se uno ha una CPU 5000 non ha senso fare l'upgrade.
Se uno ha AM4 e non 5000... probabilmente ha più senso aggiornare a 5000.
Mi sembra che la modalità ECO sia interessante in quel ambito, son le review che si son concentrate solo sulle performances massime.
https://images.anandtech.com/graphs/graph17585/130335.png
Comunque se uno ha una CPU 5000 non ha senso fare l'upgrade.
Se uno ha AM4 e non 5000... probabilmente ha più senso aggiornare a 5000.E uno come me che ha un 6600k? [emoji23]
Inviato dal mio RMX3363 utilizzando Tapatalk
Aspetti ancora un po' ed anche un Atom sarà un valido upgrade... :asd:
Gracemont (gli E-core della 12a e 13a gen) son paragonabili a Skylake (6a gen)
Mi sembra che la modalità ECO sia interessante in quel ambito, son le review che si son concentrate solo sulle performances massime.
https://images.anandtech.com/graphs/graph17585/130335.png
Comunque se uno ha una CPU 5000 non ha senso fare l'upgrade.
Se uno ha AM4 e non 5000... probabilmente ha più senso aggiornare a 5000.
Interessante... si sanno i consumi effettivi del 7950x in ECO mode a 65w?
Comunque si, concordo che dal mio 3900xt eventualmente sto valutando il 5950x, che ho tra l'altro appena visto che consuma meno del mio :bua:
Come detto non ho trovato nessuna review approfondita sul ECO...
Arriverà certamente tra qualche giorno.
Det. Bullock
27-09-22, 13:16
Meno male che quando presi il 5800x mi raccomandarono il Noctua NH-D15s perché sennò scaldava. :bua:
Vediamo come va con le schede video, a stò punto mi basta che ne tirino fuori una di fascia medio-alta che non mi richieda di cambiare l'alimentatore (e anche lì pensavo di esagerare comprandone uno da 750 watt).
Non è infatti un assoluta novità che queste CPU cercano di spingere il più possibile in automatico.
Con Zen3 il primo "muro" era la potenza e quindi il voltaggio, ora il primo è la temperatura ed a valori più alti.
E' anzi interessante vedere come il voltaggio non si questo grande limite.
Il PC di mio fratello ha sempre un 5800x ma con più modesto Hyper 212 EVO.
Ma lui ci gioca solo.
Det. Bullock
27-09-22, 14:31
Non è infatti un assoluta novità che queste CPU cercano di spingere il più possibile in automatico.
Con Zen3 il primo "muro" era la potenza e quindi il voltaggio, ora il primo è la temperatura ed a valori più alti.
E' anzi interessante vedere come il voltaggio non si questo grande limite.
Il PC di mio fratello ha sempre un 5800x ma con più modesto Hyper 212 EVO.
Ma lui ci gioca solo.
Tecnicamente pure io, e infatti volevo prendere una roba del genere ma me l'avevano sconsigliato.
Presentazione Raptor Lake senza nulla di inaspettato.
Anche qui prezzi MoBo semplicemente ridicoli... forse peggio perché queste non avranno compatibilità con le future CPU.
Powered by vBulletin® Version 4.2.5 Copyright © 2025 vBulletin Solutions Inc. All rights reserved.