Nessuno dice che l’rt sia indispensabile, ma non sono due effettini del cavolo. Poi oh, ognuno ha i suoi gusti, ma dove implementato bene è stupendo. Sfido chiunque (con un minimo di onestà intellettuale e senza salame sugli occhi) a dire che, ad esempio, cyberpunk con e senza RT è la stessa cosa.

Discorso DLSS, la qualità visiva non mi pare si perda o comunque si parla di roba che devi stare li ad analizzare un fermo immagine con la lente di ingrandimento, cosa che in moltissimi casi non si può dire per il ray tracing. Oltretutto per quanto mi riguarda ho sempre preferito eventualmente abbassare la risoluzione ma tenere tutto al massimo.

Detto questo io non faccio tifo ne di qui, ne di là, anzi, direi che se AMD riuscisse a mettere pressione a nvidia sarebbe meglio, visto che al momento nvidia ha troppo mercato. Basta vedere cosa sono riusciti a fare in ambito CPU. Nvidia però a differenza di intel, pur sfruttando la situazione di dominio che ha, non sta con le mani in mano. LA 7900xtx è ottima in raster e costa meno della 4080, però non si può ignorare una cosa: se spendo 1000 euro di scheda video VOGLIO mettere tutto a paletta, anche l’RT e ci sono ottime probabilità che sei hai quelle disponibilità economiche per prendere una scheda video per giocare, a quel punto spendi i 200 euro in più e prendi la 4080.

My 2 cents.

AMD secondo me doveva essere più aggressiva coi prezzi, così non lo so cosa succederà. Spero che almeno nella fascia media spezzi le gambe a nvidia, ma qui è una situazione complicata.

PS: gamers nexus per me sta esagerando: non capisco quale sia la reale utilità di test tipo la pressione del dissipatore sul chip e poi non mettono mezzo test di produttività che sia mezzo… blender o simili. Boh… e purtroppo con blender non c’è storia, quindi per me rimane scelta obbligata nvidia