Si*.
C'è la questione complessità / numero di raggi impiegati.
Non arriva a 30fps con la scheda più potente...
I frame farlocchi non li considero, visto che permettono banalmente di alterare arbitrariamente la metrica come più si vuole.
Visualizzazione Stampabile
Si*.
C'è la questione complessità / numero di raggi impiegati.
Non arriva a 30fps con la scheda più potente...
I frame farlocchi non li considero, visto che permettono banalmente di alterare arbitrariamente la metrica come più si vuole.
l'uso del DLSS è cmq un artifizio
preferisco risoluzione "vera" senza RT: ad oggi è una tecnologia inusabile
mostri filmanti con ray tracing a >100 fps
tecnologia inusabile, amd is better
naturalmente i fan boy sono quelli di nvidia
che dire, è tutta... nvidia :trollface:
Gli unici fanboy son quelli che si fanno prendere per il culo dai fake frame...
l'unica cosa che importa è la resa a schermo.
4090, lo dicono.
Livello di DLSS 3.0, non è specificato ma presumo performance visto che quadruplica i fps.
Qualità visiva... di un video compresso da youtube?
beh alla fine è la solita cosmesi grafica.
Non voglio dire che non rende bene, anzi tutt'altro.
Però costa un casino (mi pare di capire che ci vogliono due 4090)
I giochi possono migliorare anche sotto altri aspetti, sonoro, fisica ecc..
Ci vuole qualcuno coraggioso che intraprende una strada diversa e magari realizza qualcosa di carino e originale.
I due effettini fino adesso sono la "solita cosmesi grafica", ma passare da rasterization al "full" tracing è significativo.
il DLSS impostato a quality offre una migliore qualità visiva rispetto al nativo, perlomeno a 1440p dove ho modo di testare, a 1080p no.
Parentesi: questo con DLSS aggiornati E bisogna tenere da conto che, sì, se ti metti immobile a controllare qualche mini artefatto lo troverai sempre. La domanda è: si notano mentre giochi o negli screenshot? No.
Esempio, su un pavimento piastrellato a texture ripetute puoi trovare effetti leggerissimamente sbavati o vagamente "mossi" come se il rendering non fosse sicuro di cosa c'è sulla piastrella. Per accorgerti devi mettere a determinate distanze immobile a fissare le piastrelle. :asd:
Il Raytracing dalle serie 3000 in poi è usabile, gioco con RT Psycho 1440p su Cyberpunk e fa stabilmente 60+ fps da quando ho cambiato CPU, ovviamente con DLSS quality
per il path tracing ovviamente lo stanno mostrando solo come dimostratore tecnologico, se farà 30 fps con il DLSS 3 su una 4090 è grasso che cola.
Ah fra parentesi il mio discorso per il DLSS vale per il DLSS 2, il DLSS 3 aggiunge un'altra sezione di artefatti a parte molto più complessi dovuti alla generazione di frame e non ho modo di testare perché non ho buttato soldi sulle serie 4000 :asd:
- - - Aggiornato - - -
Basta una 3080 (il che significa che da questa gen probabilmente basterà una 4060ti, quando si degneranno di lanciarla) ed il DLSS ma il problema è che se uno parla per sentito dire invece di provare le cose si crea dei preconcetti falsi :asd: tipo rimanere al concetto di DLSS che c'era X anni fa, al DLSS1 :asd:
ricordo che bisogna aggiornare la DLL del DLSS sui giochi più vecchi tipo RDR2 altrimenti fa cagà, sì.
tutto bello, ma resta un artifizio per aumentare gli fps :boh2:
ho una amd, volendo potrei usare l'FSR, che non sarà uguale al DLSS, ma il suo lavoro lo fa: preferisco ancora diminuire i dettagli e giocare alla risoluzione vera, se ci fosse bisogno
fortunatamente la mia 6700xt macina bene e per ora non ho avuto bisogno di scendere a compromessi
in futuro chissà, ma la mia preferenza va sempre nella solita direzione
questione di gusti
Quindi che fai, nei giochi disabiliti le ombre e l'antialias perché sono artifizi grafici? :asd:
L'FSR non ha gli stessi benefici grafici del DLSS (ancora)Citazione:
ho una amd, volendo potrei usare l'FSR, che non sarà uguale al DLSS, ma il suo lavoro lo fa: preferisco ancora diminuire i dettagli e giocare alla risoluzione vera, se ci fosse bisogno
non ci siamo capitiCitazione:
fortunatamente la mia 6700xt macina bene e per ora non ho avuto bisogno di scendere a compromessi
in futuro chissà, ma la mia preferenza va sempre nella solita direzione
questione di gusti
DLSS Quality ha una resa grafica superiore al nativo (edit: a meno che non giochi a 1080p, ripeto)
Ma anche no. E se cerchi in rete trovi diversi video con esempi che te lo dimostrano e ti spiegano il perchè. Puoi avere una sensazione di maggior nitidezza ma ciò non significa immagine migliore, anzi. E' una cosa forzata dovuto al lavoro dell'IA e che non corrisponde alla realtà. Spesso è anche fastidiosa. Nei giochi più frenetici puoi anche non notarlo ma:
1) Gira il cazzo spendere l'iradiddio per una scheda per poi doversi ridurre a giocare upscalando, e questo vale per principio.
2) In alcune situazioni si nota lo stesso ed è fastidioso.
Il DLSS in sè sarebbe un'ottima trovata per migliorare la longevità di una scheda e un modo per sfruttarla meglio a fine vita. Ma se lo devi usare da subito quando la compri perchè non regge i giochi in circolazione in quel momento thanx but no thanx. Si tengono i loro riflessini e gioco nativo.
Prima domanda: che gpu hai
seconda domanda: non è una domanda, lo sto dicendo perché è così
https://i.imgur.com/t3crtnJ.jpg
L'immagine l'ho fatta tempo fa non ho voglia di fare altri paragoni ma sono davvero stanco di leggere falsità :bua: DLSS quality ha una resa visuale migliore del nativo a 1440p+, l'ho verificato in tutti i giochi che ho e ormai lo attivo sempre. Ho aggiornato le dll di rdr2 e god of war, il miglioramento è NETTO, cyberpunk e naraka bladepoint idem perfetti.
Naraka è un action super intensivo multiplayer e non si nota nessun artefatto.
Ripeto che queste sono falsità e preconcetti di svariati anni fa, non si possono più leggere, pare di leggere "ma come ti fai la macchina? I cavalli non richiedono benzina, sai che stress spendere l'iradiddio per un motore a scoppio e poi non puoi girare con le carote? Per principio" - questo è il senso del post. :asd:
Ma anche si.
Una qualsiasi staccionata / ringhiera o lo skyline dei palazzi.
E non parliamo dei giochi di guida dove aver la macchina "ferma" in mezzo fa saltare all'occhio subito le aberrazioni appena vicine.
C
A
Z
Z
A
T
A
Parlavi di chi parla senza aver provato... e di quelli che hanno sostanzialmente subito il lavaggio del cervello e vedono quello che gli dicono di vedere, ne parliamo?
Sono proprio le cose che si vedono meglio e più chiare con il DLSS :asd: (i dettagli sottili distanti sono il punto forte, es. cavi della luce su sfondo chiaro, li rende meglio di qualsiasi antialias)
roba che succedeva anni faCitazione:
E non parliamo dei giochi di guida dove aver la macchina "ferma" in mezzo fa saltare all'occhio subito le aberrazioni appena vicine.
Edit: AMD Rx 6800
appunto
continuiamo vi prego :asd:
Raghi io ho una 3080, al contrario di te non sto parlando per cultismo, quindi, ora non ho tempo ma se vuoi sabato ti faccio un po' di screenshots.
Il problema è che con i fanboy che comprano per culto invece che per vantaggio all'utente finale manco con gli screenshots si risolve. Infatti ho linkato sopra degli screen dove proprio i dettagli sottili vincono e stai qui a scrivere che son cieco.
Ho un display 27" 165hz a basso input lag per la cronaca, non sto guardando attraverso un vaso di plexiglas. Fate vobis.
se vi interessa c'è un video di 33 minuti fresco fresco di HWU, ma che usa dll vecchie per il DLSS quindi molti dei problemi indicati sono ridotti dalle dll recenti: god of war e red dead 2 sulle dll stock fanno cagare e si vedono tutti gli artefatti che menzionate :fag:
https://youtu.be/1WM_w7TBbj0
edit: sottolineo che qui parla di ghosting che effettivamente salta fuori a 4K ed è meno presente a 1440p, quindi sicuro, la mia opinione più positiva del DLSS può essere influenzato da questo, se vogliamo cavillare.
- - - Aggiornato - - -
beh hai detto cose false e datate infatti, rimani a DOS e Olivetti, lascia parlare di tecnologie odierne a chi le usa.
Ma... lo hai vito il video linkato? Messo le dita nelle orecchie quando parla degli artefatti?
"DLL vecchia" è la nuova scusa eh?
Ti metto nella categoria dei terrapiattisti vah.
Scusate per capire se sono ipovedente io così nel caso vado da un oculista, voi vedete grosse differenze tra queste immagini? Cioè confrontandole tipo "aguzzate la vista" le differenze le trovo anche, ma dire che me ne accorgerei se non fossero affiancate con scritto ON e OFF anche no. Poi boh magari in movimento è tutta un'altra cosa.
Ma sono minuscole, hai voja.
Primo video che m'è capitato sottomano, ma ne trovi quanti ne vuoi:
https://www.youtube.com/watch?v=cm104QP1eDY
Ma che vuol dire. E' una nitidezza forzata e innaturale che non deve manco esserci e fa perdere profondità. Ma come si fa a dire che è migliore del nativo. Posa il fiasco.
è per fare un caso generale, dovrei fare molti più screen ma sono onestamente ore di lavoro
il punto è semplicemente: DLSS quality a 1440p+ può introdurre qualche piccolo artefatto, ma generalmente migliora la qualità visiva e, sicuramente, è meglio che giocare a dettagli ridotti. Tutto qui il discorso. Chi fa resistenza ha usato DLSS vecchi perché - ripeto - le vecchie iterazioni facevano cagare, tipo GoW o RDR2 con DLSS stock hanno qualsiasi fogliame che sfarfalla manco fosse un rave, ingiocabile.
- - - Aggiornato - - -
veramente è il contrario, è migliore di qualsiasi sistema di antialias, introduce naturalezza all'immagine, i dettagli vengono restituiti in una maniera più realistica e piacevole all'occhio :asd: l'esempio in quelle immagini è perfetto, guarda le luci sul "soffitto" sui vari elementi come sono naturali vs nativo.
scusate eh, ma il dlss serve per avere una illuminazione reale (dove è prevista) che altrimenti sarebbe improponibile (come sulle amd) e una illuminazione reale è >>>>>>>>> rispetto a una texture leggerissimamente più definita e basta che per notarla devi stare li' a guardare con la lente due immagini accostate :asd:. non è che uno ha una nvidia per usarla come una amd, altrimenti era meglio prendersi una amd che costa meno lol
Edit: ho capito dopo il tuo discorso, sono scemo
hai ragione sì, cioè non è solo per quello ma in generale lo scambio di quel minimo artefatto ogni tanto con il DLSS vs poter giocare con i dettagli a bomba è sempre favorevole al DLSS, sì, non ha senso ridurre le impostazioni, giocare a medio è peggio che giocare con il DLSS a prescindere, pure fosse DLSS balanced :asd:
lascio il resto del post perché why not
il DLSS è una tecnologia di super sampling ma dove casca l'asino e dove ci sono i commenti "è solo upscaling" è dovuto al fatto che fra dlss 1 e 2 sono cambiate tante cose
in breve il centro del "problema" è che è una tecnologia che fa leva sull'hardware AI dedicato Nvidia, il risultato è che prende quello che viene renderizzato e te lo sputa su schermo o ad un dettaglio migliore oppure alla miglior performance possibile in base alle impostazioni (se lo setti su "performance" manderà a cagare ogni pretesa di dettaglio però gira tutto fluido... onestamente così non lo userei mai se non su display minuscoli, tipo su uno Steam Deck.)
Il risultato è, nel 99% dei casi, anche un'immagine migliore per via di come viene portata su schermo l'immagine: il futuro del rendering è ridurre la forza bruta poligoni e peni geometrici ed aumentare l'interpretazione hardware-software per avere il massimo dettaglio alla minima potenza pura di rasterizzazione.
Un esempio perfetto di questo è che il DLSS è in grado di prendere un'impalcatura sottile e lontana su un edificio e restituirla nitida e netta senza scalettature, mentre usando il rendering tradizionale neanche con MSAA ad 8X ci si riuscirebbe e gli altri filtri introducono altri problemi ben più gravi (l'FXAA è ben peggio del DLSS, il MSAA non può essere usato oltre 8x perché comincia ad introdurre artefatti seri oltre a richiedere una montagna di potenza, altre tecniche di AA hanno altri problemi, tecniche di supersampling puro raddoppiano o più la potenza richiesta, etc.)
E sì, tutto questo partendo da un'immagine teoricamente a risoluzione minore, ma va a pescare nello specifico ed il risultato finale è comunque migliore quindi, why not.
l'FSR sta chiudendo il gap molto velocemente ma purtroppo senza avere hardware dedicato fa fatica in tanti frangenti. Comunque è questione di tempo, così come ora le schede AMD top di gamma possono giocare con i giochi in raytrace senza esplodere, pure per l'FSR ci sarà una parità effettiva prima o poi.
Cercarla di rigirarla come nVidia vs. AMD... quando anche AMD sta facendo le medesime cazzate con FSR.
:facepalm:
Qualche giorno fa la sfottevo qua dopo che hanno annunciato pure loro i fake frame per FSR 3.0.
Stando perdendo tempo a sviluppare fregnacce invece di dedicarsi a cose serie.
E son retti dal marketing a da chi se lo beve... eg.: continuar a chiamare supersampling un cazzo di upscale...
"ehhhh ma i carburatori erano meglio!!!1!11"...
mi sarò spiegato male. A) il dlss ti serve per permetterti il rt, dato che un rt di pura potenza di calcolo (giocabile) allo stato pare abbastanza fuori portata, quindi se vuoi l'illuminazione in tempo reale del rt che sia giocabile ti serve il dlss.B) l'illuminazione in tempo reale la noti >>>>> rispetto a texture leggerissimamente più dettagliate perché migliora enormemente l'atmosfera di gioco, anche senza "fissarsi su riflessi e dettagli" (che poi, al limite, il discorso dei dettagli migliori erano i pro amd a usarlo ^^).
In teoria... la realtà però è diversa oggi. Innanzitutto ammazza le prestazioni delle schede, al punto che devi ricorrere a trucchetti come DLSS o FFX per giocare, poi per come è implementato oggi puoi tranquillamente fregartene e tenerti le prestazioni dure e pure della tua scheda, e quelle sì che ti migliorano l'esperienza di gioco.
Lo applicano solo a pochi elementi e fonti di luce perchè sennò nessun hw lo regge, vedere la prova con la 4090 in CP col path tracing che fa 16 fps senza DLSS3, e per pomparlo e cercare di far vedere il più possibile che c'è ti sparano a schermo marciapiedi che sembran di marmo e ogni superfice in grado di riflettere lucidata a specchio. Il risultato è tutto fuochè realistico e naturale.
La strada è ancora lunghissima, sia a livello di hw che di implementazioni, oggi è più che altro una scusa per aumentre i prezzi delle schede al di là dei normali rincari dovuti ai problemi che conosciamo tutti. Poi se vogliamo essere ancora più smaliziati si puo' anche dire che serviva più a Nvidia per vendere che ai suoi acquirenti: come rasterizzazione AMD l'aveva ( l'ha) sostanzialmente raggiunta e si era arrivati al punto che con una 60 ci giocavi pure in 2K, restringendo ulteriormente il bacino d'utenza delle schede di fascia alta. Ora riescono a venderti a mille euro una 4080 e in molti casi va pure stretta se giochi col RT.
no, decisamente no
https://twitter.com/_BD3D/status/163...496631810?s=20
https://twitter.com/_BD3D/status/163...947641352?s=20
https://twitter.com/_BD3D/status/163...981409793?s=20
https://twitter.com/_BD3D/status/163...844919296?s=20
PS: questa roba sta girando su una 2080
Dipende da quanti raggi usi eh, senza contare che quelli sono scenari statici.
quello é full path tracing, non ray tracing. Ovvio che un video gioco é tutta un'altra storia, ma se un full path tracing gira praticamente in real time su una 2080, con roba come volumetriche, SSS e via dicendo giá implementate, direi che non siamo cosí lontani a livello HW.
Sul discorso raggi, ovvio che dipende quanti raggi usi, ma i motori di render fanno compromessi anche per il render offline dei blockbuster al cinema, quindi direi che possiamo accettare dei compromessi anche nel real time se i risultati visivi sono quelli. Non sarei stupito se quel motore ha massimo 2-3 bounce di GI e poco piú per il glossy. Embé? Il 90% delle scene che si renderizzano con un path tracer raramente beneficia di molti piú bounce di quelli :boh2:
Alla fine aspetteranno le prossime console.
Quindi almeno un 2-3 anni?
Sempre a spanne direi quindi la prossima generazione di fascia alta e quella dopo ancora di fascia media.
Poi magari avremo qualche sorpresa da id Software che il prossimo engine gira anche su un raspberry pi...
l'ue5 lo svilupperanno ancora per parecchi anni, immagino. al momento credo siano alla 5.2 ed è qualcosa di incredibile. l'ue6 sarà tipo matrix :asd:
Come hai detto in un gioco è un'altra storia. Senza DLSS vanno in crisi, e siamo solo all'inizio della nuova gen. Quando cominceranno ad uscire tripla A UE5 sempre più pesanti sarà peggio. E' ancora presto per pensare di poterlo gestire agilmente in un gioco.
Mah... avrei dei dubbi anche sulla prossima gen di console. Da qui a 2-3 anni non credo che il RT sarà tanto meno esoso in termini di risorse e le console devono nche contenere i prezzi dell'hw. A infierire c'è poi il fatto che le console puntano al 4K. Probabilmente quindi resterà implementato in maniera parziale come aggiunta di lusso anche con le prossime console.
appunto, ho specificato qualche post più su che infatti non uso nemmeno l'FSR :boh2:
e sì, preferisco togliere dettagli che avere un espediente per avere effetti che la mia scheda non regge
visto che il RT ad oggi mi pare tutta fuffa (non me ne frega dell'illuminazione delle finestre) e la mia scheda si beve tutto senza problemi, non ho motivo di utilizzare l'FSR
se alla fine della sua vita, mi andrà a 40fps in tutti i giochi, una mano per allungare la sua presenza all'interno del mio case posso anche accettarle, ma ad oggi no
poi ognuno la pensi e faccia come vuole: nvidia costa di più e usa (anche bene, per carità) una tecnologia che non mi interessa utilizzare, quindi mi va più che bene stare su chi mi offre un rapporto qualità/prezzo (per le mie esigenze) migliore
per dire che non faccio tifo, la scheda che è stata in assoluto di più nel mio pc è stata la meravigliosa gtx 970 asus stryx
Credo che anche a livello SW ci sia molto da migliorare. Basta pensare che tw3 con la patch RT gira peggio della maggior parte dei titoli moderni con RT.
Poi ci sono tecnologie come nanite, che nessun VG ancora utilizza e che di fatto alleggeriscono le scene rispetto a prima. E come nanite ci sono un sacco di altre nuove tecnologie a livello SW che ottimizzano il lavoro delle schede.
Quindi io credo che nel giro di due generazioni di schede inizieremo a vedere titoli con path tracing che girano decentemente.
Ah comunque lo dissi già una volta e lo ripeto di nuovo... Morrowind con il vertex shader e tutto a palla faceva poco più di 30fps sulla 4600ti... Oggi se non abbiamo minimo 60fps ci mettiamo a piangere :asd:. Io concordo sul fatto che il marketing odierno spinge troppo, ma forse siamo diventati un po' più esigenti anche noi.
Sent from my moto g200 5G using Tapatalk
Quello poco ma sicuro. TW3 come esempio però non è certo l'ideale. Stiamo parlando di un titolo nato come DX11 che è stato poi portato in DX 12 letteralmente a calci (anche per vicissitudini esterne che han complicato non poco il progetto, questo va detto) per poi aggiungerci il RT a pugni. In generale tutti i titoli più vecchi a cui è stato aggiunto il RT tramite patch postuma hanno più problemi.
Passando all'implementazione nativa le cose migliorano, e continueranno a migliorare di sicuro ma la strada è parecchia, anche perchè ora siamo al passaggio di gen e le schede verranno spremute sempre più dal prossimo anno anche sul lato rasterizzazione con l'UE5 sempre più spinto.
Poi c'è il discorso console: finchè non arriveranno al punto di avere un hw adeguato pure loro l'implementazione sarà sempre parziale e limitata.
con o senza FFX/DLSS però ? :asd:Citazione:
Quindi io credo che nel giro di due generazioni di schede inizieremo a vedere titoli con path tracing che girano decentemente.
Stai parlando con uno che ha iniziato col 286 e ha vissuto in pieno l'epoca dei 30 fps come riferimento. Ciò detto i tempi cambiano e lasciando perdere le fisime degli enthusiast col 4K a 120Hz cazzi e mazzi (così come anni fa ignoravo i fan del giocare in downsampling per avere l'ubergrafica nitidissima e pulita) ti direi che comprare una scheda nuova di fascia medio/alta e poter giocare tranquillamente in 2K a 60 fps senza dover ricorrere a trucchetti mi pare una richiesta più che legittima e affatto pretenziosa.Citazione:
Ah comunque lo dissi già una volta e lo ripeto di nuovo... Morrowind con il vertex shader e tutto a palla faceva poco più di 30fps sulla 4600ti... Oggi se non abbiamo minimo 60fps ci mettiamo a piangere :asd:. Io concordo sul fatto che il marketing odierno spinge troppo, ma forse siamo diventati un po' più esigenti anche noi.