Non è certo che sia morente, ma mentre nVidia se la tiene per se e fa pagare un certo obolo, FreeSync di AMD è aperto, meno costoso e parte dello standard VESA.
Pure Intel lo supporterà con le sue prossime GPU.
Visualizzazione Stampabile
Non è certo che sia morente, ma mentre nVidia se la tiene per se e fa pagare un certo obolo, FreeSync di AMD è aperto, meno costoso e parte dello standard VESA.
Pure Intel lo supporterà con le sue prossime GPU.
Comunque sono scimmiato: ho dato via entrame le mie 970 e per fortuna a buon prezzo, adesso vado provvisorio con una GTX 670 AMP tanto d'estate gioco a LOL e poc'altro. Così sono pronto e alla prima occasione vado di 1080 o, meglio ancora, di 980TI usata (o magari Martedì prossimo al prime day) se la trovo entro i 350€ per poi attendere la 1080TI ques'inverno :sisi:
- - - Aggiornato - - -
Verissimo, il problema è che nvidia da sola copre tipo il 70% del mercato gaming, purtroppo, qundi il tenersi stretto qualcosa è poco limitante a mio parere.... Poi lo sappiamo che il freesync sul intel fa ridere, vero?
È la prima volta che sento dire che il freesync su Intel fa ridere, tecnicismi?
Inviato dal mio LG-H815 utilizzando Tapatalk
Le GPU Intel non saranno piattaforma da gioco, ma per chi fa monitor saper che tutti quei PC possono sfruttare FreeSync... diventa allettante... e se si diffondono i monitor FreeSync nVidia potrebbe riconsiderare.
Premesso che parlo per me e per come piace giocare a me (quindi a più di 30 fps e spesso a più di 60) il discorso più che sul tecnico, lo metterei sull'aritmetico: esistono schede video intel con le quali, ad oggi, puoi giocare bene in fullhd a giochi di ultima generazione? Secondo me no, quindi PER ME tecnologie come il freesync sono buone solo per il tredicenne che gioca col notebook rubato al padre, che può godere dei benefici... ma nessun "adulto" appassionato gioca con scheda video intel.
- - - Aggiornato - - -
Questo è un altro discorso che, almeno in parte può, essere vero. Va visto come nella pratica questa implementazione possa in qualche modo interessare l'utente intel, quindi può essere anche partono bene per poi rivelarsi un fuoco fatuo: dubito che sapere che acquisti un notebook freesync ti cambi la vita su excell.
Inoltre da 1 anno a questa parte tra i produttori di monitor c'è la moda dei modelli da gamin e, numeri alla mano, lì la distribuzione delle VGA nvidia/amd ce l'hanno bene in mente.
Sai quanto spingono certi "giochetti" (tecnicamente) tipo LoL? Quanto poca potenza grafica necessitano? Quante gente ci gioca con l'integrata? Tante gente...
https://en.wikipedia.org/wiki/Nvidia...abled_monitors
https://en.wikipedia.org/wiki/AMD_Fr...eSync_monitors
Non so quanto aggiornate siano queste liste, ma...
tutto quello che volete, free-sync che costa di meno e bon, ma mi fate vedere come si comporta una scheda nVidia con un monitor free-sync?
Non va finché nVidia non si decide a farlo andare.
comunque un bel video di comparazione g-sync/v-sync/no v-sync
https://www.youtube.com/watch?v=QU8dnhFZKmM
se andate a 1:36 potete capire quando dicevo che Tomb Raider 2013 in alcuni punti mi stutterava, mentre con il g-sync ora va liscio come l'olio
Oggi abbiamo scoperto che il freesync per i poveri su Intel non serve a nulla, su AMD e' inutile visto che detiene il 30% del mercato e l'unica tecnologia che ha senso di esistere e' il g-sync.
Oh! Dice che con i nuovi crimson driver sistemano la storia del consumo watt da pci-e delle rx480
Sent from out of space lost in time
Io sinceramente le famose feature Nvidia nemmeno le considero, è come quando 3Dfx faceva in modo che Glide avesse degli effetti "esclusivi", aspetterò che il nuovo processo si consolidi e poi prenderò la scheda AMD da 8gb meno costosa per potermi giocare la roba "recente".
ok, la GTX 1060 in Europa a 319 euro, tasse incluse
Tutte le nuove schede Nvidia costano un po' troppo :bua:
319 per una scheda che regge tranquillamente il full hd maxato mi sembra un prezzo onesto..quanto pretendete di spendere per una GPU per giocare? :asd:
io per i prezzi non capisco molto le critiche.
cerchiamo di puntualizzare e trovare un bandolo della matassa.
correggetemi se commetto qualche errore, anche io vorrei avere un chiarimento della situazione:
AMD ha sfornato una scheda, la 480, che alla fin fine si inserisce nella fascia prestazionale della 970. La 970 all'uscita costava mediamente 350 euro (i fortunati potevano trovarla anche a meno, ma quei modelli ricordo che spesso soffrivano di coilwhine, ma le custom buone non erano distanti dai 400 euro, o superiori).
E parliamo di meno di due anni fa.
La 480 oggi (modello a 8GB, per me quello a 4 GB non ha senso ora) a quanto è venduta? 280 euro, un pò di meno?
Beh, in due anni abbiamo una scheda simil 970 o leggermente più performante, con più del doppio della VRAM (per il discorso della zavorra 0.5GB) che si può prendere a meno all'uscita.
La 1060 sembra che vada invece come una 980 (e qui però aspetto i bench seri): sembra che sia una eresia il fatto che possa costare anche 50 euro più di una 480. Se le prestazioni sono di base come quelle di una 980, a 320 a me pare uno sforzo in più assolutamente non criticabile.
Non capisco perchè i paragoni con la 960, scheda che non compete per nulla con queste nuove uscite, ma proprio per nulla.
Allora allungo il discorso la 960 aveva un mrsp di 199$ mentre la 1060 ha un mrsp di 249$. Io non facevo il confronto con le schede che ci sono ora ma con la situazione all'uscita dove due anni fa avevi sui 230€ la GTX 960 e adesso hai nella stessa fascia una 1060 che ne costerà almeno 280€.
Di sicuro hanno leggermente alzato il tiro a parità di fascia, ma la 1060 oggi in pratica sostituisce la serie x70, non la x60.
La serie x70 invece alza il tiro come prestazioni relative ponendosi a partire dai 450 euro.
Piuttosto la 1080 è una incognita da questo punto di vista: se oggi costa quanto una 980ti all'uscita, la prossima 1080ti si stabilizzerà sui 1000 e passa euro, come fu fatto per le Titan?
E su quella fascia AMD come si comporterà con i prezzi? Questo mi rende molto curioso.
1060 a 320€ non è male sa va appunto un 15% più della Rx 480.
E se effettivamente la si può acquistare a questo prezzo, che non sia solo per i listini a disponibilità 0.
Non mi pare di aver risposto con polemica, al contrario tuo, mi sono limitato a esporre la mia opinione, sottolineandolo più volte tra l'altro. Ci riprovo sintetizzando: il freesync su intel lascia il tempo che trova perchè a League of Legends ci si gioca benissimo anche senza, mentre in giochi che EFFETTIVAMENTE necessitano ti freesync su VGA intel vanno a tipo 10 fps, quindi è anacronistico. Su AMD serve invece, soprattutto perchè lo stuttering è sempre stato una tra i principali problemi fin dai tempi di ATI, e non ho mai detto il contrario, dato che io rispondevo alla tua "sentenza" di g-sync destinato a morire ricordando che nvidia detiene il 70% circa del mercato, quindi che ti piaccia o meno il gsync non credo che morirà tanto a breve.
Poi chiaro, io per primo preferirei che fosse utilizzata una tecnologia open surce (vedi discorsi fatti ai tempi di physx), ma la storia ci insegna che in nvidia prima di cedere di acqua sotto i ponti ne fa passare tanta.
Se senti l'esigienza di fraintendere nuovamente e cercare di nuovo la polemica, puoi evitare, grazie.
Per il discorso prezzi, quoto Glorfindel in toto: hanno sicuramente alzato un po' il tiro in virtù della loro maledetta posizione dominante di mercato, ma i vari paragoni ci stanno.
Perché LoL o simili su integrata non dovrebbero beneficiare di Sync?
Giochi poco esigenti ma risorse limitate penso portino a situazioni altalenanti che possono essere... smussate.
NVidia detiene il mercato della grafica discreta, ma se ci inserisci le integrate...
Mi sono spiegato male, chiedo scusa. In teoria beneficiano di Sync, assolutamente, però all'atto pratico non serve, almeno su LoL... Purtroppo per me gioco a LoL da tipo 5 anni e posso testimoniare che con o senza sync il gioco è sempre uguale, non si percepisce miglioramento ne peggioramento tenendolo attivato/disattivato rispetto al vsync integrato e anzi col fatto che il gioco è leggerissimo, si tende a tenerlo disattivato perchè sopra i 60fps (con monitor 60hz chiaramente) genera input lag (anche con gsync/freesync), di conseguenza chi gioca a LoL in genere tiene il sync disattivato e gli fps lockati (c'è una comoda impostazione nel menù del gioco).
Comunque il mio discorso è più generalizzato: ci sta che il freesync su intel sia efficacie, ma si sta parlando di una tecnologia gamer friendly applicata ad una piattaforma prettamente business/multimediale evitata come la morte dai gamer, quando possibile. E' come mettere il cruise controll su tutte le Citroen C1: comodo e siamo tutti d'accordo, ma di base è pensata per essere una citycar che probabilmente percorrerà più strade cittadine che autostrada... poi chiaro, se te lo regalano lo accetti volentieri, tipo il freesync appunto, però non c'è da gridare al miracolo secondo me, ecco.
Il punto è che può aiutarne la diffusione e se prende piede...
E per come le ho capite io G/FreeSync non impattano sul input, sono implementazioni assolutamente diverse da Vsync.
non ho mai provato il freesync, tranne vedere articoli e video su YT, ma una cosa posso comunque dire:
solo il fatto che non veda più tearing (anche ad alti fps) per me il g-sync è stato un ottimo acquisto.
A volte mi capita di vedere video in giro per mostrare come le VGA macinino fps, ma poi quando osservo i pali tagliuzzati mi sanguinano gli occhi. Da questo punto di vista sono molto sensibile a questa questione.
Errato, da quello che ho letto gsync/freesync elimina STUTTERING/TETHERING e non ha i fastidiosi "step" di fps se scendi sotto gli hz del monitor, quindi in un monitor 60hz, per esempio, se il gioco in gsync/freesync ti gira a 54fps, nello schermo ne visualizzi effettivamente 54, al contrario del classico vsync che ti avrebbe visualizzato tipo 45fps? Non ricordo l'aggiornamento fisso inferiore ai 60.
Ad ogni modo, se gli fps ECCEDONO il refresh rate del monitor, gsync/freesync limita il framerate al cap del monitor, quindi 60 nell'esempio di cui sopra, e continua ad eliminare stettering/tethering ma produce comunque inputlag :sisi:
Mi informai tempo fa perchè gioco molto online a BF3/BF4 e LOL appunto, dove l'inputlag può fare la differenza tra l'esultare e il tirare 14 bestemmie gravi.
Mmm devo provarlo questo gsync
Il vsync, proprio nei momenti appena appena esosi (<60fps) da parecchio fastidio scendendo a 30 fisso, se hai quel picco che ti tira giù gli fps invece crea il panico..
Sent from out of space lost in time
VSync "castra" i frame generati dal motore del gioco, in base ad una frazione del refresh fisso del montiro.
G/FreeSync alterano il refresh variabile del monitor in base alla disponibilità dei frame in arrivo dalla scheda.
Ovviamente ci sono valori minimi e massimi, ma si parla di 30-144Hz/FPS o più... e anche nel caso di sforarli il monitor opera intelligentemente ed adatta il proprio refresh ad un multiplo dei FPS.
Ma nuovamente è il monitor che si adatta senza andare a forzare il motore del gioco ad una determinata numero di FPS come opera invece il VSync... quindi non si impatta sul input.
- - - Aggiornato - - -
Abilità il buffering. Senza il VSunc passa da 60 a 30, ma col bufferin ci sono step intermedi.
Essendo una cosa software, il VSync, si comporta più o meno bene a seconda dello specifico motore grafico... in alcuni casi non lo si può proprio usare, in altri va molto bene.
quante menate.
Io uso il Vsinc e non mi sono mai accorto di tutti questi problemi.
Gioco benissimo, nom i sono mai accorto di niente.
Dipende molto dai giochi... in StarCraft II e WoW lo sconsiglio ad esempio, in D3 va alla grande.
Anche io lo usavo prima nel mio precedente monitor e avendo l'occhio "buono" spesso vedevo cose che non mi convincevano, tipo tearing, stuttering senza senso ecc...
Proprio per questo quando si cominciò a parlare del G-Sync iniziai a seguire con molto interesse la cosa.
Non mi andava ad esempio vedere il mio PC che mi sfornava 60 e passa fps, e poi trovavo l'esperienza inaccettabile vedendo Uncharted sulla TV a 30 fps: perchè lì sembra tutto così fluido anche con sti cazzo di 30 fps mentre su PC mi sembra di avere una pietrolina nell'occhio che dà fastidio?
Il problema è proprio nel monitor.
Quando poi mi ritrovo a giocare OGGI con 30 fps cappati in Rise of the Tomb Raider e notare che la fluidità del tutto equivale a giocare a Uncharted 2 sulla TV di una PS3 (ovvero, se non te lo dicono manco ci credi siano davvero 30), in più senza tearing... beh... quelli che dicono che poi non tornano indietro sono come quelli che dopo avere provato un 144HZ dicono di non volere più tornare indietro ai 60.
Domanda da ignorante del mondo console,
Ma i giochi su console girano con vsync attivo? Sono presenti tearing e stuttering?
Non proprio ma in un certo senso si... nelle console, per la maggiore, fanno in modi di avere un valore di FPS fisso.
Puoi fare bei magheggi se sai esattamente che hardware e quali risorse hai a disposizione.
Giusto, dopo controllo cosa ho impostato
Gua dipende dall'hardware e dal gioco.
Col vecchio hardware che avevo era da tenere off altrimenti uscivo pazzo, col nuovo è da tenere on perché altrimenti quando cappa i 60fps divento epilettico per il tearing.
Poi ci sono quei giochi strani, tipo un path of exile in isometrica che ha quel calcolo/effetto particolare che in certi istanti sbrocca e fa proprio lo slideshow da 5-10 fps
Sent from out of space lost in time