Originariamente Scritto da
Qoelet
spè.
In illo tempore, i PC avevano un output in framerate oscillante. Lo schermo, di contro aveva una frequenza di refresh fissa, spesso ad incrementi accazzo, tipo 30-60-75-120 FPS, indiragionpercui, essendo che lo schermo era al fondo della catena e doveva solo stare zitto e subire, si puppava l'output e bon. Ovviamente se le frequenze erano fuori sincorno, lo schermo finiva di scansionare frames mentre il PC stava già pompando fuori quello successivo: l'effetto di passare da un frame all'altro a metà schermata è il tearing. Il V-sync è una roba lato PC per evitare 'sta cosa; in pratica è un comando che blocca l'output video che è tra le frequenze base del monitor ed arrotonda alla frequenza inferiore. Effettivamente, quindi, se non ce la fai ad outputtare 60 Hz, sicèrto ti risbatte a 30, ma non c'è tearing. Ed hai ritardi tra immagine e comando, cosa che succhia le palle al Demonio, quindi il V-sync è da usare tipo mai, a meno che vi piaccia fare quellecoselì col Demonio, ma allora piantatela lì col PC e datevi alla Negromanzia e bon.
Epperò nei gioiosi nostri giorni, lo schermo non è come la donna musulmana ortodossa: se tu gli parli, ti risponde!
G-sync (nVidia) e FreeSync (AMD) sono protocolli di comunicazione tra scheda video e schermo, mediante HDMI. Gli schermi "enabled" riescono a modificare la loro frequenza di aggiornamento in base alle previsioni sull'aggiornamento dei frames successivi provenienti dalle schede video, quindi se il PC riesce ad outputtare a 59 Hz, lo schermo si aggiorna ogni 59Hz, al posto di fare tearing a 60 Hz o di aggiornare a 30 Hz. Questa feature è la SINGOLA cavolata negli ultimi anni che potrebbe portarmi davvero ad aggiornare schermo e scheda video.
.