Citazione Originariamente Scritto da Pete.Bondurant Visualizza Messaggio
Una buona mossa (anche scontata a pensarci) sarebbe rilasciare le espansioni previste come update gratuiti.

Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
Tu dici, come hanno sempre fatto?

Citazione Originariamente Scritto da Ciome Visualizza Messaggio
non diciamo vaccate. 1 megabyte = 8 megabits

30/8 < 4

glasco è intorno a una 60 mega
Però dopo ha specificato che una 7 megabyte è ok, una 7 megabit è fottuta.

Tecnicamente non ha detto una cazzata.

Citazione Originariamente Scritto da kyashan Visualizza Messaggio
https://www.thegamesmachine.it/speci...esta-next-gen/

questo articolo peraltro smentisce il recensore, che secondo me era evidentemete in preda all'euforia paradossa

Le schede video più vecchie di due anni, a meno che non siano state il top al momento della loro uscita, permettono di giocare a una fluidità decente solo alle risoluzioni HD-ready: 1280×720 o 1366×768 pixel, impostando il preset più basso nelle impostazioni grafiche del gioco. In altre parole: per riuscire ad apprezzare Cyberpunk 2077 in Full HD occorre avere una GeForce GTX 1080 o una equivalente. Sono dunque “promosse” le Radeon RX Vega 64, le RX 5600 XT, le GTX 1660 Super e tutte le GeForce RTX. Con tutte queste schede (e quelle a loro superiori, naturalmente) è possibile applicare il preset medio e giocare in Full HD con un framerate variabile tra i 60 e i 110 fps. Le “fasce media e alta che furono”, rappresentate da Radeon R9 390, RX 570, RX 580, GeForce GTX 970, 980 Ti, 1060, 1070 e 1650, oltre a tutte le altre schede più recenti di analoga potenza, devono accontentarsi di un framerate più contenuto, tra i 30 e i 60 fps, oppure diminuire drasticamente la qualità visiva impostando il preset più basso per guadagnare qualche sudatissimo fotogramma.
Ehm, il link che hai postato, sembra un poco confuso sui core fisici, logici e virtualizzati
Mi chiedo quali verifiche abbia fatto.