Si circa 20w di meno
Inviato dal mio RMX3363 utilizzando Tapatalk
Visualizzazione Stampabile
Pazzesco che sia questo quello che ne cavi da quel link.
Consumerà una ventina di watt in più, ma elabora quasi il triplo dei FPS.
Mentre la 3060 è tra le più efficienti, la 970 e tra le peggiori.
Peggio della 980 Ti, molto strano considerando che generalmente le ammiraglie dovrebbero essere quelle che più sacrificano l'efficienza.
La generazione dopo la 1070 fa meglio della 1080 Ti.
Sì... dicevo in senso positivo per la 3060 e negativo per la 970
giá detto, l'efficienza é migliorata sono d'accordo. Peró i TDP a paritá di fascia sono del 30% piú alti rispetto a due serie fa.
dalla 9xx alla 1xxx i TDP sono addirittura leggermente scesi. Poi da li aumentati ad ogni serie, finché ora si parla addirittura di un incremento di oltre il 50% in una generazione.
Lo ripeto, peró per l'ultima volta perché sennó poi diventa una barzelletta :asd:
l'efficienza é migliorata, sono d'accordo e non ho mai pensato il contrario. Il consumo assoluto peró sta raggiungendo dei livelli IMO troppo alti e vedendo che é oltretutto possibile ottimizzare ulteriormente l'efficienza spero che in futuro si inverta questa tendenza di alzare cosí tanto il TDP delle schede.
Basta, ora il concetto non lo esprimo piú, meglio di cosí non riesco ad esprimerlo tanto :asd:
No ho capito perfettamente, però come dicevo sulla serie 4000 di nvidia, alla fine a me interessa l'efficienza, quindi se per avere gli stessi fps di una 3060ti (a cui punto) basta una 4050 mi prenderei quella. Non é che prendo la 4060ti solo perché ha la stessa numerazione
Inviato dal mio RMX3363 utilizzando Tapatalk
Ma quello che i consumi massimi siano in salita credo lo sia da... sempre.
Una volta avevi schede video con due GPU (top di gamma) che non arrivavano a consumare 200W assieme:
GeForce 9800 GTX 140W mentre GeForce 9800 GX2 190W.
Anda andar più dietro si stentano a trovar valori perché non era proprio una considerazione.
https://www.tomshardware.com/reviews/ati,802-9.htmlCitazione:
ATi quotes the X800 XT’s power consumption in 3D games to be 67,48 Watts, while a Radeon 9800XT supposedly needs 67,54 Watts. [...]
Using the 110-Watts of the GeForce 6800 Ultra as our point of reference, we had calculated a power draw of 91.5 Watts in our last article !
Cioè... 100W a dirla grossa... nel 2004.
beh si ti andrá bene di farci girare i giochi tra un paio d'anni come avresti fatto i girare i giochi oggi su una 3050 va bene, peró non aumenta solo l'efficienza, aumentano anche le esigenze dei giochi e nel caso professionale delle produzioni 3d
si é vero i tdp sono aumentati, ma mi sembrano aumentati di piú negli ultimi 5 anni anni che nei precedenti 10. Inoltre come hai detto, prima non era una considerazione perché erano valori "irrisori". Secondo me si sta avvicinando il momento per cui bisogna iniziare forse a porsi questa considerazione dei TDP, altrimenti se sei un professionista o un videogiocatore molto esigente tra qualche anno ci vorranno gli alimentatore da qualche megawatt se continua questa tendenza :asd:
sennó vi chiedo... a voi sta bene che i consumi continuino ad aumentare all'infinito?
Se tra 5 anni le schede entry level consumeranno 6-700 watt vi andrá bene? Io onestamente preferirei di no :asd:
no è chiaro che non mi andrebbe bene un aumento del genere e sono quasi certo che tra poco si tornerà a puntare sull'efficienza.
Ma a me, ora, andrebbe benissimo il passaggio da 1070 a 3060ti, è un raddoppio medio di prestazioni ad un 25% di energia in più.
Ovvio che sarebbe stato meglio il raddoppio a parità di energia, ma per quello potrei andare di 3060 e avrei circa un 30% di prestazioni aumentate a parità di corrente consumata.
Bisogna ricordare che una volta si passava anche da 130nm, a 90nm, a 65nm ed a 40nm nel giro di quattro anni (2003-2006).
Da 40nm a 28nm ci hanno messi altri quattro anni (2006-2010).
Ed i 28nm son rimasti con noi fino al 2016, sei anni... e li hanno spremuti per bene.
16-12-8/7nm son arrivati in rapida successione ogni due anni, ma i vantaggi son sempre meno.
ecco al discorso dei salti di processo produttivo non ci avevo pensato... peró un po' mi fa pensare che o tra poco si "inventerrano" qualcosa di nuovo (computer quantistici? :asd:) oppure stiamo forse raggiungendo certi limiti fisici di una certa tecnologia :uhm:
Esistono già. :asd:
Solo non vanno bene per l'uso domestico quotidiano. :bua:
https://www.youtube.com/watch?v=g_IaVepNDT4
Smartphone in generale e l'M1 di Apple sono a 5nm da quasi due anni: 2020.
Quest'anno 2022, con due anni di ritardo, dovremmo vedere sia nVidia 4000 che AMD 7000 pure a 5nm.
I prossimi iPhone, a fine anno, saranno a 3nm.
Dubito le schede video possano arrivare a questa dimensioni prima del 2025.
Quindi 2 generazioni a 5nm.
La roba quantistica non penso sia per l'ambito consumer.
Io saran quasi 10 anni oramai che aspetto di vedere stò grafene
Bravo! Chi vuole un lampadario a valvole in casa?
https://i.redd.it/4d12756o2mvz.jpg
Vabbeh che pure i primi computar a transistor erano dei mostri.
Ma qui il "problema" è il lavoro che si fa con questi che è molto "diverso".
vabbé delle dimensioni non mi preoccuperei troppo visto che questo era un hdd da 5mb nel 1956
https://external-preview.redd.it/_UA...=webp&8698f7ae
credo ci sia margine di miglioramento da quel punto di vista :asd:
Per l'impiego beh si pare che non vadano bene per tutto. Lui parla di operazioni che hanno una forte componente di calcoli paralleli, che sono esattamente quello che avviene nel raytracing ad esempio (motivo per cui le gpu sono cosí superiori alle cpu), quindi mi chiedo se comunque in futuro potremmo vedere qualche applicazione piú "casalinga" anche per computer quantistici.
Ovviamente non é che penso tra qualche anno eh :asd: Mi immagino un futuro dove una "processing unit" quantistica si potrá installare come si installa oggi una scheda video, tipo acceleratore :sisi:
la vedo dura, a meno che non inventino materiali nuovi/miracoclosi. i chip di quei computer devono stare a temperature vicine allo zero assoluto. da quel che so, tutto quell'apparato che si vede all'esterno serve solo per il raffreddamento del processore.