Pazzesco che sia questo quello che ne cavi da quel link.
Consumerà una ventina di watt in più, ma elabora quasi il triplo dei FPS.
Mentre la 3060 è tra le più efficienti, la 970 e tra le peggiori.
Peggio della 980 Ti, molto strano considerando che generalmente le ammiraglie dovrebbero essere quelle che più sacrificano l'efficienza.
La generazione dopo la 1070 fa meglio della 1080 Ti.
Ultima modifica di GeeGeeOH; 31-03-22 alle 15:00
AMD R7 5800X 8C/16T, Noctua NH-D15, Gigabyte X570 AORUS ELITE, 16GB DDR4 3600MT/s CL16, AMD Rx 6800, ASUS XG32UQ + LG 32UL750
SSDs M2: Samsung 960EVO 500GB, Solidigm P41+ 2TB | Windows 11 Pro
Sì... dicevo in senso positivo per la 3060 e negativo per la 970
giá detto, l'efficienza é migliorata sono d'accordo. Peró i TDP a paritá di fascia sono del 30% piú alti rispetto a due serie fa.
dalla 9xx alla 1xxx i TDP sono addirittura leggermente scesi. Poi da li aumentati ad ogni serie, finché ora si parla addirittura di un incremento di oltre il 50% in una generazione.
Lo ripeto, peró per l'ultima volta perché sennó poi diventa una barzelletta
l'efficienza é migliorata, sono d'accordo e non ho mai pensato il contrario. Il consumo assoluto peró sta raggiungendo dei livelli IMO troppo alti e vedendo che é oltretutto possibile ottimizzare ulteriormente l'efficienza spero che in futuro si inverta questa tendenza di alzare cosí tanto il TDP delle schede.
Basta, ora il concetto non lo esprimo piú, meglio di cosí non riesco ad esprimerlo tanto![]()
No ho capito perfettamente, però come dicevo sulla serie 4000 di nvidia, alla fine a me interessa l'efficienza, quindi se per avere gli stessi fps di una 3060ti (a cui punto) basta una 4050 mi prenderei quella. Non é che prendo la 4060ti solo perché ha la stessa numerazione
Inviato dal mio RMX3363 utilizzando Tapatalk
Ma quello che i consumi massimi siano in salita credo lo sia da... sempre.
Una volta avevi schede video con due GPU (top di gamma) che non arrivavano a consumare 200W assieme:
GeForce 9800 GTX 140W mentre GeForce 9800 GX2 190W.
Anda andar più dietro si stentano a trovar valori perché non era proprio una considerazione.
https://www.tomshardware.com/reviews/ati,802-9.htmlATi quotes the X800 XT’s power consumption in 3D games to be 67,48 Watts, while a Radeon 9800XT supposedly needs 67,54 Watts. [...]
Using the 110-Watts of the GeForce 6800 Ultra as our point of reference, we had calculated a power draw of 91.5 Watts in our last article !
Cioè... 100W a dirla grossa... nel 2004.
Ultima modifica di GeeGeeOH; 31-03-22 alle 15:12
AMD R7 5800X 8C/16T, Noctua NH-D15, Gigabyte X570 AORUS ELITE, 16GB DDR4 3600MT/s CL16, AMD Rx 6800, ASUS XG32UQ + LG 32UL750
SSDs M2: Samsung 960EVO 500GB, Solidigm P41+ 2TB | Windows 11 Pro
beh si ti andrá bene di farci girare i giochi tra un paio d'anni come avresti fatto i girare i giochi oggi su una 3050 va bene, peró non aumenta solo l'efficienza, aumentano anche le esigenze dei giochi e nel caso professionale delle produzioni 3d
si é vero i tdp sono aumentati, ma mi sembrano aumentati di piú negli ultimi 5 anni anni che nei precedenti 10. Inoltre come hai detto, prima non era una considerazione perché erano valori "irrisori". Secondo me si sta avvicinando il momento per cui bisogna iniziare forse a porsi questa considerazione dei TDP, altrimenti se sei un professionista o un videogiocatore molto esigente tra qualche anno ci vorranno gli alimentatore da qualche megawatt se continua questa tendenza
sennó vi chiedo... a voi sta bene che i consumi continuino ad aumentare all'infinito?
Se tra 5 anni le schede entry level consumeranno 6-700 watt vi andrá bene? Io onestamente preferirei di no![]()
no è chiaro che non mi andrebbe bene un aumento del genere e sono quasi certo che tra poco si tornerà a puntare sull'efficienza.
Ma a me, ora, andrebbe benissimo il passaggio da 1070 a 3060ti, è un raddoppio medio di prestazioni ad un 25% di energia in più.
Ovvio che sarebbe stato meglio il raddoppio a parità di energia, ma per quello potrei andare di 3060 e avrei circa un 30% di prestazioni aumentate a parità di corrente consumata.
Bisogna ricordare che una volta si passava anche da 130nm, a 90nm, a 65nm ed a 40nm nel giro di quattro anni (2003-2006).
Da 40nm a 28nm ci hanno messi altri quattro anni (2006-2010).
Ed i 28nm son rimasti con noi fino al 2016, sei anni... e li hanno spremuti per bene.
16-12-8/7nm son arrivati in rapida successione ogni due anni, ma i vantaggi son sempre meno.
AMD R7 5800X 8C/16T, Noctua NH-D15, Gigabyte X570 AORUS ELITE, 16GB DDR4 3600MT/s CL16, AMD Rx 6800, ASUS XG32UQ + LG 32UL750
SSDs M2: Samsung 960EVO 500GB, Solidigm P41+ 2TB | Windows 11 Pro
ecco al discorso dei salti di processo produttivo non ci avevo pensato... peró un po' mi fa pensare che o tra poco si "inventerrano" qualcosa di nuovo (computer quantistici?) oppure stiamo forse raggiungendo certi limiti fisici di una certa tecnologia
![]()
Programma completo:
print(f"Risultato: {eval('*'.join(str(x + 1) for x in range(max(1, int(input('Inserisci un numero: '))))))}")
Lista scambi Lista scambi
Smartphone in generale e l'M1 di Apple sono a 5nm da quasi due anni: 2020.
Quest'anno 2022, con due anni di ritardo, dovremmo vedere sia nVidia 4000 che AMD 7000 pure a 5nm.
I prossimi iPhone, a fine anno, saranno a 3nm.
Dubito le schede video possano arrivare a questa dimensioni prima del 2025.
Quindi 2 generazioni a 5nm.
La roba quantistica non penso sia per l'ambito consumer.
Ultima modifica di GeeGeeOH; 31-03-22 alle 19:41
AMD R7 5800X 8C/16T, Noctua NH-D15, Gigabyte X570 AORUS ELITE, 16GB DDR4 3600MT/s CL16, AMD Rx 6800, ASUS XG32UQ + LG 32UL750
SSDs M2: Samsung 960EVO 500GB, Solidigm P41+ 2TB | Windows 11 Pro
Programma completo:
print(f"Risultato: {eval('*'.join(str(x + 1) for x in range(max(1, int(input('Inserisci un numero: '))))))}")
Lista scambi Lista scambi
Io saran quasi 10 anni oramai che aspetto di vedere stò grafene
Ultima modifica di Darkless; 01-04-22 alle 09:38
Vabbeh che pure i primi computar a transistor erano dei mostri.
Ma qui il "problema" è il lavoro che si fa con questi che è molto "diverso".
AMD R7 5800X 8C/16T, Noctua NH-D15, Gigabyte X570 AORUS ELITE, 16GB DDR4 3600MT/s CL16, AMD Rx 6800, ASUS XG32UQ + LG 32UL750
SSDs M2: Samsung 960EVO 500GB, Solidigm P41+ 2TB | Windows 11 Pro
vabbé delle dimensioni non mi preoccuperei troppo visto che questo era un hdd da 5mb nel 1956
credo ci sia margine di miglioramento da quel punto di vista![]()
Per l'impiego beh si pare che non vadano bene per tutto. Lui parla di operazioni che hanno una forte componente di calcoli paralleli, che sono esattamente quello che avviene nel raytracing ad esempio (motivo per cui le gpu sono cosí superiori alle cpu), quindi mi chiedo se comunque in futuro potremmo vedere qualche applicazione piú "casalinga" anche per computer quantistici.
Ovviamente non é che penso tra qualche anno ehMi immagino un futuro dove una "processing unit" quantistica si potrá installare come si installa oggi una scheda video, tipo acceleratore
![]()
Blessed Mary of the crownad!
Eye, evil eye, parsley and fennel.
ai grillini è più facile metterglielo in culo che in testa (.cit Moloch)
Laptop: Lenovo Legion 7 | Cpu: Ryzen 7 5800H | SVideo: nVidia 3070 140W | Ram: Kingston Fury Impact 32GB 3200 Mhz 2x16GB | SSD: 1TB SSD M.2 NVMe Samsung OEM PM981a + 2TB SSD Samsung M2 NVMe 970+| SO: Win 11 Home| Monitor: 16" WQXGA (2560x1600) IPS 16:10 500nits Anti-glare, 165Hz, 100% sRGB, Dolby Vision, HDR 400, Free-Sync, G-Sync, DC dimmer
Movement #Orcs love too
- in una società in cui ogni più piccolo diritto è perseguito, nessuno ha più diritti - Kungfucio
- sempre sano e ricco, mai povero e malato - kungfucio Vol.2
- meglio un osso oggi che due domani - Alì Baubau e i quaranta cagnoni