Beh considerando che fino a pochi mesi fa con 3000€ ci prendevi una 3080 è pure economica
Inviato dal mio MI 9 utilizzando Tapatalk
comunque dai benchmark va il doppio di una 3060ti, consumando il doppio di corrente. Ad un prezzo 3-4 volte superiore![]()
Il marketing sul 8k è semplicemente ridicolo.
AMD R7 5800X 8C/16T, Noctua NH-D15, Gigabyte X570 AORUS ELITE, 16GB DDR4 3600MT/s CL16, AMD Rx 6800, ASUS XG32UQ + LG 32UL750
SSDs: 960EVO 500GB M.2, 860QVO 2TB SATA | HDDs: Exos X16 12TB, Exos X18 16TB +3x18TB | Windows 11 Pro
Poco ma sicuro.
Sbaglio o gli mancano i driver "giusti" per il lavoro veramente professionale ed è buona per quello "semi professionale"?
AMD R7 5800X 8C/16T, Noctua NH-D15, Gigabyte X570 AORUS ELITE, 16GB DDR4 3600MT/s CL16, AMD Rx 6800, ASUS XG32UQ + LG 32UL750
SSDs: 960EVO 500GB M.2, 860QVO 2TB SATA | HDDs: Exos X16 12TB, Exos X18 16TB +3x18TB | Windows 11 Pro
Boh ci sono i driver studio e idriver gaming, ma onestamente non mi pare cambi un tubo. Non puoi usare i driver quadro su una geforce, ma anche li mi pare cambi veramente poco, tipo l’unica cosa che a me eventualmente mancava era la possibilità di avere encoding hw su teamviewer o roba del genere. Per renderizzare la 3090 va leggermente più veloce della top quadro, solo che ha la metà della ram. La mia scheda ha renderizzato per giorni e giorni di seguito, non ha mai superato i 70 gradi e quindi per quello che faccio i driver quadro non mi sembrano necessari. Non so se qualche programma di cad c’è della roba bloccata coi driver geforce, ma non mi pare![]()
Mi sembra di ricordare che certi calcoli in virgola mobile sono pesantemente azzoppati senza i driver giusti.
Certi programmi mi sembrava di capire che non partivano senza i driver certificati o certe funzioni non erano disponibili.
AMD R7 5800X 8C/16T, Noctua NH-D15, Gigabyte X570 AORUS ELITE, 16GB DDR4 3600MT/s CL16, AMD Rx 6800, ASUS XG32UQ + LG 32UL750
SSDs: 960EVO 500GB M.2, 860QVO 2TB SATA | HDDs: Exos X16 12TB, Exos X18 16TB +3x18TB | Windows 11 Pro
marchiano una scheda "kingpin" come il videogioco di una vita fà?
Ma i top di gamma non fanno testo per l'efficienza, non mirano a quella.
Sono tirati al limite ben oltre la curva d'efficienza in quanto mirano alle massime performance.
Il range ottimale sta nella fascia bassa e/o portatili dove l'efficienza effettivamente conta.
Ultima modifica di GeeGeeOH; 31-03-22 alle 09:26
AMD R7 5800X 8C/16T, Noctua NH-D15, Gigabyte X570 AORUS ELITE, 16GB DDR4 3600MT/s CL16, AMD Rx 6800, ASUS XG32UQ + LG 32UL750
SSDs: 960EVO 500GB M.2, 860QVO 2TB SATA | HDDs: Exos X16 12TB, Exos X18 16TB +3x18TB | Windows 11 Pro
ma che c'entra, ovvio che le top di gamma son quelle che consumano di piú. Il problema é che una 3070ti ha il TDP piú alto del 20% di una titan di 5 anni fa, il trend mi pare ovvio ed oltretutto é un aumento esponenziale visto che si parla di aumenti di TDP tra il 50 e l'80% per la prossima generazione. Non sto dicendo che voglio una 3090 che consuma come una integrata, ma il trend dei consumi onestamente non mi pare "sano", non si puó continuare ad alzare i TDP all'infito![]()
infatti anche i portatili mid range oggi giorno hanno bisono di alimentatori da 300w, che qualche anno fa quasi quasi ci alimentavi un desktop con una 980 dentro![]()
C'è anche chi pensa sia tutta una strategia di Nvidia per tirare fuori schede che consumano meno in futuro, un po' come la cagata della serie 3k "che costa meno della serie precedente" (quando invece si confrontavano i prezzi delle 3080 con quelli delle 2080Ti)
Ad esempio dai commenti di questo video:
Oppure, il commento migliore:Originariamente Scritto da Kevin Mac
Originariamente Scritto da ProjectPhysX
Io non credo che lo stiano facendo apposta, semplicemente hanno deciso di fregarsene per il momento, cosa che potrà tornare a loro vantaggio in futuro quando punteranno un po' di più sui consumi minori.![]()
Programma completo:
print(f"Risultato: {eval('*'.join(str(x + 1) for x in range(max(1, int(input('Inserisci un numero: '))))))}")
Lista scambi Lista scambi
credo di si, a patto che sia un ottimo alimentatore. Io ho un 750w gold con un 3900xt e 3090.
Boh, ho un po' l'impressione che nvidia nel settore gaming/consumer si sia un po' tranquillizzata negli ultimi anni e ora che stanno venendo impensieriti da amd e che hanno dovuto spingere di piú le schede per spremere le prestazioni.
Altro motivo: apple. Al momento apple é lontana dalle prestazioni pure di nvidia per quanto riguarda le schede video, ma ha un'efficienza incredibile. Nvidia non avendo una risposta sul lato efficienza nel breve periodo forse ha deciso di puntare tutto sulla forza bruta, in modo da rendere chiaro il messaggio che se vuoi le massime prestazioni ti ci vuole una nvidia.
Programma completo:
print(f"Risultato: {eval('*'.join(str(x + 1) for x in range(max(1, int(input('Inserisci un numero: '))))))}")
Lista scambi Lista scambi
Premesso che il paragone con una Titan, che non erano spinte al limite, è un po' mal posto...
Anche se la 3070 Ti consumando di più in termini assoluti, è probabilmente più efficiente di schede così vecchie.
Consumi assoluti non sono per forza legati all'efficienza.
Consumare 500W e elaborare 60fps è più efficiente che consumare soli 100W ma farne 6fps.
AMD R7 5800X 8C/16T, Noctua NH-D15, Gigabyte X570 AORUS ELITE, 16GB DDR4 3600MT/s CL16, AMD Rx 6800, ASUS XG32UQ + LG 32UL750
SSDs: 960EVO 500GB M.2, 860QVO 2TB SATA | HDDs: Exos X16 12TB, Exos X18 16TB +3x18TB | Windows 11 Pro
la titan era esattamente quello che é oggi la 3090 fino alla generazione 2xxx.
Detto questo, lo spero bene che l'efficienza generale migliori con il migliorare della tecnologia, ma la realtá é che la scheda top di gamma di 2 generazioni fa (la titan) consumava quasi la metá di una 3090. Questo é un fatto. La 3090 ha piú fps per watt? Certo, non lo nego assolutamente. Peró é anche innegabile che se continuiamo cosí tra un po' ci vorrá un contratto dell'elettricitá apposta per avere una scheda top di gamma in casa
Ultimo appunto. Le schede professionali non sono assolutamente spinte al limite, infatti tutte le quadro hanno sia frequenze che TDP piú bassi rispetto alla controparte geforce e infatti vanno anche leggermente meno di velocitá pura.
Ma consumi ed efficienza non sono termini intercambiabili, son due cose diverse.
E l'efficienza non sta peggiorando col tempo, anzi.
I consumi assoluti salgono perché le richieste son salite.
Una volta ci si accontentava di 30fps, mentre oramai accontentarsi di 60fps è per poveri.
Senza contare la risoluzione e gli effetti.
Il mio punto appunto.
Le consumer sono tirate, mentre per il mondo professionale oltre ad usare i chip migliori (prendono voltaggi più bassi) non li spingono troppo.
Quindi una professionale di qualche hanno può mantenere un vantaggio d'efficienza rispetto una consumer più nuova.
Le Titan sono state inconsistenti. A volte praticamente schede professionali, a volte più vicine ai consumer.
Ultima modifica di GeeGeeOH; 31-03-22 alle 13:30
AMD R7 5800X 8C/16T, Noctua NH-D15, Gigabyte X570 AORUS ELITE, 16GB DDR4 3600MT/s CL16, AMD Rx 6800, ASUS XG32UQ + LG 32UL750
SSDs: 960EVO 500GB M.2, 860QVO 2TB SATA | HDDs: Exos X16 12TB, Exos X18 16TB +3x18TB | Windows 11 Pro
qui https://www.tomshardware.com/feature...umption-tested
hanno fatto un test sull'efficienza delle schede video.
Non mi pare che l'efficienza sia cambiata particolarmente, anzi forse è migliorata.