Sta cosa del neural engine l'ho notata anche io... vediamo se é una banfa di marketing, peró son curioso, specialmente se dovesse riguardare anche il rendering![]()
concordo, é il trend ormai da 4-5 serie. Tutti mi sembrano molto tranquilli, intanto i consumi sono raddoppiati nel giro di qualche anno. Anche l'efficienza é aumentata, vero, ma spero il trend si inverta presto. Personalmente gradirei schede il 10% piú lente ma che consumano la metá e hanno il dissipatore grosso la metá senza dover pagare la tassa quadro![]()
ti svelo un segreto...
riduci il power limit. Se vuoi esagerare segui una delle guide per undervoltare le schede. Dalle 3000 che si fa molto con le schede di fascia alta per chi vuole ridurre i consumi, mantieni il 90% della performance e cali facilmente di 100W.
I dissipatori invece meglio così perché tanto che ci devi fa nel case, campeggio? Più budget termico c'è meglio è, pure se consuma meno la scheda se devi mandare le ventole a cannone per tenerla fredda sotto carico è una palla
le 4000 sono schede che consumano pochissimo comunque, se uno vuole ci son quelle![]()
minchia galf sei un disco rotto, ogni volta mi sveli un segreto. Ho giá downvoltato non mi sveli nulla di nuovo. Per me il dissipatore gigante per avere 5-10% in piú di prestazioni é da minorati mentali. O almeno potrebbero dare la possibilitá di scegliere. E il case mi piacerebbe averlo piccolo, guarda apple che cazzo ci fa entrare dentro l'ultra, possibile che noi siamo ancora ai cassoni dell'indifferenziata?
LE 4000 consumano pochissimo![]()
ti svelo un altro segreto
le dual slot esistono e puoi comprarle così entrano anche nel case piccolo! Ci sono dei fractal design verticali.
Guarda Apple quanto fa schifo rispetto una gpu dedicata. Vuoi altri segreti da svelare? Tipo i chip qualcomm ARM?Apple non è x64.
Sì le 4000 consumano pochissimo. 300W per quella performance (4080 Super) è eccezionale, con un pelo di undervolt consumi veramente poco, tipo 240W.
Ricordiamoci che un M3 Pro, per rimanere su Apple, è circa la metà della velocità di una 4080 non-super come performance. Non si possono fare paragoni di wattaggio perché è un'architettura completamente diversa![]()
ricordiamoci piú che altro che un m4 max va piú di una 4070 desktop e tutto il sistema consuma la metá della sola schedaNon é x86? Non me potrebbe fregare di meno, vedo un efficienza che intel, amd o nvidia si sognano al momento, mi piacerebbe averla su pc. x86, ARM, facciano cosa vogliono. E mi sta sul cazzo apple, non é che sono un fanboy, solo che invece di avere gli occhi foderati di prosciutto mi rendo conto che a sto giro hanno qualcosa di buono, mentre su pc l'efficienza é si aumentata, ma abbiamo bisogno di un transatlantico. Questo lato schede, lato cpu lasciamo fare che anche l'm4 pro é mediamente piú performante della maggior parte dei processori desktop di ultima generazione.
Che discorsi sono che non si possono fare paragoni di wattaggio perché é un'architettura diversa? Alla fine della fiera un portatile apple ha un alimentatore umano, un gaming pc il mattone da 300w. Stesso discorso per i desktop. Perché non si dovrebbero poter confrontare diverse architetture? NOn mi interessa che architettura si usa, mi interessa il risultato finale.
Ultima modifica di Dadocoso; 18-12-24 alle 17:00
Dado ti voglio bene ma questo post è tipo la casalinga di voghera che scopre la tecnologia. Non puoi affrontare questi discorsi come Tuco che dice "azzurra rosa blu fate come volete datemi altra di questa roba" è un po' diverso
vuoi un'architettura ARM? Vai, comprati un portatile Qualcomm. Esistono e ci gira Windows. Vanno anche piuttosto bene nei giochi, quale è il problema?
Non ti serve un transatlantico. Prenditi una 4070 Super dual slot e giochi a tutto a bomba 1440p in un case grande quanto una scatola da scarpe.
ma esiste ancora il poter mettere due schede in SLI o è roba ormai abbandonata da un decennio e passa?![]()
puoi metterne anche 3 o 4, non serve nemmeno il collegamento tra le schede. ma è roba superata in quanto inefficiente
SLI morto da molto tempo, con la fine delle 2000 mi pare hanno tolto il connettore. Si usa però mettere schede multiple per chi lavora con programmi 3D perché possono usare le schede anche se non sono collegate fra loro con il ponte SLI quando non si tratta di rendering real time
ammetto che ai tempi della serie 1000 mi sarei fatto un sistema SLI (il connettore era incluso negli accessori di certe mobo), ma già ai tempi era poco supportato nei giochi.Costava meno prendersi una 1080/1080ti
Quello che non ho capito è se l'NVLINK + NVSwitch (quest'ultimo sembra che sia il vero interconnettore tra multiple GPU) funziona solo su CPU arm nVidia![]()
ma non é una cosa per i giochi comunque, quindi il bottle neck della cpu conta poco. É uno strumento usato a livello professionale che hanno lasciato ad appannaggio delle quadro, appunto in quanto schede per l'ambito professionale. Peró alla fine per avere le prestazioni della 4090 in una quadro paghi mi pare sui sugli 8-10k per avere una scheda con dissi blower 2 slot, che consuma meno, col doppio della ram e l'nvlink, piú altra roba attivata via drivers. Tutte cose fighe per quanto mi riguarda, ma a quel prezzoMagari il dissi blower 2 slot e meno consumo peró potrebbero darti l'opzione anche sulla 4090 imo, visto che sono a costo 0, ma nvidia ha vietato ai partners di fare schede 4090 cosí
Ma soluzioni a doppia CPU sono mai esistite o immaginate?
Ci sono state (e c'è ancora pare), la possibilità di mettere due GPU, ma due CPU invece?
Forse è più lato server l'esistenza di schede madri a più CPU![]()
https://www.amazon.it/Motherboard-Du...rd+Dual+Socket
- - - Aggiornato - - -
https://www.amazon.it/Processori-LGA...d-33674c20ab35
robba che neanche il Pastore![]()
anche 4O almeno, sono esistite, non so se é sempre possibile, ma 2 si