boh tutto da vedere. Si la piattaforma con vita limitata é sicuramente un malus. D'altra parte se la metá delle cose che stanno promettendo sono vere, direi che la competizione tra intel e amd é di nuovo alla pari
boh tutto da vedere. Si la piattaforma con vita limitata é sicuramente un malus. D'altra parte se la metá delle cose che stanno promettendo sono vere, direi che la competizione tra intel e amd é di nuovo alla pari
Dicevo solo che i leak avevano già presentato tutto da mò.
La competizione s'è ravvivava già dalla 12gen.
Gli e-core son un po' acerbi, ma la soluzione Intel è certamente valida.
MoBo da 300€ però...
AMD R7 5800X 8C/16T, Noctua NH-D15, Gigabyte X570 AORUS ELITE, 16GB DDR4 3600MT/s CL16, AMD Rx 6800, ASUS XG32UQ + LG 32UL750
SSDs: 960EVO 500GB M.2, 860QVO 2TB SATA | HDDs: Exos X16 12TB, Exos X18 16TB +3x18TB | Windows 11 Pro
il mio interesse è per chi consuma e scalda meno
non sono certo i 3fps nei giochi ad essere la discriminante
fermo restando che il 5600x credo avrà almeno altri 2 anni di vita all'interno del mio case (ma facciamo pure 3)
concordo... io da una parte sono interessato alle prestazioni, perché comunque se devo fare simulazioni che mi durano 4 ore invece che 7 (e in mezzo tutti i test che durano 5 minuti invece che 20) una cpu piú potente é importante per me.
Dall'altra parte mi fa girare le scatole vedere che un 5950x in full load consumava 125w e la gen dopo ne consuma il doppio. Ok, se lo cappi a 65w pare che le prestazioni non decadano linearmente - e comunque c'é ancora da vedere quale sia il consumo effettivo- peró come ho detto tante volte é un trend che non mi piace molto...
AMD R7 5800X 8C/16T, Noctua NH-D15, Gigabyte X570 AORUS ELITE, 16GB DDR4 3600MT/s CL16, AMD Rx 6800, ASUS XG32UQ + LG 32UL750
SSDs: 960EVO 500GB M.2, 860QVO 2TB SATA | HDDs: Exos X16 12TB, Exos X18 16TB +3x18TB | Windows 11 Pro
Qui le cose sembrano molto promettenti, a prescindere dal fortuna con la silicon lottery
Google Calls it Quits on Game Streaming, Shutting Down Stadia
Qualcuno sorpreso?
AMD R7 5800X 8C/16T, Noctua NH-D15, Gigabyte X570 AORUS ELITE, 16GB DDR4 3600MT/s CL16, AMD Rx 6800, ASUS XG32UQ + LG 32UL750
SSDs: 960EVO 500GB M.2, 860QVO 2TB SATA | HDDs: Exos X16 12TB, Exos X18 16TB +3x18TB | Windows 11 Pro
Ultima modifica di Mr Yod; 29-09-22 alle 21:50
Programma completo:
print(f"Risultato: {eval('*'.join(str(x + 1) for x in range(max(1, int(input('Inserisci un numero: '))))))}")
Lista scambi Lista scambi
Intel finalmente completa ARC e annuncia la sua GPU.
Inizialmente ero intrigato dalla possibilità che potesse dare una sgrullata ai prezzi attuali.
Poi ho spulciato bene:
arc a770 msrp annunciato 329$$.
Performance (driver acerbi attuali) indicativamente come una 3060.
Anche la 3060 ha msrp 329$$
..
Non cambierà un cazzo con i prezzi
Sent from my CLT-L29 using Tapatalk
Testato l'R5 7600X (NB: 105W TDP) con cooler normali.
Wraith Stealth e Spire soffrono del resto son pensati per soli 65 e 95W rispettivamente..
Il Pure Rock 2, che è da 150W, non ha problemi.
Se poi si va un minimo di undervolt...
AMD R7 5800X 8C/16T, Noctua NH-D15, Gigabyte X570 AORUS ELITE, 16GB DDR4 3600MT/s CL16, AMD Rx 6800, ASUS XG32UQ + LG 32UL750
SSDs: 960EVO 500GB M.2, 860QVO 2TB SATA | HDDs: Exos X16 12TB, Exos X18 16TB +3x18TB | Windows 11 Pro
Ho letto che basta un leggero tweak e praticamente senza perder performance scendono anche di 30 gradi. Insomma AMD li ha tirati per il collo di fabbrica per poter sfoggiare ogni singolo punto percentuale nelle slide.
Beh, che poi è quello che ha fatto Intel togliendo il limite al TDP nelle recenti serie, anche se a temperature sono messi meglio.
Col delid, i 7000 scendono di ben 20 gradi C.
Amd Ryzen 7 7800x3D@PBO-30 5050Mhz, Noctua u12a c.b. + am5 offset kit + Noctua NT-H2, G.Skill Z-Neo 32GBx2 DDR5 6000Mt/s 30-38-38-28, Asus Tuf 4080 OC 2,8Ghz@1V, MSI x670e Tomahawk WIFI, 4x Samsung 980 PRO 2TB, Seasonic PX-850W, Fractal Torrent, Razer Basilisk V3, Vega Keyboard, Gamesir G7 SE, Asus PG27AQDM Oled 240hz, DENON AVR-X3500H + Indiana Line Tesi + SVS SB 1000, DTS X: Master
Attenzione che non si possono paragonare le temperature tra AMD ed Intel così... in leggerezza.
Intel consuma di più ma scalda di meno? Ma non funziona proprio così.
Energia elettrica → calore. Punto.
Son sensori messi in modo diverso.
Come anche pensare "eh, ma una volta le CPU stavano sotto i 60°".
Una volta non avevano i sensori così "in profondità".
Ultima modifica di GeeGeeOH; 01-10-22 alle 10:51
AMD R7 5800X 8C/16T, Noctua NH-D15, Gigabyte X570 AORUS ELITE, 16GB DDR4 3600MT/s CL16, AMD Rx 6800, ASUS XG32UQ + LG 32UL750
SSDs: 960EVO 500GB M.2, 860QVO 2TB SATA | HDDs: Exos X16 12TB, Exos X18 16TB +3x18TB | Windows 11 Pro
AMD ha fatto la cazzata di mettere un heatspreader abnorme per mantenere la compatibilità coi sistemi di raffreddamento precedenti (ma a che cazzo serve la compatibilità se tanto poi è inutile a causa di un heatsprteader del genere?): guardati il video di der8auer.
Programma completo:
print(f"Risultato: {eval('*'.join(str(x + 1) for x in range(max(1, int(input('Inserisci un numero: '))))))}")
Lista scambi Lista scambi
la vedo dura. Posta cmq la fonte
- - - Aggiornato - - -
Ma cosa c'entrano i sensori, belìn, il problema sarà l'HS, visto i GHZ che raggiungono queste bestie. E non ignorare il processo produttivo, FA la differenza, senza contare il fatto che le cpu amd hanno una diversa costruzione e disposizione dei die. Se poi anche qua vuoi portare avanti la tua crociata di bastian contrario, fai pure
Amd Ryzen 7 7800x3D@PBO-30 5050Mhz, Noctua u12a c.b. + am5 offset kit + Noctua NT-H2, G.Skill Z-Neo 32GBx2 DDR5 6000Mt/s 30-38-38-28, Asus Tuf 4080 OC 2,8Ghz@1V, MSI x670e Tomahawk WIFI, 4x Samsung 980 PRO 2TB, Seasonic PX-850W, Fractal Torrent, Razer Basilisk V3, Vega Keyboard, Gamesir G7 SE, Asus PG27AQDM Oled 240hz, DENON AVR-X3500H + Indiana Line Tesi + SVS SB 1000, DTS X: Master