Già. I "chip" sono già ragionevolmente piccoli... è tutto l'apparato per farli funzionare che è problematico.
Visualizzazione Stampabile
Già. I "chip" sono già ragionevolmente piccoli... è tutto l'apparato per farli funzionare che è problematico.
boh, vedremo. La foto che ho postato dell'HDD che sembra un armadio era di quasi 80 anni fa, sono abbastanza sicuro che tra 80 o é cambiata completamente tecnologia o avranno risolto i problemi delle dimensioni :sisi:
I sistemi di refrigerazione estremi quanto si son miniaturizzati negli ultimi decenni?
La domanda c'è da decenni.
Probabilmente avremmo già risolto la fusione.
mi pare abbiamo giá avuto conversazioni del genere. Non voglio andare contro le leggi della termodinamica, ma sono abbastanza certo che quando hanno fatto i primi computer c'erano discorsi simili quando qualcuno ipotizzava di poterli usare in casa. Oggi li fanno entrare nei cellulari, con potenze e memorie migliaia di volte piú alte di quell'armadio :asd:
Poi GeeGeeOH, non te la prendere, sicuramente sbaglio io, peró non capisco una cosa. Nella pagina scorsa, in risposta al post di Wetall che mostrava un computer quantistico gigante e quindi poco pratico da mettere in casa hai scritto:
Non so se ho interpretato male il messaggio, ma ho inteso che, come per i primi computer anche qui probabilmente le dimensioni diminuiranno. Ora che l'ho detto anche io dici che é impossibile risolvere il problema delle dimensioni. Scusa ma a volte ho l'impressione tu ti diverta a dire il contrario di quello che dico io :asd:
La fusione non é possibile oggi, lo sará un giorno. La tecnologia avanza... non sono uno di quelli che pensa che di impossibile non c'é nulla (anzi, mi stanno abbastanza sulle palle) e credo che viviamo nel mondo fisico, ma la storia ci ha anche insegnato che quello che una volta era "magia" o "fantascienza", oggi é semplice scienza. E questi salti diventano sempre piú brevi, visto che come usiamo oggi i telefoni cellulari non era altro che fantascienza fino a 30-40 anni fa.
Quindi, non é che mi aspetto di usare i computer quantistici tra un paio d'anni per fare i rendering di blender, ma se la tecnologia quantistica avrá degli interessi a livello pratico per le masse, state tranquilli che prima o poi troveranno il modo di sfruttarli :sisi:
Quello che dicevo li, più che altro, era che non mi pongo nemmeno il problema che sia fattibile una riduzione del genere, perché quello non penso sia proprio il vero problema in questo caso.
Ma se ci poniamo il problema, penso siano cazzi e che i transistor facciano storia a se stante e non regola generale.
Generalmente trovo alquanto fallace ragionare col presupposto che visto che in passato abbiamo risolto problemi simili, si possa andare avanti all'infinito.
Ci possiamo sbagliare su quali siano i limiti, ma i limiti esistono.
il vero botto sarà i.a.+computer quantistici evoluti (in ogni campo). nel nostro caso, con linee veloci magari non servirà tenere manco più hardware a casa che non sia per la connessione a farm di supercomputer quantistici per avere sempre il top del top :sbav:
Ecco, se ne volete comprare uno:
https://www.youtube.com/watch?v=60OkanvToFI
:asd:
La scheda col processore in sè è già più piccola di una 3090, il problema è solo il raffreddamento. :bua:
E quello non puoi miniaturizzarlo più di tanto, perchè la richiesta di raffreddamento (come anche di riscaldamento) esiste già da decenni e non solo in ambito PC: se bastasse quella per ottenere la miniaturizzazione oggi non avremmo dissipatori su cui devi pagarci l'IMU. :bua:
E i chip quantistici non vanno raffreddati perchè scaldano più di 4090Ti (quando uscirà), ma perchè hanno bisogno che le particelle non facciano il cazzo che vogliono, cosa che succederebbe a temperatura ambiente. :asd:
si questo sono convinto anche io che sia una rivoluzione relativamente vicina nel tempo. Sono giá un paio d'anni che dico che nel giro di 10 anni sará normale avere solo un computer "client", ma che in realtá tutto il lavoro sará fatto in cloud. Dopotutto giá ora ci sono tante soluzioni sia per il gaming che per mercato professionale.
Certo, anche i computer dall'altra parte funzionano con la tecnologia esistente, peró giá il fatto di non dover necessariamente sviluppare tecnologie che devono entrare nella casa di ognuno cambia un po' le regole del gioco
Li la latenza è un altra bella rogna da risolvere.
Il problema non son tanto le connessioni ma l'infrastruttura del internet e questa non la si rivoluziona così rapidamente.
Concordo, la latenza é da migliorare ed é l'anello debole della catena. Comunque calcola sto lavorando in questo istante da un portatile in Italia collegato a un fisso in Polonia, entrambi su normali linee internet casalinghe. Non ci giocherei a un simulatore di guida, ma per lavoro é giá godibilissimo con circa 40-50ms di latenza (su wifi). Non la vedo cosí impossibile specialmente mettendo il cloud su infrastrutture ad hoc invece che su una linea casalinga.
sapete che marca è la KFA2? la 3080 a 12 giga viene 1099 euro su drako
nella generazione passata era molto buona, soprattutto a prestazioni
con l'odierna, non lo so
è una di quelle che si filano in pochi perchè ha un nome poco conosciuto
cmq in tempo di carestia, farei poco lo schizzinoso: io a luglio scorso ho preso una xfx...
immagno che ora che esce la serie 4000 scenderanno ancora
non sono schizzinoso :) , ma spendere 1000 euro per un oggetto di cui non conosco la marca (e magari si spacca dopo 2 giorni) mi fa sentire un tremito nella forza.
Comunque coma alimentatore ho un Corsair CX650M mi basta o devo prenderne uno piu' "Grosso"?
CPU? Se hai un Intel K potrebbe non bastare.
Hanno dei picchi da paura.
meglio KFA che xfx
a mio parere
non credo che esistano schede che si rompono dopo 2 giorni: possono avere più o meno efficienza, miglior dissipazione del calore quindi alla lunga meno "usura", più o meno silenziosa, ma carrette no
poi c'è il discorso assistenza in caso di problemi
ho quasi sempre avuto asus o sapphire (e una gigabyte, qualche generazione fa), xfx in tempi normali non l'avrei considerata, però devo dire che per adesso (:look:) il suo lo fa, senza lucine, lucette e cazzi gheimers vari
Beh io ho preso una "Manli" 3070, pare funzionare bene e l'ho presa per circa 670 euro (su BPM power). Credo che di questi tempi anche le marche minori siano molto più accettabili.
Scusate ma che ha la XFX che non va? Io mi ricordo che andavano MOLTO bene costando il giusto
Ovviamente dipende sempre da modello a modello, ma era una marca che in Italia non era conosciutissima, ma apprezzata all'estero.
sono molto spartane: non che me ne freghi, anzi, però sono parallelepipedi di plastica
come marca non è molto rinomata, ma pare vada bene
è un po' rumorosa a pieno regime, ma per il resto è ok
la differenza tra marca e marca si vede sulla lunga distanza e in caso di problemi (:tie:): presa a luglio su amazon a 700€, è una 6700xt
La mia RX580, ultima scheda video da pc fisso, era della XFX e prima ancora credo di aver comprato la prima geforce 256 o la 460 (ma non ricordo bene il modello e sigla) di marca XFX
Ne ho avute 2 e andavano molto bene. La 580 non era rumorosa, ma ansimava: Modello GTS XXX Edition
meglio, visto che mi sa che deve durare tanto, sapere di esperienze positive mi rincuora :sisi:
Alla fine la ho comprata e sto aspettando che mi arrivi.
Nel caso mi servisse un nuovo alimentatore per sostituire il mio (corsair CX650M) va bene un 750 o meglio puntare al 850?
Le varie sigle hx, rm, ecc.. dei corsair cosa significano?
Ci sono marche migliori (magari a prezzi inferiori)?
Grazie
io ho un corsair RM 650x
mi ricordo che la serie RM e basta (senza x) fosse da evitare
sono ormai parecchi anni che ce l'ho, mi pare 7 o 8
Non dovresti aver problemi con quella combo CPU e GPU.
Marche migliori a prezzi inferiori dei Corsair non credo.
Vediamo, c'è ancora un po' di attività qui...? :asd:
Non seguo più il mercato, quindi non saprei... nella fascia entry-level, quella che una volta aveva schede video con dissipatore passivo, poca performance etc... ora che modelli ci sono?
(E dove potrei fare un confronto con una 5770 tipo...?)
Inviato dal mio KIW-L21 utilizzando Tapatalk
Io sto ancora aspettando di comprare una scheda più potente della R9 280 da 3 GB :asd:
Editato sopra!
Inviato dal mio KIW-L21 utilizzando Tapatalk
Dici HD 5770 del 2009?
Penso che una RX 6400 uscita qualche mese fa sia 2-3 volte più potente...
:asd: Beata ignoranza.
Con la pandemia i prezzi sono e s p l o s i .
La RX 6400 è la scheda di fascia più bassa che ci sia.
Una fascia media oramai son 4-500€, non 200€.
A spanne, per AMD, le cose dovrebbero essere circa così:
RX 6400 - 170€
RX 6500XT - 200€
RX 6600 - 350€
RX 6600XT - 450€
RX 6700XT - 650€
RX 6800 - 900k €
RX 6800XT - 1000€
RX 6900XT - 1100€
L'analoga alla tua 5770, cioè medio alta, una Rx 6700XT non penso la trovi a meno di 600€.
[Più di quanto ho speso per la Rx 6800, presa al lancio con tanto culo direttamente dal sito AMD senza rincari a 580€]
Fai conto che per giocare non andrei sotto la Rx 6600.
Sotto, se hai fortuna, c'è l'usato.
NVidia è pure peggio.
Ed i prezzi si son abbassati ultimamente eh!
ma la serie 4000 quando la cacciano?
GeForce 900, metà settembre 2014.
GeForce 1000, fine maggio 2016.
GeForce 2000, metà settembre 2018.
GeForce 3000, metà settembre 2020.
GeForce 4000, settembre 2022 ?
Rx 400, fine giugno 2016
Rx Vega, metà agosto 2017
Rx 5000, primi di luglio 2019.
Rx 6000, metà novembre 2020.
Rx 7000, fine 2022 ?
Si presume a settembre. Poi ci sarà da ridere coi prezzi.
A stò giro però accadrà una cosa curiosa: resteranno sul mercato ancora anche con la serie 3000. Idealmente quest'ultima dovrebbe calare ulteriormente e la serie 4000 costare come le 3000 adesso ma qualcosa mi dice che i prezzi delle 3000 si stabilizzeranno e le 4000 daranno nuova spinta al mercato illegale degli organi.