vedo già richieste di denaro ai vari siti per non rovinarli con orde di spam di a.i. di trollaggio o incitamenti all'odio. serviranno a.i. modedratrici, che i mod normali non saranno in grado di tenere il passo :bua:
Visualizzazione Stampabile
vedo già richieste di denaro ai vari siti per non rovinarli con orde di spam di a.i. di trollaggio o incitamenti all'odio. serviranno a.i. modedratrici, che i mod normali non saranno in grado di tenere il passo :bua:
i.a.+robot+pelle umana vivente=terminator incoming
https://www.youtube.com/watch?v=k12MGWvk_Bo
Ed il mercato delle real dolls si impenna!
edit
Per chi ha voglia di leggersela tutta :bua:
https://cajundiscordian.medium.com/i...w-ea64d916d917
do you want matrix? because that's how you have matrix ^^
FInché non le insegnano una filastrocca andrà tutto bene.
non è strettamente i.a., ma imho sara' l'hardware delle future i.a.
A Big Step In Quantum Computing Was Just Announced: First-Ever Quantum Circuits
https://www.ansa.it/sito/notizie/tec...54f4e6255.htmlCitazione:
Robot razzista e sessista, colpa dell'addestramento sul web
Studio, dati distorti creano stereotipi pericolosi
https://www.ansa.it/webimages/img_45...c0a109d867.jpg
Anche i robot possono diventare razzisti e sessisti: lo dimostra un esperimento condotto negli Stati Uniti, dove un robot ha imparato ad agire secondo stereotipi comuni, associando per esempio le persone di colore alla criminalità e le donne ai lavori domestici.
La colpa è del suo 'cervello', un sistema di intelligenza artificiale ampiamente diffuso e addestrato con dati presi dal web. Lo studio, condotto dalla Johns Hopkins University con il Georgia Institute of Technology e l'Università di Washington, è presentato alla conferenza FAccT 2022 dell'Association for Computing Machinery (Acm), in Corea del Sud.
"Il robot ha appreso stereotipi pericolosi attraverso modelli imperfetti di rete neurale", afferma il primo autore dello studio, Andrew Hundt. "Rischiamo di creare una generazione di robot razzisti e sessisti", avverte il ricercatore, sottolineando la necessità di affrontare la questione al più presto. Il problema è che gli sviluppatori di sistemi di intelligenza artificiale per il riconoscimento di persone e oggetti sono soliti addestrare le loro reti neurali usando set di dati disponibili gratuitamente su Internet: molti contenuti però sono imprecisi e distorti, dunque qualsiasi algoritmo costruito sulla base di queste informazioni rischia di essere fallace. Il problema è stato più volte sollevato da test ed esperimenti che hanno mostrato la scarsa efficienza di certi sistemi di intelligenza artificiale, impiegati ad esempio per il riconoscimento facciale. Finora, però, nessuno aveva provato a valutare le conseguenze di questi algoritmi fallati una volta che vengono usati per governare robot autonomi che operano nel mondo reale senza la supervisione dell'uomo.
in effetti è logico. si ragiona in base ai dati raccolti e se tanti dati raccolti sono razzisti il computer deduce che debbano essere veri, ma alla fine al radice del male resta sempre l'uomo.
Ma neppure, accusano l'AI di aver imparato il vero, solo perchè non si conforma alla loro visione del mondo con gli unicorni.
https://i.imgur.com/CtifMBh.png
https://i.imgur.com/3OrLL4Y.jpg
Stiamo cercando di creare un'intelligenza artificiale che ragiona indipententemente e...
ha sviluppato un'idea che non ci piace o con cui non concordiamo!
Oh noes spegni spegni!
Gli abbiamo fornito dei dati ed è arrivata ad una conclusione che non è politically correct!
Insegnamogli a mentire per non offendere le sensiblità!
Prossima idea da premio nobel: creiamo una calcolatrice avanzatissima che però poi mostra solo il risultato che piace a me!
Chiaramente il fatto che certe minoranze commettano più reati, è anche dovuto al fatto che storicamente son stati cittadini di 2a categoria/schiavizzati e quindi più poveri.
Si può discutere quindi se sia colpa loro o meno e come vadano aiutati, però i numeri son numeri.
A new AI program observed physical phenomena and uncovered relevant variables
da quello che ho capito, questa ai in futuro potrà osservare dei fenomeni fisici e capire la fisica che ne sta alla base. quindi anche fare luce in tutti quegli aspetti ancora fuori dalle nostre capacità di comprensione.
"The researchers believe that this sort of AI can help scientists uncover complex phenomena for which theoretical understanding is not keeping pace with the deluge of data—areas ranging from biology to cosmology".
come può, come può una macchina apprendere cose che il suo creatore non è in grado di apprendere?
pensa che potrebbe addirittura arrivare a capire le donne :jfs2:
paura :asd:
Perchè il creatore si limita a creare l'algoritmo di analisi, l'analisi effettiva è molto più complessa e già adesso pure con le IA più idiote che puoi trovare si apprendono cose che i creatori non sono in grado di apprendere: lo stesso processo di apprendimento di una IA, anche della più semplice, è uno dei problemi matematici più complicati al mondo, è per questo che si usa l'auto apprendimento (che spesso travisa brutalmente il vero obiettivo :asd: ). :sisi:
"Brevemente" riguardo le IA:
https://www.youtube.com/watch?v=aircAruvnKk&list=PLZHQObOWTQDNU6R1_670 00Dx _ZCJB-3pi&index=1
Ok, ma la potenza dell'IA sta nella capacita dell'analisi dei dati, non nel discernimento. :asd:
‘The entire protein universe’: AI predicts shape of nearly every known protein
“We’re at the beginning of new era of digital biology.”
Ma il tema è questo. La maggiore capacità computazionale è una cosa, l'abilità innata di avere idee è altra. La macchina dipingerà mai un Rembrandt? Scriverà mai un romanzo originale?
Breve summary sul machine learning.
Gli algoritmi si possono classificare in:
- Supervised: in cui i dati hanno una "label", che definisce il risultato osservato. Ad esempio i dati storici del mercato immobiliare potrebbero avere una serie di transazioni in cui si è preso nota della posizione geografica dell'immobile, delle sue dimensioni, piano, servizi ecc... e la label è il prezzo di vendita. A questo punto si può allenare un modello che impara dai dati forniti e diventa in grado di prevedere il prezzo di vendita dei nuovi immobili messi sul mercato. In pratica quel che succede è che l'algoritmo crea una corrispondenza tra i dati e le label, in modo che quando la label non è più nota, possa comunque ottenere un risultato vicino a quello reale. Va da sè che in questi casi è impossibile creare un modello se non si ha già un ampio storico di risultati (label) note.
- Unsupervised: in cui non sono fornite label, ma l'algoritmo è comunque in grado di trovare un "pattern" nei dati. Un classico esempio è quello del clustering. Prendiamo Google News ad esempio: analizza decine di migliaia di articoli ogni giorno e le raggruppa in base alla notizia trattata. Senza sapere in anticipo quali siano le categorie disponibili, perché non si può sapere in anticipo quali saranno le news del giorno dopo, l'algoritmo è comunque in grado di individuare le somiglianze tra i dati e raggrupparli.
Da questa base si possono sviluppare algoritmi anche molto complessi, come ad esempio le ormai celeberrime GAN (generative adversarial networks), che sono utilizzate per i deep fake: il meccanismo consiste essenzialmente nel mettere in competizione due modelli.
Il primo genera qualcosa, ad esempio una immagine, mentre il secondo deve capire se l'immagine è reale o è un falso.
Facendo lavorare insieme i due algoritmi, premiandoli quando riescono a "fregare" l'altro, si instaura un circolo virtuoso per cui l'algoritmo che genera le immagini diventa sempre più bravo a generare qualcosa che sembri reale, mentre l'algoritmo avversario diventa sempre più bravo a distinguere le immagini finte da quelle reali.
Anche qui però c'è sempre alla base il concetto di algoritmo supervised, perché ad ogni iterazione sappiamo sempre esattamente se l'immagine è reale o generata e possiamo premiare o penalizzare il modello in base alle sue performance.
Quindi anche se esistono algoritmi che possono produrre risultati utili semplicemente analizzando i dati (unsupervised), questo ha molti limiti e i risultati più "potenti" si hanno con algoritmi supervised, perché questi non si limitano a trovare dei pattern nei dati, ma ne analizzano il legame causale con la realtà.
La potenza di calcolo è così più ampia di quella umana che potrebbe anche essere che dipingano un Rembrandt in modo totalmente casuale producendo tutte le alternative possibili. E tu non saresti in grado di distinguere l'originale con dietro un'idea dalla copia con dietro solo la potenza di calcolo.
Inviato dal mio MAR-LX1A utilizzando Tapatalk
Esistono già esempi di IA in grado di creare opere originali partendo da esempi già esistenti. Poi, se stai chiedendo se un'intelligenza artificiale creata per, chessò, classificare vari tipi di tumore, possa decidere di dipingere un quadro nel tempo libero... Beh questo fa entrare in ballo autocoscienza, libero arbitrio e altri argomenti che per quanto affascinanti rischiano di scivolare nel fantascientifico.
Di base le intelligenze artificiali sono pensate per portare a termine un compito.
In genere sono delle GAN, descritte sopra.
Perché una AI ti crei una immagine che sembra un quadro reale però deve vedere tanti quadri reali e imparare a riprodurli.
Quindi si tratta di una imitazione di ciò che il suo creatore (inteso come genere umano, non il data scientist che scrive il codice), deve già aver prodotto.
Una AI non sarebbe in grado di creare una nuova forma d'arte, perché sa solo imitare.
Però questi è comunque qualcosa di potentissimo, perché può arrivare a fare in pochi secondi quello che un umano realizza in ore o giorni.
Sì infatti. Secondo me nella comunicazione non tecnica si punta troppo sul discorso di autocoscienza e dilemmi fantascientifici vari, quando la cosa strabiliante è quanto la IA possa essere veloce ad apprendere ed efficace nel raggiungere il risultato.
Perché io sono limitato. Ma il fatto che compongano solo copiando dimostra ulteriormente che non capiscono cosa stanno facendo.
- - - Aggiornato - - -
Esattamente. Perciò il chiamarle intelligenze è già un notevole compromesso. Portano a termine compiti per cui sono state programmate, magari curano e sviluppano in autonomia le loro capacità, ma sempre per quel compito. Che non capiscono.
stiamo parlando di un campo in piena evoluzione. cio' che si fa oggi 20 anni fa era fantascienza. per non parlare tra qualche anno dell'accoppiata computer quantistici e i.a., allora sì che se ne vedranno delle belle.
Infatti il termina "intelligenza artificiale" è un po' fuorviante e deriva più che altro dalla fantascienza e dai media. E' sicuramente più di impatto rispetto a "machine learning", che però è più corretto come nome.
I modelli di machine learning (o AI se preferite) sono dei semplici automatismi. Non sono diversi dalle funzioni che studiavate a scuola tipo y = mx. Sono solamente molto più complessi.
Pensare che una AI possa "capire" cosa sta facendo, cioè che sia senziente, è pura follia.
Mi viene sempre da ridere quando escono le news clickbait su intelligenze aritificiali senzienti, come quella recente di Google :rotfl:
Chiunque abbia studiato un minimo la teoria alla base del machine learning sa che sono tutte cavolate acchiappaclick.
Basta vedere gli algoritmi basati su machine learning in ambito di image processing, cose che si fanno ora in tempo reale solo 2 anni fa richiedevano ore e ore di elaborazioni.
Fra 10 anni ci saranno applicazioni che attualmente sono inimmaginabili.
Inviato dal mio MAR-LX1A utilizzando Tapatalk
https://www.reddit.com/r/dalle2/comm...on_with_dalle/
who needs textures?
video interessante
https://www.youtube.com/watch?v=TRgRwraboIw
sintesi
qualcuno ha giocato a ME3 :asd: