insegna agli angeli a sminuire i genocidi
RIP
https://www.worldoftrucks.com/en/onl...e.php?id=92274
Corsair iCue5000X RGB - Asus ROG-STRIX Z690 F-GAMING ARGB - Intel Core i7 12700K - Corsair iCue H150i Capellix RGB - 2X Corsair Dominator Platinum RGB DDR5 5600MHz 16GB - Samsung 980PRO M.2 1TB NVMe PCIe - PCS 1TBe SSD M.2 - Seagate Barracuda 2TB - Corsair 1000W RMx Series MOD. 80PLUS GOLD - Asus ROX-STRIX GEFORCE RTX3070Ti 8GB - Kit 4 ventole Corsair LL120 RGB LED - Windows 11 64bit
Insegna agli angeli la grammatica generativa
In questo mondo / contempliamo i fiori; / sotto, l’inferno (Kobayashi Issa)
Anche se forse non lo ammetteranno mai (o magari l’hanno fatto ma sono io a non essere sufficientemente informato), secondo me tutti gli attuali modelli di intelligenza artificiale generativa sono basati sulla teoria X barra avviata da Chomsky.
Evidentemente il modello attuale è ancora incompleto per comprendere tutte le espressioni di tutte le lingue del mondo, ma gira comunque abbastanza bene per far parlare un computer in maniera credibile (anche perché usa un linguaggio ben meno vario di quello umano).
Ultima modifica di hoffmann; 18-06-24 alle 21:26
un comunista di meno
No, guarda, ti assicuro che la grammatica generativa di Chomsky e i large language models non hanno proprio nulla in comune. I LLM sono modelli stocastici che (per dirla in breve, anche se un po' male) "forzano" il linguaggio umano su base prettamente probabilistica. Il modello di Chomsky e dei suoi adepti invece è un tentativo di ricostruire la competenza grammaticale umana, cioè la capacità di acquisire la propria lingua madre, sulla base di regole e principi astratti, che, perlomeno nell'ortodossia chomskyana, non hanno nulla di probabilistico.
Ah, non riesco a capire il tuo riferimento alla teoria X-barra che con i LLM non c'azzecca proprio nulla (la teoria X-barra è un formalismo usato per descrivere la stuttura interna dei sintagmi).
- - - Updated - - -
Viva l'approssimazione e il parlare tanto per come al bar sport
Chomsky non era comunista manco per il piffero. Era anarchico
In questo mondo / contempliamo i fiori; / sotto, l’inferno (Kobayashi Issa)
Fermi tutti! Forse non è ancora andato a insegnare agli angeli
https://www.ilsole24ore.com/art/mort...5-anni-AG3PcBd
In questo mondo / contempliamo i fiori; / sotto, l’inferno (Kobayashi Issa)
ovvio, i comunisti sono così cattivi che neanche il diavolo li vuole
Semplicemente mi chiedevo se, data la capacità della teoria X barra di ridurre gli enunciati di ogni lingua in strutture essenzialmente binarie, fosse stata usata “al contrario”, cioè per generare degli enunciati.
Ovvero usare l’ossatura x barra per dire al computer come strutturare enunciati che sembrino umani (con termini poi scelti su base probabilistica).
Non sono certo di essermi spiegato molto bene.
Però a me pare che agli LLM devono pur aver dato un’ossatura di base su cui costruire enunciati; e lo schema binario dell’ X barra mi sembra piuttosto adatto. E infatti il linguaggio di ChatGPT e simili mi sembra molto essenziale e paratattico; non sembra basato sull’infinità varietà delle espressioni umane.
Ultima modifica di hoffmann; 18-06-24 alle 22:12
In questo caso devo fare la solita figura di quello che non sa chi sia
Mi riguardo captain fantastic subito!
So che si scambiava email con Paolo Barnard
So che sta sul cazzo a molock
Quindi direi che mi sta simpatico e spero viva a lungo
I LLM funzionano predicendo quale sarà la parola successiva all'interno di una stringa, cosa che i modelli attuali fanno molto bene perché possono contare su milioni di parametri e una quantità sterminata di dati del training set. Non hanno bisogno di modelli sintattici teorici come l'X' , che anzi con l'architettura dei LLM ci azzecca ben poco, visto che è stato pensato in contesti e per scopi completamente diversi
In questo mondo / contempliamo i fiori; / sotto, l’inferno (Kobayashi Issa)