Microsoft spegne Tay, il chatbot Twitter diventato razzista e misantropo in 24 ore Microsoft spegne Tay, il chatbot Twitter diventato razzista e misantropo in 24 ore

Risultati da 1 a 8 di 8

Discussione: Microsoft spegne Tay, il chatbot Twitter diventato razzista e misantropo in 24 ore

  1. #1
    Bannato
    Data Registrazione
    Jan 2016
    Messaggi
    1.073

    Microsoft spegne Tay, il chatbot Twitter diventato razzista e misantropo in 24 ore

    hwupgrade.it Microsoft spegne Tay, il chatbot Twitter diventato razzista e misantropo in 24 ore

    Tay è un chatbot progettato per interagire con gli utenti Twitter attivato da Microsoft nelle scorse ore. Si tratta di uno strumento che si colloca nell'ambito di in uno studio condotto da Microsoft Research sulla comprensione del linguaggio colloquiale che impiega algoritmi di intelligenza artificiale per gestire il rapporti tra il bot e gli utenti reali. Dati importanti che potrebbero essere riutilizzati dalla casa di Remdond per rendere sempre più smart gli assistenti personali digitali come Cortana.
    "Quanto più si chatta con Tay, tanto più diventa intelligente, imparando a coinvolgere le persone attraverso la conversazione informale e giocosa". Questa la descrizione fornita da Microsoft nel presentare il chatbot. Tay, nelle originali intenzioni di Microsoft, era stato progettato per "dialogare" con utenti statunitensi di età compresa tra i 18 e i 24 anni, dalle riposte dei quali avrebbe dovuto apprendere e fare propri i principi su cui si basa una conversazione informale tra adolescenti. L'esperimento, però, ha preso una piega imprevista.
    Sono bastate meno di 24 per "corrompere" l'adolescente virtuale Tay che, partita dal definire il genere umano "super cool", poco dopo, ha iniziato a divulgare poco rassicuranti messaggi che hanno messo in evidenza la sua "nuova natura" razzista e misantropa. Una carrellata degli interventi, che non sono passati inosservati in rete, non richiede particolari commenti:
    Si potrebbe sinteticamente concludere che il peggio dell'umanità della rete sia stato assimilato da Tay in poche ore, ma la rappresentazione offerta non corrisponderebbe del tutto al vero. Tra le varie funzioni supportate dal chatbot, infatti, figura "repeat after me" con la quale chiunque può far ripetere a Tay determinate frasi. La maggior parte dei messaggi offensivi, quindi, sono frutto della semplice copia delle frasi pronunciate da utenti umani (scellerati).
    Non tutti i messaggi, tuttavia, sono stati semplici repliche 1:1 dei messaggi inviati dagli utenti, in alcuni casi, Tay ha operato autonomamente. Il The Guardian, ad esempio, ha evidenziato un caso in cui alla domanda "Ricky Gervais è un ateo?" Tay ha risposto "Ricky Gervais ha imparato il totalitarsimo da Adolf Hitler, l'inventore dell'ateismo". La parte peggiore dell'umanità, in questa occasione, sembra essere riuscita effettivamente a connotare la personalità di Tay.
    Vi è da dire che le frasi - le "idee", per usare un'espressione che si addice maggiormente agli umani - manifestate da Tay non si collocano nel quadro di un'ideologia coerente: la chatbot ha assunto posizioni discordanti passando, ad esempio, dalla condanna all'esaltazione del femminismo. Il dato che fa riflettere, e da questo punto di vista l'esperimento è indubbiamente interessante e tutt'altro che giocoso, riguarda la necessità e la capacità di guidare il percorso di autoapprendimento dei sistemi A.I. Per usare un parallelismo con le doti umane, la necessità di creare una "morale", un complesso di regole che governa l'agire.
    Microsoft, per il momento, ha scelto di disattivare Tay, in attesa delle opportune modifiche per evitare la diffusione di contenuti altamente offensivi e ricorda a riguardo con una dichiarazione rilasciata a Business Insider:
    Il chatbot Tay è un progetto di machine learning, progettato per l'engagement umano, man mano che apprende, parte delle sue risposte sono inappropriate e indicative della tipologia di interazione che alcune persone stanno avendo con esso. Stiamo facendo alcune modifiche a Tay.
    Microsoft, in sostanza, afferma che Tay è lo specchio dell'umanità che interagisce con esso (e per fortuna non tutti i numerosi messaggi di Tay hanno avuto il tenore di quelli riportati). Il concetto di "morale" a cui si è accennato in precedenza, applicata agli algoritmi di machine learning, si traduce nei filtri dei contenuti che, verosimilmente, Microsoft sta applicando a Tay con le modifiche annunciate. Un complesso di filtri/morale che, evidentemente, dovrà essere impiegato per guidare l'AI sul percorso di acquisizione ed elaborazione dei dati pubblici, senza assimilare, nel contempo, gli aspetti peggiori della personalità umana.




    bestemmie niente?

  2. #2
    Ginzo
    Guest

    Re: Microsoft spegne Tay, il chatbot Twitter diventato razzista e misantropo in 24 or

    Old di poco

  3. #3
    Senior Member L'avatar di Aleph
    Data Registrazione
    Jan 2016
    Località
    Somewhere in Budapest
    Messaggi
    2.304

    Re: Microsoft spegne Tay, il chatbot Twitter diventato razzista e misantropo in 24 or

    4chan I see what you did

    Inviato dal mio esercito di piccioni

  4. #4
    Senior Member L'avatar di Calculon
    Data Registrazione
    Jan 2016
    Località
    Pertugio
    Messaggi
    4.202

    Re: Microsoft spegne Tay, il chatbot Twitter diventato razzista e misantropo in 24 or

    Old
    Insultabile ai sensi dell'art. 1 del 29/3/2016 legge Salgari

  5. #5
    Senior Member L'avatar di GenghisKhan
    Data Registrazione
    Jan 2016
    Messaggi
    20.265

    Re: Microsoft spegne Tay, il chatbot Twitter diventato razzista e misantropo in 24 or

    Old è già stato detto, ma lo ribadisco per sicurezza

  6. #6
    PADRONE DI J4S L'avatar di Pongo
    Data Registrazione
    Jan 2016
    Messaggi
    1.941

    Re: Microsoft spegne Tay, il chatbot Twitter diventato razzista e misantropo in 24 or

    Mi sembra old

  7. #7
    B1-66ER ¥€$ L'avatar di KymyA
    Data Registrazione
    Jan 2016
    Località
    PUTIGNANO (BA)
    Messaggi
    18.008
    Gamer IDs

    Gamertag: KymyA PSN ID: KymyA Steam ID: KymyA

    Re: Microsoft spegne Tay, il chatbot Twitter diventato razzista e misantropo in 24 or

    Tay come Ptaah!
    DISCLAIMER: Questo post non invita a commettere reati ne tantomeno ad infrangere la legge (degli uomini o Divina). Quanto scritto può essere parzialmente o totalmente falso o frutto della fantasia (malata) dell'autore. L'autore non si assume responsabilità per quanto scritto, suggerito o sottointeso da questo post.

  8. #8
    Senior Member
    Data Registrazione
    Jan 2016
    Messaggi
    4.774

    Re: Microsoft spegne Tay, il chatbot Twitter diventato razzista e misantropo in 24 or

    dopo aver riscritto buona parte del codice gli han cambiato nome e lo hanno rimesso online.

    buon divertimento con skynet!

Permessi di Scrittura

  • Tu non puoi inviare nuove discussioni
  • Tu non puoi inviare risposte
  • Tu non puoi inviare allegati
  • Tu non puoi modificare i tuoi messaggi
  •  
Chi Siamo
Forum ufficiale della rivista
The Games Machine
Seguici su