Secondo quanto riferito, Taylor Swift ha minacciato di citare in giudizio Microsoft per bot razzista su Twitter

microsoft tay chatbot versione 1458914121 ai

Quando un chatbot artificialmente intelligente che ha usato Twitter per imparare a parlare senza sorpresa si è trasformato in un bigot bot, secondo quanto riferito Taylor Swift ha minacciato un'azione legale perché il nome del bot era Tay. Probabilmente Microsoft preferirebbe dimenticare l'esperimento in cui i troll di Twitter hanno approfittato della programmazione del chatbot e gli hanno insegnato a essere razzista nel 2016, ma un nuovo libro condivide dettagli inediti che mostrano che Microsoft aveva più di cui preoccuparsi oltre alle semplici osservazioni razziste del bot.

Tay era un chatbot sui social media rivolto agli adolescenti lanciato prima in Cina prima di adattare il moniker di tre lettere quando si trasferiva negli Stati Uniti. Il bot, tuttavia, era programmato per imparare a parlare in base alle conversazioni su Twitter. In meno di un giorno, le risposte automatiche che il chatbot ha twittato hanno fatto sì che Tay si schierasse con Hitler, promuovendo il genocidio e in generale odiando tutti. Microsoft ha immediatamente rimosso l'account e si è scusato.

Quando il bot è stato riprogrammato, Tay è stato rilanciato come Zo. Ma nel libro Tools and Weapons del presidente Microsoft Brad Smith e Carol Ann Browne, direttore delle comunicazioni di Microsoft, i dirigenti hanno finalmente rivelato il perché – un altro Tay, Taylor Swift.

Secondo The Guardian , l'avvocato del cantante ha minacciato un'azione legale sul nome del chatbot prima che il bot si rompesse. Il cantante ha affermato che il nome ha violato le leggi federali e statali. Invece di entrare in una battaglia legale con il cantante, scrive Smith, la compagnia ha invece iniziato a prendere in considerazione nuovi nomi.

Quando il chatbot ha iniziato a inviare tweet razzisti, il cantante aveva ancora più motivi di preoccupazione. Microsoft ha rimosso il bot. Ma quando riapparve il chatbot, Tay non era più TayTweets ma Zo, completo di un nuovo programma che impedisce al bot di affrontare la politica, la razza e la religione come argomenti. Il chatbot rivisto, disponibile su Messenger e altri insieme a Twitter, è stato successivamente criticato per essere troppo simile a una ragazza stereotipata .

La moniker abbreviata non è l'unica cosa che la cantante ha rivendicato – ha anche il marchio del 1989, l'anno in cui è nata e il titolo di una delle sue canzoni. La cantante ha anche registrato diverse righe dei suoi testi.

Il libro, pubblicato il 10 settembre, continua a discutere di come Smith abbia visto l'incidente come una lezione di salvaguardia dell'IA.