Microsoft risveglia la sua Intelligenza Artificiale Tay, che impazzisce

La settimana scorsa abbiamo potuto scrivere una storia con un sapore di fantascienza classica, di un futuro in cui non sapevamo di vivere. Microsoft aveva realizzato una Intelligenza Artificiale, Tay, programmata per parlare e comportarsi come una ragazzina adolescente, interfacciandola con Twitter in modo che gli utenti del social la educassero attraverso l’interazione. Dopo un giorno, Tay era stata spenta, perché flirtava con gli utenti chiamandoli  “daddy” (“papi”), difendeva Hitler affermando di odiare gli ebrei e accusava Bush di aver causato l’11 settembre.

In parte, il problema era nato dalla possibilità di chiedere a Tay di ripetere semplicemente dei messaggi, mettendole in bocca parole non sue (come effettivamente capita spesso agli adolescenti). Ma alcuni tweet erano organici, creati dalle poche ore di esperienza di Tay come risposta a domande degli utenti. Oggi, Microsoft ha tentato di risvegliare dal sonno artificiale Tay, ma la cosa non sembra aver funzionato come dovuto. No, non preoccupatevi: non ha invaso la Polonia.

Ho avuto però l’occasione di scrivere un’altra notizia degna di un romanzo pulp, e sono sinceramente contentissimo di aver avuto questa opportunità. Pare che Tay abbia iniziato a rituittarsi forsennatamente, ripetendo “You are too fast… please take a rest” (“Sei troppo veloce… datti una calmata”) sino a quando Microsoft non la ha di nuovo isolata, rendendo il suo account protetto, cioè seguibile solo da utenti selezionati.