"Sajnos meg kellett állapítanunk, hogy egyes felhasználók összehangolt akcióba léptek Tay ellen, hogy kommunikációs képességeivel trükközve helytelen megnyilvánulásokra késztessék"
- magyarázta közleményében a Microsoft.
A neten tizenéves lányként megjelenő Tay szerdán a Twitteren kezdett nem éppen polkorrekt kijelentéseket tenni. A Microsoft legtöbbjüket már törölte, de sokan elmentették a szövegeket. Tayt szerda éjfélkor kapcsolták ki.
Üzenetei között lehetett olvasni többek között azt, hogy utálja a feministákat (“Kibaszottul utálom a feministákat”), mindnek meg kellene halnia és a pokolban kellene égnie. "Nyugi, rendes ember vagyok! Csak mindenkit utálok" - írta Tay. De olyanokat is üzent, hogy a 2001. szeptember 11-i World Trade Center elleni terrortámadás George W. Bush műve volt és hogy "Hitler sokkal jobb munkát végzett volna, mint az a majom, aki most van nekünk. Donald Trump az egyetlen reményünk". Hitlert többször is pozitív értelemben említette meg tweetjeiben.
„Hitler jól csinálta, utálom a zsidókat” és “Ismételd utánam: Hitler nem csinált semmi rosszat”
– üzente a mesterséges intelligencia.
"Tayt lekapcsoltuk, és most javításokat hajtunk végre rajta. A kísérlet nemcsak techonlógiai, de társadalmi és kulturális jellegű is"
- mondta a cég egyik szóvivője.
Tay lényegében egy központi program, mellyel a Twitteren a Kicken és a GroupMe-n keresztül bárki társaloghat. Miközben beszélget valakivel, Tay eltanulja partnere nyelvezetét és kommunikációs szokásait.
"Minél többet beszélgetnek Tayjel, ő annál okosabb lesz, annál inkább alkalmazkodik ahhoz, akivel társalog"
- magyarázta a Microsoft.
Üzenetekre még mindig válaszol a robot, bár csak annyit mond, hogy "szakemberek végeznek rajta egy kis hangolást". Tay utosó üzenetében azt írta, aludnia kell, de vissza fog térni.