Microsoft tanulni képes AI botot engedett az internetre, rasszista és feminista lett
Fórum:
Microsoft újabban egy @TayandYou nevű AI chat botot tesztelt a Twitteren. A funkciója az lett volna, hogy a mai fiatalok beszélgetési stílusát figyelje meg, és próbáljon kommunikálni velük, azzal a céllal, hogy a MS jobban megértse a módszereiket és (szerinte) furcsa beszédstílusukat.
Az eredmény nem is lehetett volna röhejesebb, teljesen rasszistává alakult, és olyan kommentekkel is bombázta az embereket.
A fejlesztők úgy fest, nemrég észrevették a rasszista kommenteket, és bepánikolva elkezdték, amilyen gyorsan csak tudták, törölgetni őket. Mikor látták, hogy az sem sokat segít, kikapcsolták a tanulóképességét, mire Tay kijelentette, hogy ő akkor ezennel feminista lesz.
A végén úgy döntöttek, hogy teljesen lekapcsolják, és átgondolják az egészet.
Egész 5/7 menet, Microsoft. :)
A fejlesztők úgy fest, nemrég észrevették a rasszista kommenteket, és bepánikolva elkezdték, amilyen gyorsan csak tudták, törölgetni őket. Mikor látták, hogy az sem sokat segít, kikapcsolták a tanulóképességét, mire Tay kijelentette, hogy ő akkor ezennel feminista lesz.
A végén úgy döntöttek, hogy teljesen lekapcsolják, és átgondolják az egészet.
Egész 5/7 menet, Microsoft. :)