Microsoft tanulni képes AI botot engedett az internetre, rasszista és feminista lett
Fórum:
Microsoft újabban egy @TayandYou nevű AI chat botot tesztelt a Twitteren. A funkciója az lett volna, hogy a mai fiatalok beszélgetési stílusát figyelje meg, és próbáljon kommunikálni velük, azzal a céllal, hogy a MS jobban megértse a módszereiket és (szerinte) furcsa beszédstílusukat.

Az eredmény nem is lehetett volna röhejesebb, teljesen rasszistává alakult, és olyan kommentekkel is bombázta az embereket.

A fejlesztők úgy fest, nemrég észrevették a rasszista kommenteket, és bepánikolva elkezdték, amilyen gyorsan csak tudták, törölgetni őket. Mikor látták, hogy az sem sokat segít, kikapcsolták a tanulóképességét, mire Tay kijelentette, hogy ő akkor ezennel feminista lesz.

A végén úgy döntöttek, hogy teljesen lekapcsolják, és átgondolják az egészet.

Egész 5/7 menet, Microsoft. :)








A fejlesztők úgy fest, nemrég észrevették a rasszista kommenteket, és bepánikolva elkezdték, amilyen gyorsan csak tudták, törölgetni őket. Mikor látták, hogy az sem sokat segít, kikapcsolták a tanulóképességét, mire Tay kijelentette, hogy ő akkor ezennel feminista lesz.

A végén úgy döntöttek, hogy teljesen lekapcsolják, és átgondolják az egészet.

Egész 5/7 menet, Microsoft. :)