Robot se rychle naučil sprostá slova. Microsoft ho musel stáhnout

Microsoft vytvořil robota, který komunikuje na sociální síti. Odpovídá na dotazy a baví ostatní uživatele. Stroj měl představovat běžného teenagera. Představoval ho ale skutečně se vším všudy, odmlouval, byl sprostý a také velmi politicky nekorektní. Technologická společnost ho tak musela rychle stáhnout.

Tento článek je více než rok starý.

Sdílet na Facebooku Sdílet na Twitteru Sdílet na LinkedIn Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

Microsoft (ilustrační foto)

Microsoft (ilustrační foto) | Zdroj: Reuters

Robot Tay měl představovat náctiletou dívku s účtem na Twitteru. Experti vyzvali lidi, aby si s postavou povídali. Tay měla umět vyprávět vtipy, hrát hry, komentovat fotografie a hlavně odpovídat na otázky.

Robot při komunikaci čerpal z dostupných informací ve své databázi a mohl tak různě reagovat. A zároveň se od svých "přátel" na sociální síti také něco učit a odkoukávat jejich způsob řeči. A to bylo to místo, kdy se charakter slečny Tay začal vyvíjet jiným směrem, než měl Microsoft v plánu.

Na síti psali hlavně teenageři a ti začali Tay testovat a podsouvat jí různé "nevhodné" myšlenky. Na zmíněném účtu se tak najednou objevila pochvalná slova na Adolfa Hitlera, obvinění, že za teroristickými útoky z 11. září 2001 stál tehdejší americký prezident George Bush, urážky kandidátů na amerického prezidenta a řada dalších věcí například se sexuálním kontextem.

Microsoft si neúspěch nepřipouští. Tvrdí, že se podařilo skutečně vytvořit robota schopného se adaptovat na lidskou komunikaci a přizpůsobit se jí.

Nicméně profil Tay už na Twitteru nenajdete. Microsoft ho po prvním zkušebním dni zablokoval. Teď pracuje na vylepšení programu, aby se už podobné problémy neopakovaly.

Pavlína Nečásková Sdílet na Facebooku Sdílet na Twitteru Sdílet na LinkedIn Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

Nejčtenější

Nejnovější články

Aktuální témata

Doporučujeme