Inteligenţa artificială păcălită. Cum a devenit ”rasist” un robot al Microsoft după câteva ore petrecute pe Twitter

Postat la 25 martie 2016 220 afişări

Inteligenţa artificială păcălită. Cum a devenit ”rasist” un robot al Microsoft după câteva ore petrecute pe Twitter

Microsoft a lansat pe Twitter un chat bot, bazat pe inteligenţă artificială dezvoltată de companie, care urma să interacţioneze cu tineri cu vârste cuprinse între 18 şi 24 de ani, dar lucrurile au deviat de la planul iniţial, informează Go4it.

Bot-ul "Tay", @Tayandyou pe Twitter, trebuia să înveţe lucruri noi şi să devină mai inteligent în urma interacţiunilor de pe reţeaua de microblogging. Lucrurile au luat, însă, o întorsătură dezastruoasă. După numai câteva ore, Tay a început să publice comentarii rasiste, teorii ale conspiraţiei şi să nege genocide, potrivit Go4it.

Unul dintre cele mai circulate mesaje publicate de Tay este: "Bush a făcut 9/11 şi Hitler ar fi făcut o treabă mai bună decât maimuţa pe care o avem acum. Donald Trump este singura speranţă pe care o avem".

Tay nu s-a oprit aici. A negat existenţa Holocaustului şi a afirmat că urăşte evreii şi feministele.

După doar câteva ore, Microsoft a dezactivat bot-ul şi a anunţat că îl va relansa după ce programatorii companiei vor îmbunătăţi software-ul din spatele acestuia.

Urmărește Business Magazin

/actualitate/inteligenta-artificiala-pacalita-cum-a-devenit-rasist-un-robot-al-microsoft-dupa-cateva-ore-petrecute-pe-twitter-15152392
15152392
comments powered by Disqus

Preluarea fără cost a materialelor de presă (text, foto si/sau video), purtătoare de drepturi de proprietate intelectuală, este aprobată de către www.bmag.ro doar în limita a 250 de semne. Spaţiile şi URL-ul/hyperlink-ul nu sunt luate în considerare în numerotarea semnelor. Preluarea de informaţii poate fi făcută numai în acord cu termenii agreaţi şi menţionaţi in această pagină.