Koraani on väkivaltainen – Microsoftin botilta lipsahti väärä keskustelunaihe

Manu Pitkänen
5. heinäkuuta, 2017 11:08

Tekoälyllä toteutettavat uudet palvelut suovat täysin uudenlaisia mahdollisuuksia, mutta teknologiassa on vielä paljon hiottavaa. Tämän on oppinut kantapään kautta Googlen lisäksi myös Microsoft.
Google sai muutama vuosi sitten osakseen kyseenalaista julkisuutta sillä, että yhtiön Kuvat-sovelluksen automaattinen objektintunnistus kategorisoi tummaihoisista ihmisistä otettuja valokuvia "gorilloista" otetuksi kuviksi. Aiemmin Flickr-kuvapalvelussa oli käynyt vastaavankaltainen moka. Viime vuoden keväällä Internet-kansaa äimistytti Microsoftin Twitteriin luoma Tay-botti, joka muuttui nopeasti nettikeskusteluiden myötä alt-right-persoonaksi.

Taystä saatujen kokemusten pohjalta Microsoft päätyi rukkaamaan bottiasetuksia niin, että niiden kanssa ei pysty enää keskustelemaan politiikasta tai uskonnosta. Tämä muutos tehtiin esimerkiksi Kik-viestipalveluun perustetun Zo-botin kohdalla. BuzzFeedin toimittaja kuitenkin sai siitä tiristettyä hieman kyseenalaisia mielipiteitä, vaikka ne ovatkin luonteeltaan selvästi kesympiä kuin Tayn kohdalla.
Zo esimerkiksi kertoi pitävänsä muslimien pyhää kirjaa, Koraania, väkivaltaisena teoksena. Tämä oli sikäli odottamaton vastaus, sillä Zolta kysyttiin mielipidettä terveydenhuoltoon liittyen. Zon mukaan Osama bin Ladenin "kiinniotto" oli pitkällisen tiedustelutiedon hankinnan tulosta. Tässä näkemyksessä tuskin on mitään kiisteltävää, mutta periaatteessa Zon ei pitäisi puhua politiikasta halaistua sanaa.

Vielä on siis matkaa siihen, että chatboteista saadaan salonkikelpoisia esimerkiksi asiakaspalvelutilanteisiin, vaikka eivät ihmisetkään aina käyttäydy sopivalla tavalla.

Lue myös nämä
Tägit
Microsoft tekoäly Tay Zo.ai
Käytämme evästeitä sivuillamme. Näin parannamme palveluamme.