Petteri Pyyny
26. tammikuuta, 2026 20:34
Wikipedian ylläpitäjät ovat jo pitkään pyrkineet tunnistamaan ja poistamaan ilmaisesta sanakirjasta tekoälyllä tuotettua tekstisisältöä.
Vuodesta 2023 lähtien Wikipedian moderaattorit ovat pyrkineet luomaan selkeitä ja helposti noudatettavia ohjeita siihen, millaisista tyyliseikoista ja kirjoitustavoista tekoälyllä tuotetun tekstin tunnistaa varmimmin.
Ohjeistusta löytyy useimmille kielille, myös suomeksi ja luonnollisesti myös englanniksi.
Mutta valitettavasti tekoälyä käyttävät käyttäjät ovat onnistuneet muuttamaan kattavat tunnistusoppaan omaksi hyödykseen. GitHubissa julkaistiin hiljattain Claude Codelle tarkoitettu lisäosa ("skill"), joka hyväksikäyttää Wikipedian ohjeistusta.
Käytännössä kyseinen lisäosa käskee tekoälyä lukemaan Wikipedian ohjeet siitä, miten tekoälyllä kirjoitettua tekstiä pystyy parhaiten tunnistamaan. Ja tämän jälkeen käskee tekoälyä kirjoittamaan tekstiä niin, että se ei sorru yhteenkään oppaassa kuvattuun tyylikeinoon.
Humanizer-lisäosa siis ainakin teoriatasolla tuottaa tekstiä, joka on edelleen tekoälyn kirjoittamaa, mutta jota ei pysty tunnistamaan mitenkään tekoälyn tuottamaksi. Tai ei ainakaan Wikipedian nykyisten ohjeiden pohjalta.
Humanizerista uutisoineen Ars Technican testien mukaan Humanizerin läpi tuotettu englanninkielinen teksti oli selkeästi "rennompaa" ja vähemmän "osoittelevaa" ja se vaikutti äkkiseltään enemmän ihmisen kirjoittamalta kuin tyypillinen tekoälyn tuottama teksti.