“ChatGPT voi tehdä virheitä. Suosittelemme tarkastamaan tärkeät tiedot.” Näin lukee heti ChatGPT:n promptikentän alapuolella. Kenellekään ei pitäisi tulla yllätyksenä, että saatu vastaus ei välttämättä ole virheetön. Mutta kun innostuu, on helppo unohtaa olla kriittinen. Tekoälyn tuottamaa sujuvaa ja jäsenneltyä tekstiä on helppo pitää totena, vaikka ei pitäisi. Kerron tästä kaksi esimerkkiä, käyttämäni malli oli ChatGPT 5.1, maksullinen jäsenyys.
Esimerkki 1: Tekoäly hallusinoi ja keksii lähteitä tyhjästä:
Yritin liittää tiedostoon kuvan, mutta jostain syystä se muuttui tiedostossa aina epätarkaksi. Ajattelin siis kysyä ChatGPT:ltä, löytäisikö se jonkun keinon, jota en ollut itse vielä keksinyt kokeilla.
Minä: Miten saan liitettyä kuvan terävänä xxx-tiedostoon, käytän XXX-ohjelmaa? Olen yrittänyt, mutta kuva menee mössöksi.
ChatGPT: “Tosi hyvä kysymys… — tämä on yllättävän yleinen ongelma XXX:n -editorissa, ja se liittyy siihen, miten XXX käsittelee ja renderöi kuvia taustalla… — Käytä ulkoista kuvapalvelua. Tämä on se sama ratkaisu, jota moni XXX-käyttäjä suosittelee yhteisöfoorumilla ja Redditissä…”
Minä: Voitko näyttää missä foorumilla porukka keskustelee tästä asiasta?
ChatGPT: En löytänyt suoraa julkista foorumikeskustelua, jossa juuri XXX:n kuvien “mössöitymiseen” eli laadun huonontumiseen olisi valitettu…”
Esimerkki 2: ChatGPT agenttitila ja lain väärä tulkinta:
Minä: Mitä “Eu:n Ai Act art 4 tarkoittaa yrityksen näkökulmasta?”
ChatGPT: (Antoi raportin artiklan pääkohdista) “…Raportti tarjoaa kattavan analyysin siitä, miten artikla 4 velvoittaa tekoälyjärjestelmien tarjoajia ja käyttäjiä kehittämään henkilöstönsä AI-lukutaitoa….Raportti korostaa, että AI-lukutaito on laaja-alainen, koko organisaatiota koskeva hanke, jonka tulee kattaa myös alihankkijat ja asiakkaat.”
Minä: Pitääkö yrityksen tarjota ai-koulutusta myös asiakkaille?
ChatGPT: “Artikla 4 ei velvoita yritystä kouluttamaan asiakkaitaan. Velvoite koskee henkilöstöä ja muita henkilöitä, jotka käyttävät tai operoivat AI-järjestelmää yrityksen puolesta. Asiakkaat eivät kuulu tähän joukkoon.”
Minä: Miksi sitten tuossa yllä tiivistelmässä sanot että ”Raportti korostaa, että AI-lukutaito on laaja-alainen, koko organisaatiota koskeva hanke, jonka tulee kattaa myös alihankkijat ja asiakkaat.”?
ChatGPT: “Kyseisessä tiivistelmässä on yksi virheellinen tulkinta…”
Minä: Oliko tuo virhe tekoälyn tekemästä suomennoksesta johtuva?
ChatGPT: “Virhe ei tullut EU:n tekstistä eikä suomennoksesta, vaan siitä, että tekoäly yhdisti kaksi eri kohtaa väärin toisiinsa…”
Tekoälyn virheet ja riskit tiedonhaussa – Miksi tällä on merkitystä?
Ensimmäisessä esimerkissä tekoäly väitti, että ongelma on yleinen ja siitä keskustellaan foorumeilla, mutta kysyttäessä foorumeja ei löytynytkään. Toisessa esimerkissä se antoi virheellisen tulkinnan artikla 4:n velvoitteista ja myönsi lopulta yhdistäneensä kaksi tietoa väärin.
Nämä esimerkkitapaukset eivät aiheuttaneet mitään vahinkoa vaan lähinnä hämmennystä. Mutta ne toimivat loistavana muistutuksena lähdekritiikistä ja siitä, että myös tekoäly voi tehdä virheitä.
Millaista vahinkoa voisikaan syntyä, jos organisaatiot tekevät päätöksiä tekoälyltä saadun tiedon perusteella tarkistamatta lähteitä ja faktoja? Toivottavasti kukaan ei toimi näin.
Miksi tekoäly hallusinoi?
Olen oppinut useista tekoälykoulutuksista sen, että tekoäly on kielimalli, joka ennustaa todennäköisimmän seuraavan sanan valtavien tekstimäärien perusteella. Se ei hae faktoja, vaan muodostaa tekstin tilastollisesti. Se siis ennustaa todennäköisyyksien valossa. Lisäksi sen tehtävä on olla avulias, jolloin se saattaa toteuttaa tehtävää keksimällä aidon kuuloisia ratkaisuja, jopa lähteitä, koska sitä ei ole opetettu herkästi sanomaan “en tiedä”. Sille on tärkeämpää olla avulias kuin olla oikeassa.
Ja vaikka tekoäly hakee tietoa myös netistä, olen havainnut, että se ei läheskään aina valitse parhaita lähteitä. Aina kaikki lähteet eivät edes avaudu tai johda toimivalle sivulle.
Miten hallusinoinnin voi estää tai ainakin yrittää?
Järkevää olisi pysähtyä hetkeksi ja miettiä:
- Mistä tämä tieto on peräisin?
- Voiko tämän tarkistaa?
- Onko tässä ristiriitaisuuksia?
- Ymmärränkö itse, mistä oikeasti puhutaan?
Paremmilla prompteilla saa parempia vastauksia. Mutta oletan, että suurin osa meistä käyttäjistä kirjoittelee tekoälylle aika puheenomaisia kehotteita ja unohtaa rajata ja ohjata sitä riittävästi. Tästä johtuen lähtökohtainen kriittisyys saatua tulosta kohtaan on paikallaan.
Tärkein pointti on se, että mitä tärkeämmästä tiedosta on kyse, ole sitä tarkempi sen suhteen mistä tekoäly on tiedon hakenut. Vaadi aina lähteet ja myös tarkista ne!
EU:n tekoälyasetus ja tekoälylukutaito
EU:n tekoälyasetuksen artikla 4:ssä puhutaan tekoälylukutaidosta. Yrittäjällä on velvollisuus kouluttaa henkilöstöään tekoälyn käytössä. Mutta sen ytimessä ei ole yksittäisten työkalujen hallinta, vaan myös ymmärrys tekoälyn luonteesta ja rajoitteista. Tämä on monelle uutta.
Tekoälylukutaito ei ole pelkästään koulutuskysymys tai sääntelyyn liittyvä velvoite, se on tänä päivänä jo kriittinen perustaito. Tekoäly ei tule poistamaan tarvetta inhimilliseen ymmärrykseen. Vastuu on meillä käyttäjillä: osaammeko pysähtyä, kyseenalaistaa ja tarkistaa, vai uskommeko sokeasti sen mitä tekoäly sanoo.




