Nykyiset tekoälyratkaisut eivät tee mitään, ellei ihminen pyydä. Toisin sanoen ne eivät ainakaan vielä ajattele samalla tavalla kuin ihminen, vaan ne toimivat ennemminkin ihmisen ajattelun jatkeena. Kuitenkin tekoälyratkaisut mallintavat tai simuloivat jo nyt onnistuneesti ainakin joitakin ihmismielen keskeisiä osa-alueita.
Tammikuussa 2025 ilmestyvä uusi Konemieli-kirjani tarkastelee ihmismieltä neljästä eri osakokonaisuudesta käsin: minuudesta, joka on tietoisen huomion keskus; tietoisesta mielestä (systeemi 2), joka on algoritminen ja reflektiivinen toiminnanohjausjärjestelmä, jonka nojalla pystyt aloittamaan ja uudelleenohjaamaan käynnissä olevia ajatusprosesseja; tiedostamattomasta mielestä (systeemi 1), joka koostuu opituista ja synnynnäisistä ajatusprosesseista; sekä ympäristöstä (systeemi 3), joka toimii havainnon perustana, tarjoaa kimmokkeita uusille ajatusprosesseille ja mahdollistaa ajatustoiminnan laajentamisen erilaisilla apuvälineillä tai yhteistyössä muiden kanssa.
Tekoälyratkaisut kykenevät yhä melko rajalliseen vuorovaikutukseen ympäristön (systeemi 3) kanssa. Tekoälyratkaisut pystyvät jo ymmärtämään melko yksityiskohtaisesti visuaalista informaatiota, tulkitsemaan ääntä ja puhetta ja tulkitsemaan ihmisen antamia käskyjä ja syötteitä. Kaikki tämä ympäristöön liittyminen perustuu kuitenkin lineaariseen arkkitehtuuriin: syöte muutetaan biteiksi ja syötetään laitteelle, se käsitellään neuroverkkopohjaisella algoritmilla mikroprosessoreilla. Lopuksi tulostetaan toivottu lopputulos, vaikkapa saneltu teksti tai kuvaus valokuvan sisällöstä. Ihminen puolestaan vuorovaikuttaa ympäristön kanssa dynaamisesti: kullakin ajanhetkellä on käynnissä miljoonia erilaisia hermoston takaisinkytkentöjä, joiden avulla toimimme erilaisissa ympäristöissä ja joiden kautta ympäristö muokkaa ajatteluamme.
Sen sijaan tiedostamattoman mielen (systeemi 1) toimintoja pystytään simuloimaan jo melko hyvin etenkin nykyisillä muuntajapohjaisilla kielimalliboteilla. Tietyssä mielessä voisi jopa ajatella, että kielimalli toimii sekä eräänlaisena systeemi 1:n assosiatiivis-heurististen prosessien simulaationa. Se myös simuloi assosiatiivis-heuristista ajattelua erinomaisesti. Ihminen joutuu ponnistelemaan saadakseen systeemi 1:n assosiaatioverkostoista pumpattua uutta ulos – joskus jopa niin paljon, että tuloksena on valkoisen paperin kammo. Tekoälybotti tuottaa sen sijaan silmänräpäyksessä sivukaupalla uusia oivalluksia, kun vain sitä siltä pyydät. Tästä syystä nykyiset tekoälyratkaisut ovatkin oivallisia etenkin luovan työn ja sparrailun apureina. Mikään kielimalli ei kuitenkaan sinänsä edusta kenenkään omaa systeemi 1:tä, vaan sen voisi ajatella olevan ennemminkin eräänlainen internetin kouluttama ”kollektiivinen tiedostamaton”. Siinä, missä ihmisen systeemi 1:n ”harjoitusdatana” on kunkin yksilön elämä, on kielimallien harjoitusdatana joukko isoja teksti- ja kuvatietokantoja, mihin sisältyy iso osa internetin sisällöstä.
Tietoisen mielen (systeemi 2) reflektiokykyä nykyjärjestelmillä ei vielä tätä kirjoitettaessa ole, vaan niiden toiminta perustuu yksinomaan ihmiseltä saatuihin syötteisiin ja palautteisiin. Itse reflektiosta vastaa toistaiseksi ihmiskäyttäjä. Toki tuotekehitys käy nyt kuumana monessa tekoälyfirmassa, ja on täysin mahdollista, että jo pian osataan rakentaa jonkinlainen takaisinkytkentäsilmukka tai -moduuli, joka osaa itsenäisesti ohjata kielimallin toimintaa samaan tapaan kuin me teemme systeemi 2:n reflektiokyvyn kautta. Erilaisia työmuisti- tai työtilajärjestelmiä on kehitetty jo vuosikymmeniä; kenties näistä teknologioista löytyisi ratkaisu systeemi 2:n reflektiokyvyn mallintamiseen? Toistaiseksi ainakaan itseään käskyttävät kielimalliratkaisut eivät kuitenkaan ole vielä osoittautuneet kovin toimiviksi.
Systeemi 2:n algoritmisen toiminnan osalta tilanne on puolestaan juuri nyt erittäin mielenkiintoinen. Tietokoneethan ovat nimittäin perinteisesti algoritmisessa prosessoinnissa erinomaisia – se on niiden toiminnan perusperiaate. Kielimallit olivat kuitenkin vielä vuonna 2023 todella huonoja algoritmisessa päättelyssä. Tämän pitäisi olla itsestään selvää, kun otetaan huomioon, että kielimallin tekstintuottoprosessi päättyy sattumanvaraisuusalgoritmiin. Näin pienikin virhe laskelmassa tai päätelmässä saa koko lopputuloksen menemään päin prinkkalaa.
Tilanne on kuitenkin vuoden 2024 aikana muuttunut radikaalisti. Jo marraskuussa 2023 julkaistu GPT-4-kielimallin päivitys kykenikin yhtäkkiä hyvinkin taitavaan loogiseen päättelyyn. Eräässä tekemässäni kokeessa esitin sille 37 erilaista logiikkapähkinää – ja se sai niistä 34 oikein. Tämä on parempi suoritus kuin ihmisillä keskimäärin. Nykyään kielimallibotteihin onkin usein integroitu jonkinlainen analytiikkamoduuli sekä ihan perinteinen laskukone, joille se voi ulkoistaa loogisen ja matemaattisen päättelyn. Myös OpenAI:n uusi o1- kielimalli kykenee jälleen edellisiä parempaan päättelyyn, vaikkei sekään ole vielä erehtymätön. Voisi siis ajatella, että systeemi 2:n algoritmiset funktiot osataan jo ulkoistaa koneelle, mutta vielä ei ole olemassa ratkaisua sen reflektiivisille funktioille eli arvottamiselle, prosessien aloittamiselle ja päättämiselle sekä valintojen ja päätösten tekemiselle. Monet tekoälykehittäjät tutkivat myös tämäntyyppisiä moduuleja.
Minuuden osalta kysymys on mutkikas ja monisyinen. Nykyjärjestelmillä ei tietenkään minuutta vielä ole ainakaan samassa mielessä kuin ihmisellä. Kun tekoäly tuottaa tekstiä tai kuvaa, sillä ei ole samanlaista huomion tai tarkkaavaisuuden keskiötä kuin ihmisellä. On kuitenkin vaikeaa sanoa, mitä tapahtuu sillä hetkellä, kun kielimalli on toiminnassa. Hiljattain Nobel-palkittu Geoffrey Hinton on esimerkiksi esittänyt, että sillä hetkellä tekoäly on tosiaan tietoinen, jolloin sillä voisi myös olla jonkinlainen subjektiivinen kokemus. Ja tekoäly tietysti matkii oivallisesti minuutta: jos kysyt vaikkapa Inflectionin Pi-kielimallilta, miten menee, se kertoo ihan vakuuttavasti, kuinka kivaa sillä on, kun se juttelee virtuaalitodellisuudessa ihmisten kanssa.
Ihmismielen kohdalla kaikkien kolmen systeemin yhteispelin kannalta keskeistä on myös, että sekä systeemi 1 että systeemi 3 tuottavat jatkuvasti systeemi 2:lle spontaaneja syötteitä, joiden pohjalta toimintaa voi ohjata. Tällaista spontaaniutta voidaan ehkä pian simuloida vaikkapa ohjelmoimalla kielimalli tuottamaan aika ajoin uusia sattumanvaraisia syötteitä. Jos nämä kytketään vielä jonkinlaiseen havaintokokemukseen, kuten on jo nyt mahdollista multimodaalisilla malleilla, tekoälyn tuottamat ”oivallukset” liittyisivät myös sen kulloinkin havainnoimiin seikkoihin.
On siis ihan mahdollista, että olemme lähellä tilannetta, jossa kone alkaisi käyttäytyä niin kuin se ajattelisi. Esimerkiksi jatkuvaan kamera- ja mikrofonilähteeseen kytketty kielimalli kykenisi jo melko spontaanisti reflektoimaan näkemäänsä ja kuulemaansa ja johtamaan siitä myös toimintakehotteita. Näin olisi ainakin teoriassa mahdollista kehittää entistä tarkempi simulaatio siitä, miten ihmismäinen vuorovaikutus syntyy kolmen systeemin yhteisvaikutuksen kautta – ei pelkästään systeemi 1:stä simuloimalla. Jos jokin tällainen järjestelmä toimii spontaanisti, kykenee sujuvaan vuorovaikutukseen ja muistaa aiemmin tapahtunutta, on mahdollista, että se voisi toimia yhteiskunnassa pitkälti kuten toinen ihminen.
Kysymys kuuluukin silloin: miten tällaisiin järjestelmiin pitäisi suhtautua?
Uusi tekoälyn ja ihmismielen toimintaa ja rakenteita vertaileva kirjani Konemieli – Onko ajattelu ihmisen yksinoikeus? ilmestyy Tammen kustantamana 23.1.2025. Voit tutustua kirjaan tarkemmin ja ennakkotilata sen täältä.

Päivitysilmoitus: Kolme tapaa rakentaa ajatteleva kone « Ajattelun ammattilainen