Tällä hetkellä käytettävissä olevat tekoälyratkaisut eivät vielä ajattele ihmisen tapaan, eikä niillä ole vielä siis varsinaista mieltäkään. On kuitenkin nähtävissä kolme mahdollista kehityskulkua, joiden ansiosta ajatteleva kone voisi olla sittenkin mahdollista rakentaa.
1. Modulaariset tekoälyjärjestelmät
Ensimmäinen on nykyjärjestelmien kehittäminen modulaarisesti. Jos kielimallille rakennetaan jonkinlainen päätöksenteko- ja reflektiomoduuli ja havaintoa ennakoivat aistijärjestelmät, se voi alkaa käyttäytyä hyvinkin ihmismäisesti. Jo nykyjärjestelmiin on rakennettu tällaisia moduuleja. Uusimpia kielimalleja koulutetaan myös multimodaalisesti, eli tekstisisällön ohella ne oppivat tulkitsemaan ja tuottamaan kuvia ja ääntä.
Kielimallin perusarkkitehtuuri ei muutu sen koulutuksen jälkeen muutoin kuin jos sitä jatkokoulutetaan esimerkiksi käyttäjäpalautteen perusteella.
Jotta kielimalli toimisi ihmismäisemmin, pitäisi rakentaa jonkinlainen takaisinkytkentäjärjestelmä muovaamaan sen merkitysrakenteita samaan tapaan kuin ihmisen mielen käsiterakenteet muovautuvat kokemuksen mukaan. Toisin sanoen tekoälyratkaisulle pitäisi rakentaa kyky muistaa jo käytyjä keskusteluja; nyt sen ”muisti” rajoittuu yleensä vain käynnissä olevaan keskusteluun, jonka se syöttää aina kokonaisuudessaan muuntaja-arkkitehtuurinsa jauhettavaksi aina kun käyttäjä laajentaa käyttökontekstia lisäämällä tekstiä syötteeseen. (OpenAI on tosin kehittänyt ChatGPT:n yhteyteen karkean muistijärjestelmän laajennuksen, joka poimii aika ajoin keskustelusisällöistä osia erilliseen tietokantaan, josta se voi palauttaa niitä myöhempiin keskusteluihin. Tämä mekanismi toimii kuitenkin aivan eri tavalla kuin ihmisen hermoverkkopohjainen muisti.)
Ihmismielen kiinnostava ominaisuus on myös tietoisen mielen rajallisuus. Nykytutkimusten mukaan ihminen kykenee tietoisesti pitämään mielessä vain noin 3–5 asiaa. Pitäisikö tekoälyllekin rakentaa tällainen ”työmuisti”, johon se rekisteröisi vain murto-osan sen valtavan kielimallin tuottamista syötteistä? Kenties tietoinen ajattelu edellyttää toimintakyvyn ohella myös rajoitteita.
2. Tiedollisten toimintojen emergenssi
Toinen mahdollinen kehityskulku on, että pelkästään kielimalleja kehittämällä ja jalostamalla monet yllä kuvatuista haasteista ratkeavat mallin emergenttien ominaisuuksien kautta. Aiemmin pidin tätä hyvin epätodennäköisenä, mutta esimerkiksi viime aikoina mallien selkeästi parantunut päättelykyky johtuu itse mallin kehittymisestä ja laajentumisesta. Lisäksi kielimallien jatkokehittely uudenlaisilla algoritmimenetelmillä kuten ajattelupuu (tree of thought) ja ajatteluketju (chain of thought) mahdollistaa aiempaa huomattavasti luotettavamman päättelyn kuten esimerkiksi OpenAI:n viimeisin o1-kielimalli osoittaa.
Tällaista tiedollisten toimintojen emergenssiä ilmenee jo nyt jossakin määrin jo kaikissa olemassa olevissa ratkaisuissa.
Yksi kiinnostava huomio kielimalleista on, että kielimalleihin ei ole koodattu minkäänlaista syntaktista rakennetta, vaan teksti syntyy todennäköisyysalgoritmilla sana sanalta. Eli kaikki kielioppi ja logiikka, mitä kielimalli tuottaa, syntyy sanojen merkitysten keskinäisten yhteyksien ja muuntajan tarkkaavaisuusmekanismin kautta. Perinteisesti ajateltiin, että ajattelu on primääristi syntaktista, eli ajattelun rakenteet määräävät puitteet ajatusten sisällölle. Kielimallit herättävät kysymään, että mitä jos näin ei olekaan.
Tällä hetkellä tekoäly kykenee miljardien merkitysparametrien nojalla muodostamaan kieliopillisesti täysin eheitä lauseita siitä huolimatta, että järjestelmällä ei ole mitään algoritmia, joka määrittelisi, mitkä sanat ovat verbejä, substantiiveja, konnektiiveja ja niin edelleen. Voiko olla, että myös ihmisten tapauksessa syntaksi onkin vain eräänlainen jälkikäteen tehty analyysi, jolla luodaan kielenkäyttöön säännönmukaisuutta? Ihminenhän ymmärtää hyvin myös Yoda-kieltä eli kieliopillisesti väärää kielenkäyttöä sekä ainakin harjoittelun jälkeen jopa epäloogisia väitteitä, kuten zen-kōaneja. Näin tekee myös tekoäly.
3. Uudet tekoälyteknologiat
Kolmas vaihtoehto on, kuten esimerkiksi yksi tekoälyn kolmesta ”kummisedästä” Yann LeCun on esittänyt, että todellisen ajattelevan koneen rakentaminen vaatii sittenkin uudenlaista teknologiaa. Esimerkiksi LeCunin kehittelemä JEPA-arkkitehtuuri perustuu hyvin toisentyyppiseen lähtökohtaan kuin suurissa kielimalleissa, mikä voi tarjota kiinnostavia näkökulmia tekoälyn kehittämiseen. Voi myös olla, että ajatteleva kone edellyttää jonkinlaista yhdistelmää edellä mainituista.
Tätä kirjoitettaessa yleisessä tiedossa olevilla tekoälyratkaisuilla ei vielä ole kykyä itsenäiseen toimintaan. On selvää, ettei nykyjärjestelmillä ole vielä kyvykkyyttä ihmisen systeemi 2:n tyyppiseen ajatteluun: ne eivät kykene vielä kovinkaan taitavaan algoritmiseen päättelyyn, eikä niillä ole kykyä spontaaniin itsereflektioon. Myös systeemi 1:n tyyppinen spontaanius – päähän ”pälkähtävät” ajatukset – puuttuu tekoälyratkaisuilta toistaiseksi.
Kun kuitenkin otetaan huomioon, kuinka merkittävää osaa ihmisen ajattelusta kielimallit simuloivat jo nyt, ei ole lainkaan mahdotonta, että kielimalleihin perustuvia ratkaisuja voidaan kehittää merkittävästi ihmismäisemmiksi lähitulevaisuudessa.
Teksti on muotoiltu osin uuden 23.1. julkaistavan kirjani Konemieli pohjalta. Kirjassa vertailen ihmismielen ja tekoälyratkaisujen toimintaa ja rakennetta nykytutkimuksen näkökulmasta ja hahmottelen ajatuksia siitä, voisiko ajattelevaa konetta mahdollista rakentaa nyt tunnettujen teknologioiden avulla. Tutustu kirjaan tarkemmin täältä.
