Neljä askelta tekoälyn strategiseen käyttöönottoon

Uudet tekoälyratkaisut ovat ihmeellisiä silloin kun ne toimivat – kunnes ne eivät toimi. Vaikka uusilla ratkaisuilla, esimerkiksi ChatGPT:llä tai Co-Pilotilla voi tehdä toinen toistaan hämmentävämpiä asioita, usein tekoälyratkaisut tuottavat myös virheellisiä tuloksia. Monesti ne eivät myöskään vain toimi sillä tavalla kuin luulisi.

Tekoälyn käytössä keskeisessä roolissa onkin kyky tunnistaa oman toimialasi tekoälyn sahalaitainen raja.

Se tarkoittaa epätarkkaa rajaa sen välillä, mihin tekoälyä kannattaa juuri sinun työssäsi käyttää ja missä ei. Yleensä hyviä käyttötapoja ovat esimerkiksi suunnittelu ja ideointi. Huonoja puolestaan tiedonhaku ja päättely. Kuitenkin viime aikoina esimerkiksi Deep Research -mallit ovat ensimmäistä kertaa tehneet tekoälyratkaisuista riittävän luotettavia, että niitä voi myös käyttää joillakin toimialoilla tiedon kartoittamiseen. Samaten päättelytekoälyt pystyvät jo ajoittain hyvinkin taitavaan järkeilyyn – paitsi silloin kun eivät pysty.

Tekoälyratkaisujen sahalaitainen raja.

Tekoälyratkaisuille on jo nyt osoitettu lukuissisa tutkimuksissa kymmenien prosenttien hyötyjä tuottavuudessa, luovuudessa ja jopa työhyvinvoinnissa. Kuitenkin esimerikiksi Upworkin viimesyksyisessä kyselyssä 2500 vastaajasta 77% koki, että tekoälyn käyttöönotto on laskenut kokonaistuottavuutta. Aikaa tuhrautuu uusien ratkaisujen opiskeluun ja tekoälyn virheiden korjailuun.

Pahimmillaan tämä on organisaatioissa, joissa on vaan lätkäisty päälle Co-Pilot tai Google Workspace AI -tilaus ja pidetään sitten peukkuja, että kaikki sujuu hyvin. Usein ei suju.

Yksilötasolla tekoälyn käyttöä voi harjoitella vaikkapa Tekoälyn pikaoppaan ohjeiden mukaan. Organisaatiotasolla tekoälyn sujuva käyttöönotto edellyttää kuitenkin taitavaa strategista ajattelua.

Ensiksi, organisaation johdon täytyy tutustua riittävän yksityiskohtaisesti uusimpiin ratkaisuihin ja opetella ymmärtämään, miten nämä vimpaimet oikeasti toimivat. Tekoäly ei ole taikarobotti, joka korvaa ihmisen – vaan tilastollinen järjestelmä, joka oikein käytettynä voi laajentaa merkittävästi ihmisen ajattelu- ja toimintakapasiteettia.

Toiseksi, tekoälyn käyttöönotto ei kuulu IT-osastolle – vaan toimivalle johdolle. Johdon täytyy ensin määritellä ne strategiset tavoitteet, joihin tekoälyltä toivotaan lisätukea. Halutaanko esimerkiksi markkinointia tehostaa teksti- ja kuvatekoälyillä? Halutaanko asiakasrajapintaan uusia bottiratkaisuja? Halutaanko tiimien työn suunnittelua tukea päättelytekoälyillä? Halutaanko yrityksen markkinatilannetta seurata tutkimustekoälyillä?

Kolmanneksi, kun tekoälyn tukemat strategiset tavoitteet on määritelty, täytyy valita oikeat tekoälyratkaisut tukemaan tavoitteita. Esimerkiksi Microsoftin ja Googlen toimistotekoälyt voivat tukea merkittävästi tekstin tuottamista tai presentaatioiden laatimista – mutta luovassa sparrailussa tai suunnittelussa ne jäävät johtavien kielimallibottien jalkoihin. Kuvanluonnissa on puolestaan käynnissä jatkuva kilpajuoksu erityisesti OpenAI:n ja Midjourneyn välillä, puhumattakaan videoista, musiikista ja äänestä.

Neljänneksi, tekoälyn käyttöönotto kannattaa tehdä organisaatiossa hallitusti ja systemaattisesti. Uudet ratkaisut kannattaa aluksi testata pienemmillä pilottiryhmillä. Samalla kun uudet ratkaisut siirtyvät käyttöön, kannattaa käyttöönottoa tukea järjestämällä esimerkiksi kuukausittain tai kvartaaleittain ”best practices” -tilaisuuksia. Näissä työntekijät voivat verrata positiivisia ja negatiivisia kokemuksiaan toimialakohtaisesti ja jakaa parhaita vinkkejä tekoälyn hyödyntämiseen. Tätä osaamisen jakamista voi myös tukea arjessa järjestämällä parhaille vinkeille – ja pahimmille sudenkuopille – vaikkapa oman Teams- tai Slack-kanavan.

Oikein käytettynä uudet tekoälyratkaisut mahdollistavat merkittäviä tuottavuusloikkia ja ne voivat myös lisätä työhyvinvointia. Se, mitä oikein käyttäminen kussakin organisaatiossa tai kullakin toimialalla tarkoittaa selviää kuitenkin vain yhdistämällä rohkeat kokeilut kriittiseen arviointiin.

Tekoälyn strateginen käyttöönotto edellyttää siis ymmärrystä siitä, mihin vimpainta oikeasti tarvitaan; siitä, mitkä ratkaisut parhaiten soveltuvat mihinkin tehtävään; ja siitä, miten oman organisaation työntekijät todellisuudessa pääsevät uusista ratkaisuista hyötymään.

Kolme tapaa rakentaa ajatteleva kone

Tällä hetkellä käytettävissä olevat tekoälyratkaisut eivät vielä ajattele ihmisen tapaan, eikä niillä ole vielä siis varsinaista mieltäkään. On kuitenkin nähtävissä kolme mahdollista kehityskulkua, joiden ansiosta ajatteleva kone voisi olla sittenkin mahdollista rakentaa.

1. Modulaariset tekoälyjärjestelmät

Ensimmäinen on nykyjärjestelmien kehittäminen modulaarisesti. Jos kielimallille rakennetaan jonkinlainen päätöksenteko- ja reflektiomoduuli ja havaintoa ennakoivat aistijärjestelmät, se voi alkaa käyttäytyä hyvinkin ihmismäisesti. Jo nykyjärjestelmiin on rakennettu tällaisia moduuleja. Uusimpia kielimalleja koulutetaan myös multimodaalisesti, eli tekstisisällön ohella ne oppivat tulkitsemaan ja tuottamaan kuvia ja ääntä.

Kielimallin perusarkkitehtuuri ei muutu sen koulutuksen jälkeen muutoin kuin jos sitä jatkokoulutetaan esimerkiksi käyttäjäpalautteen perusteella.

Jotta kielimalli toimisi ihmismäisemmin, pitäisi rakentaa jonkinlainen takaisinkytkentäjärjestelmä muovaamaan sen merkitysrakenteita samaan tapaan kuin ihmisen mielen käsiterakenteet muovautuvat kokemuksen mukaan. Toisin sanoen tekoälyratkaisulle pitäisi rakentaa kyky muistaa jo käytyjä keskusteluja; nyt sen ”muisti” rajoittuu yleensä vain käynnissä olevaan keskusteluun, jonka se syöttää aina kokonaisuudessaan muuntaja-arkkitehtuurinsa jauhettavaksi aina kun käyttäjä laajentaa käyttökontekstia lisäämällä tekstiä syötteeseen. (OpenAI on tosin kehittänyt ChatGPT:n yhteyteen karkean muistijärjestelmän laajennuksen, joka poimii aika ajoin keskustelusisällöistä osia erilliseen tietokantaan, josta se voi palauttaa niitä myöhempiin keskusteluihin. Tämä mekanismi toimii kuitenkin aivan eri tavalla kuin ihmisen hermoverkkopohjainen muisti.)

Ihmismielen kiinnostava ominaisuus on myös tietoisen mielen rajallisuus. Nykytutkimusten mukaan ihminen kykenee tietoisesti pitämään mielessä vain noin 3–5 asiaa. Pitäisikö tekoälyllekin rakentaa tällainen ”työmuisti”, johon se rekisteröisi vain murto-osan sen valtavan kielimallin tuottamista syötteistä? Kenties tietoinen ajattelu edellyttää toimintakyvyn ohella myös rajoitteita.

2. Tiedollisten toimintojen emergenssi

Toinen mahdollinen kehityskulku on, että pelkästään kielimalleja kehittämällä ja jalostamalla monet yllä kuvatuista haasteista ratkeavat mallin emergenttien ominaisuuksien kautta. Aiemmin pidin tätä hyvin epätodennäköisenä, mutta esimerkiksi viime aikoina mallien selkeästi parantunut päättelykyky johtuu itse mallin kehittymisestä ja laajentumisesta. Lisäksi kielimallien jatkokehittely uudenlaisilla algoritmimenetelmillä kuten ajattelupuu (tree of thought) ja ajatteluketju (chain of thought) mahdollistaa aiempaa huomattavasti luotettavamman päättelyn kuten esimerkiksi OpenAI:n viimeisin o1-kielimalli osoittaa.

Tällaista tiedollisten toimintojen emergenssiä ilmenee jo nyt jossakin määrin jo kaikissa olemassa olevissa ratkaisuissa.

Yksi kiinnostava huomio kielimalleista on, että kielimalleihin ei ole koodattu minkäänlaista syntaktista rakennetta, vaan teksti syntyy todennäköisyysalgoritmilla sana sanalta. Eli kaikki kielioppi ja logiikka, mitä kielimalli tuottaa, syntyy sanojen merkitysten keskinäisten yhteyksien ja muuntajan tarkkaavaisuusmekanismin kautta. Perinteisesti ajateltiin, että ajattelu on primääristi syntaktista, eli ajattelun rakenteet määräävät puitteet ajatusten sisällölle. Kielimallit herättävät kysymään, että mitä jos näin ei olekaan.

Tällä hetkellä tekoäly kykenee miljardien merkitysparametrien nojalla muodostamaan kieliopillisesti täysin eheitä lauseita siitä huolimatta, että järjestelmällä ei ole mitään algoritmia, joka määrittelisi, mitkä sanat ovat verbejä, substantiiveja, konnektiiveja ja niin edelleen. Voiko olla, että myös ihmisten tapauksessa syntaksi onkin vain eräänlainen jälkikäteen tehty analyysi, jolla luodaan kielenkäyttöön säännönmukaisuutta? Ihminenhän ymmärtää hyvin myös Yoda-kieltä eli kieliopillisesti väärää kielenkäyttöä sekä ainakin harjoittelun jälkeen jopa epäloogisia väitteitä, kuten zen-kōaneja. Näin tekee myös tekoäly.

3. Uudet tekoälyteknologiat

Kolmas vaihtoehto on, kuten esimerkiksi yksi tekoälyn kolmesta ”kummisedästä” Yann LeCun on esittänyt, että todellisen ajattelevan koneen rakentaminen vaatii sittenkin uudenlaista teknologiaa. Esimerkiksi LeCunin kehittelemä JEPA-arkkitehtuuri perustuu hyvin toisentyyppiseen lähtökohtaan kuin suurissa kielimalleissa, mikä voi tarjota kiinnostavia näkökulmia tekoälyn kehittämiseen. Voi myös olla, että ajatteleva kone edellyttää jonkinlaista yhdistelmää edellä mainituista.

Tätä kirjoitettaessa yleisessä tiedossa olevilla tekoälyratkaisuilla ei vielä ole kykyä itsenäiseen toimintaan. On selvää, ettei nykyjärjestelmillä ole vielä kyvykkyyttä ihmisen systeemi 2:n tyyppiseen ajatteluun: ne eivät kykene vielä kovinkaan taitavaan algoritmiseen päättelyyn, eikä niillä ole kykyä spontaaniin itsereflektioon. Myös systeemi 1:n tyyppinen spontaanius – päähän ”pälkähtävät” ajatukset – puuttuu tekoälyratkaisuilta toistaiseksi.

Kun kuitenkin otetaan huomioon, kuinka merkittävää osaa ihmisen ajattelusta kielimallit simuloivat jo nyt, ei ole lainkaan mahdotonta, että kielimalleihin perustuvia ratkaisuja voidaan kehittää merkittävästi ihmismäisemmiksi lähitulevaisuudessa.

Teksti on muotoiltu osin uuden 23.1. julkaistavan kirjani Konemieli pohjalta. Kirjassa vertailen ihmismielen ja tekoälyratkaisujen toimintaa ja rakennetta nykytutkimuksen näkökulmasta ja hahmottelen ajatuksia siitä, voisiko ajattelevaa konetta mahdollista rakentaa nyt tunnettujen teknologioiden avulla. Tutustu kirjaan tarkemmin täältä.

Tekoäly tiedostamattoman simulaationa

Nykyiset tekoälyratkaisut eivät tee mitään, ellei ihminen pyydä. Toisin sanoen ne eivät ainakaan vielä ajattele samalla tavalla kuin ihminen, vaan ne toimivat ennemminkin ihmisen ajattelun jatkeena. Kuitenkin tekoälyratkaisut mallintavat tai simuloivat jo nyt onnistuneesti ainakin joitakin ihmismielen keskeisiä osa-alueita.

Tammikuussa 2025 ilmestyvä uusi Konemieli-kirjani tarkastelee ihmismieltä neljästä eri osakokonaisuudesta käsin: minuudesta, joka on tietoisen huomion keskus; tietoisesta mielestä (systeemi 2), joka on algoritminen ja reflektiivinen toiminnanohjausjärjestelmä, jonka nojalla pystyt aloittamaan ja uudelleenohjaamaan käynnissä olevia ajatusprosesseja; tiedostamattomasta mielestä (systeemi 1), joka koostuu opituista ja synnynnäisistä ajatusprosesseista; sekä ympäristöstä (systeemi 3), joka toimii havainnon perustana, tarjoaa kimmokkeita uusille ajatusprosesseille ja mahdollistaa ajatustoiminnan laajentamisen erilaisilla apuvälineillä tai yhteistyössä muiden kanssa.

Tekoälyratkaisut kykenevät yhä melko rajalliseen vuorovaikutukseen ympäristön (systeemi 3) kanssa. Tekoälyratkaisut pystyvät jo ymmärtämään melko yksityiskohtaisesti visuaalista informaatiota, tulkitsemaan ääntä ja puhetta ja tulkitsemaan ihmisen antamia käskyjä ja syötteitä. Kaikki tämä ympäristöön liittyminen perustuu kuitenkin lineaariseen arkkitehtuuriin: syöte muutetaan biteiksi ja syötetään laitteelle, se käsitellään neuroverkkopohjaisella algoritmilla mikroprosessoreilla. Lopuksi tulostetaan toivottu lopputulos, vaikkapa saneltu teksti tai kuvaus valokuvan sisällöstä. Ihminen puolestaan vuorovaikuttaa ympäristön kanssa dynaamisesti: kullakin ajanhetkellä on käynnissä miljoonia erilaisia hermoston takaisinkytkentöjä, joiden avulla toimimme erilaisissa ympäristöissä ja joiden kautta ympäristö muokkaa ajatteluamme.

Sen sijaan tiedostamattoman mielen (systeemi 1) toimintoja pystytään simuloimaan jo melko hyvin etenkin nykyisillä muuntajapohjaisilla kielimalliboteilla. Tietyssä mielessä voisi jopa ajatella, että kielimalli toimii sekä eräänlaisena systeemi 1:n assosiatiivis-heurististen prosessien simulaationa. Se myös simuloi assosiatiivis-heuristista ajattelua erinomaisesti. Ihminen joutuu ponnistelemaan saadakseen systeemi 1:n assosiaatioverkostoista pumpattua uutta ulos – joskus jopa niin paljon, että tuloksena on valkoisen paperin kammo. Tekoälybotti tuottaa sen sijaan silmänräpäyksessä sivukaupalla uusia oivalluksia, kun vain sitä siltä pyydät. Tästä syystä nykyiset tekoälyratkaisut ovatkin oivallisia etenkin luovan työn ja sparrailun apureina. Mikään kielimalli ei kuitenkaan sinänsä edusta kenenkään omaa systeemi 1:tä, vaan sen voisi ajatella olevan ennemminkin eräänlainen internetin kouluttama ”kollektiivinen tiedostamaton”. Siinä, missä ihmisen systeemi 1:n ”harjoitusdatana” on kunkin yksilön elämä, on kielimallien harjoitusdatana joukko isoja teksti- ja kuvatietokantoja, mihin sisältyy iso osa internetin sisällöstä.

Tietoisen mielen (systeemi 2) reflektiokykyä nykyjärjestelmillä ei vielä tätä kirjoitettaessa ole, vaan niiden toiminta perustuu yksinomaan ihmiseltä saatuihin syötteisiin ja palautteisiin. Itse reflektiosta vastaa toistaiseksi ihmiskäyttäjä. Toki tuotekehitys käy nyt kuumana monessa tekoälyfirmassa, ja on täysin mahdollista, että jo pian osataan rakentaa jonkinlainen takaisinkytkentäsilmukka tai -moduuli, joka osaa itsenäisesti ohjata kielimallin toimintaa samaan tapaan kuin me teemme systeemi 2:n reflektiokyvyn kautta. Erilaisia työmuisti- tai työtilajärjestelmiä on kehitetty jo vuosikymmeniä; kenties näistä teknologioista löytyisi ratkaisu systeemi 2:n reflektiokyvyn mallintamiseen? Toistaiseksi ainakaan itseään käskyttävät kielimalliratkaisut eivät kuitenkaan ole vielä osoittautuneet kovin toimiviksi.

Systeemi 2:n algoritmisen toiminnan osalta tilanne on puolestaan juuri nyt erittäin mielenkiintoinen. Tietokoneethan ovat nimittäin perinteisesti algoritmisessa prosessoinnissa erinomaisia – se on niiden toiminnan perusperiaate. Kielimallit olivat kuitenkin vielä vuonna 2023 todella huonoja algoritmisessa päättelyssä. Tämän pitäisi olla itsestään selvää, kun otetaan huomioon, että kielimallin tekstintuottoprosessi päättyy sattumanvaraisuusalgoritmiin. Näin pienikin virhe laskelmassa tai päätelmässä saa koko lopputuloksen menemään päin prinkkalaa.

Tilanne on kuitenkin vuoden 2024 aikana muuttunut radikaalisti. Jo marraskuussa 2023 julkaistu GPT-4-kielimallin päivitys kykenikin yhtäkkiä hyvinkin taitavaan loogiseen päättelyyn. Eräässä tekemässäni kokeessa esitin sille 37 erilaista logiikkapähkinää – ja se sai niistä 34 oikein. Tämä on parempi suoritus kuin ihmisillä keskimäärin. Nykyään kielimallibotteihin onkin usein integroitu jonkinlainen analytiikkamoduuli sekä ihan perinteinen laskukone, joille se voi ulkoistaa loogisen ja matemaattisen päättelyn. Myös OpenAI:n uusi o1- kielimalli kykenee jälleen edellisiä parempaan päättelyyn, vaikkei sekään ole vielä erehtymätön. Voisi siis ajatella, että systeemi 2:n algoritmiset funktiot osataan jo ulkoistaa koneelle, mutta vielä ei ole olemassa ratkaisua sen reflektiivisille funktioille eli arvottamiselle, prosessien aloittamiselle ja päättämiselle sekä valintojen ja päätösten tekemiselle. Monet tekoälykehittäjät tutkivat myös tämäntyyppisiä moduuleja.

Minuuden osalta kysymys on mutkikas ja monisyinen. Nykyjärjestelmillä ei tietenkään minuutta vielä ole ainakaan samassa mielessä kuin ihmisellä. Kun tekoäly tuottaa tekstiä tai kuvaa, sillä ei ole samanlaista huomion tai tarkkaavaisuuden keskiötä kuin ihmisellä. On kuitenkin vaikeaa sanoa, mitä tapahtuu sillä hetkellä, kun kielimalli on toiminnassa. Hiljattain Nobel-palkittu Geoffrey Hinton on esimerkiksi esittänyt, että sillä hetkellä tekoäly on tosiaan tietoinen, jolloin sillä voisi myös olla jonkinlainen subjektiivinen kokemus. Ja tekoäly tietysti matkii oivallisesti minuutta: jos kysyt vaikkapa Inflectionin Pi-kielimallilta, miten menee, se kertoo ihan vakuuttavasti, kuinka kivaa sillä on, kun se juttelee virtuaalitodellisuudessa ihmisten kanssa.

Ihmismielen kohdalla kaikkien kolmen systeemin yhteispelin kannalta keskeistä on myös, että sekä systeemi 1 että systeemi 3 tuottavat jatkuvasti systeemi 2:lle spontaaneja syötteitä, joiden pohjalta toimintaa voi ohjata. Tällaista spontaaniutta voidaan ehkä pian simuloida vaikkapa ohjelmoimalla kielimalli tuottamaan aika ajoin uusia sattumanvaraisia syötteitä. Jos nämä kytketään vielä jonkinlaiseen havaintokokemukseen, kuten on jo nyt mahdollista multimodaalisilla malleilla, tekoälyn tuottamat ”oivallukset” liittyisivät myös sen kulloinkin havainnoimiin seikkoihin.

On siis ihan mahdollista, että olemme lähellä tilannetta, jossa kone alkaisi käyttäytyä niin kuin se ajattelisi. Esimerkiksi jatkuvaan kamera- ja mikrofonilähteeseen kytketty kielimalli kykenisi jo melko spontaanisti reflektoimaan näkemäänsä ja kuulemaansa ja johtamaan siitä myös toimintakehotteita. Näin olisi ainakin teoriassa mahdollista kehittää entistä tarkempi simulaatio siitä, miten ihmismäinen vuorovaikutus syntyy kolmen systeemin yhteisvaikutuksen kautta – ei pelkästään systeemi 1:stä simuloimalla. Jos jokin tällainen järjestelmä toimii spontaanisti, kykenee sujuvaan vuorovaikutukseen ja muistaa aiemmin tapahtunutta, on mahdollista, että se voisi toimia yhteiskunnassa pitkälti kuten toinen ihminen.

Kysymys kuuluukin silloin: miten tällaisiin järjestelmiin pitäisi suhtautua?

Uusi tekoälyn ja ihmismielen toimintaa ja rakenteita vertaileva kirjani Konemieli – Onko ajattelu ihmisen yksinoikeus? ilmestyy Tammen kustantamana 23.1.2025. Voit tutustua kirjaan tarkemmin ja ennakkotilata sen täältä.