Tulevaisuuden työmarkkinamurrokset edellyttävät muutoskyvykkyyden vahvistamista

Suomen toimintaympäristö muuttuu yhä ennakoimattomammin teknologisten, geopoliittisen ja taloudellisten murrosten seurauksena. Työmarkkinoiden murroksiin varautuminen edellyttää vahvaa ymmärrystä siitä, että epävarmuus on pysyvä olosuhde, ei poikkeus. Yhteiskunnan keskeisin tulevaisuusvalmius on siis kyky sopeutua muutoksiin ja hyödyntää niitä.

Teknologiamurrokset – erityisesti generatiivinen tekoäly – muuttavat työelämän rakenteita nopeasti. Muutokset kohdistuvat yksittäisiin työtehtäviin, mikä tekee osaamistarpeiden ennakoinnista vaikeaa. Samalla suurten vaikutusten ennakoimattomat tai epätodennäköiset tapahtumat (mustat ja harmaat joutsenet) näyttävät tihentyvän. Tämä korostaa tarvetta lisätä rakenteellista muutoskyvykkyyttä.

Suomen resilienssi on kansainvälisesti vahva, mutta antifragiliteettia – kykyä hyödyntää sokkeja ja muutoksia uusien mahdollisuuksien luomiseen – voidaan vahvistaa merkittävästi. Tähän voidaan vaikuttaa erityisesti:

  • varmistamalla kaikkien pääsy jatkuvaan oppimiseen,
  • nopeuttamalla nousevien teknologioiden käyttöönottoa,
  • tukemalla yrittäjyyttä ja innovaatiotoimintaa, ja
  • lisäämällä työmarkkinoiden ja sosiaaliturvan joustavuutta.

Keskeinen suositus on siirtää tulevaisuuspolitiikan painopiste muutoskyvykkyyden vahvistamiseen. Kun yhteiskunnalliset rakenteet tukevat jatkuvaa oppimista, nopeaa sopeutumista ja innovaatioita, Suomi ei ainoastaan selviydy tulevista murroksista, vaan voi myös hyödyntää ne uuden kasvun ja kilpailukyvyn lähteinä.

Ongelman ydin on siinä, ettei kukaan osaa ennalta määritellä, mitkä osaamisalueet ovat tarkkaan ottaen disruptiouhan alaisia. Itse asiassa niin sanottujen mustien ja harmaiden joutsenten – eli ennustamattomien tai erittäin epätodennäköisten suurten vaikutusten tapahtumien – esiintymissykli näyttää myös kiihtyvän. Jo nyt 2000-luvun aikana tällaisia murrostapahtumia on esiintynyt lähes yhtä paljon kuin koko 1900-luvulla yhteensä.

Aiempia mustia ja harmaita joutsenia ovat muun muassa sosiaalisen median nousu, koronapandemia ja generatiivinen tekoäly. On luultavaa, että seuraava tällainen suurten vaikutusten tapahtuma tapahtuu 1–3 vuoden sisällä. Koska musta joutsen -tapahtumia ei voida ennustaa ja harmaa joutsen -tapahtumienkin toteutuminen on erittäin epätodennäköistä, on selvää, ettei kaikkiin tällaisiin skenaarioihin voidaan valmistautua.

Lisäksi on myös näkyvillä olevia potentiaalisia kriisejä, vaikkapa yleistekoälyn (AGI) kehittäminen tai USA-Kiina -suhteiden eskalaatio, joihin suhteessa yhteiskunnallinen valmiutemme on melko heikko. Onnistuessaan esimerkiksi yleistekoäly saattaisi käytännössä keskittää lähes kaiken asiantuntijatyön arvon pääasiassa palveluntuottajayrityksille, ja sen vaikutus työmarkkinarakenteisiin ulottuisi kaikkeen tietotyöhön. Jotkut asiantuntijat arvioivat tällaisten ratkaisujen olevan mahdollisia jo 5 vuoden sisällä.

On siis lähes varmaa, että lähitulevaisuudessa kohtaamme jälleen suuren kriisin tai disruption, johon emme ole ennalta varautuneet. Mustat joutsenet eivät ole enää vain villejä kortteja, vaan ne ovat normaali osa nykyistä toimintaympäristöä. Kuten Peter Hinssen totesi Nordic Business Forumissa 2025, maailma ei ole enää “new normal”, vaan olemme siirtyneet aikakauteen, jonka määritelmä on “never normal”.

Johtuen markkinoiden ja työmarkkinoiden ennakoimattomasta kehittymisestä parhaiten erilaisiin tulevaisuusskenaarioihin valmistaudumme erityisesti lisäämällä yhteiskunnan resilienssiä ja antifragiliteetia. Tämä onnistuu panostamalla sellaisiin yhteiskuntarakenteisiin ja käytäntöihin, jotka lisäävät jatkuvaa oppimista, uusien teknologioiden nopeaa käyttöönottoa, innovaatiokyvykkyyttä ja työmarkkinoiden dynaamisuutta.

Luultavasti mikään tulevaisuuteen kohdistuva ennustuksemme ei sellaisenaan toteudu. Sen sijaan tulevaisuudenkestävää yhteiskuntaa rakennetaan vahvistamalla kansallista muutoskyvykkyyttämme – siis taitoja ja kyvykkyyksiä joiden avulla emme vain selviä muutoksista vaan voimme myös kääntää ne uuden kasvun ja kehityksen mahdollisuuksiksi.

Teksti on ote marraskuussa 2025 sivistysvaliokunnalle kirjoittamastani lausunnosta koskien valiokunnan tulevaisuusselontekoa. Lue koko lausunto täältä.

Näin selviät mustista joutsenista

Elämme maailmassa, jota on yhä vaikeampi ennustaa. Määritellysti ennustamattomia mutta valtavan vaikuttavia tapahtumia – mustia joutsenia – tapahtuu yhä useammin. Samalla mustat joutsenet myös luovat kiihtyvän muutoskierteen. Muutos yhdellä alalla – vaikkapa tekoälyn kehityksessä – voi sekoittaa kokonaisen toimialan ihan toisaalla – esimerkiksi visuaalisen mainossuunnittelun.

Miten siis toimia maailmassa, jossa ennustaminen ei ole enää usein mahdollista?

Ensimmäinen johtopäätös on, että etenkin suuryrityksissä suosittu skenaariotyö on yhä useammin hyödytöntä, joskus jopa vaarallista. Jos omaan toimialaan kohdistuu musta joutsen, ei sitä löydy varmasti yhdestäkään ennakkoskenaariosta. Sen sijaan skenaarioilla voi myös olla lannistava vaikutus. Usein skenaariot laaditaan optimistisesti, neutraalisti ja pessimistisesti. Nyt kun yhteiskunnallinen keskustelu on lähinnä mollivoittoista, iso osa työntekijöistä saattaa kiinnittää huomion pessimistiseen skenaarioon, jolloin siitä voi jopa tulla itseään toteuttava profetia.

Negatiivisen tulevaisuuskuvan sijaan tarvitaankin toiveikkuutta. Yksi tapa lisätä toivoa tulevasta on käyttää aikaa sen pohtimiseen, mikä voisi olla paras mahdollinen tulos toiminnallemme vaikkapa viiden vuoden päästä – huomioiden samalla kaikki inhorealistiset haasteet, jotka juuri nyt tunnistamme. Miten voidaan laatia realistinen mutta myös aidosti innostava toivekuva siitä, mitä tekemisestämme voi parhaassa tapauksessa seurata? Kun katse on positiivisessa päämäärässä, monet esteet voivat jopa jäädä sivuun ja muutokset kääntyä mahdollisuuksiksi.

Muutosta voi myös hyödyntää vahvistamalla omaa ja organisaation antifragiliteettia. Antifragiliteetti tarkoittaa sitä, että kun maailmassa tapahtuu muutos, et pelkästään selviä siitä – vaan peräti hyödyt siitä.

Mustien joutsenten kanssa ei siis tule painia. Niiden kanssa kannattaa tanssia.

Teoriat ja skenaariot toimivat hyvin kun maailma on stabiili – mutta yhä useammin se ei ole. Se ei kuitenkaan tarkoita, että tiede ja teoriat tulisi heittää roskiin ja jokaisen ”tehdä oma tutkimuksensa”. Sen sijaan teorioita kannattaa hyödyntää dynaamisesti. Hyvin laaditut teoriat pitävät normaalisti aivan hyvin paikkansa – paitsi kunnes eivät pidä. Tutustu siis syvällisesti oman alasi keskeisimpiin teorioihin ja seuraa niitä niin pitkään kun ne toimivat – mutta säilytä valmius myös muuttaa suuntaa, jos maailman tapahtumat osuvatkin teoreettisen ennusteen ulkopuolelle.

Antifragiliteetin yksi keskeinen tekijä on vaihtoehtoisuus. Jos toimivia reittejä on vain yksi ja se menee tukkoon, toiminta loppuu siihen. Yksi erinomainen keino lisätä vaihtoehtoisuutta on jatkuva oppiminen. Laajenna osaamistasi nykyisen toimialasi ulkopuolelle opiskelemalla laajasti uusia asioita kiinnostustesi mukaan. Tässä erinomaisesti toimii niin sanottu T-malli. Pidä huoli siitä, että sinulla on vähintään yksi toimiala, jolla osaamisesi on riittävän syvällistä arvon tuottamiseen tämänhetkisessä työmarkkinassa – mutta laajenna osaamistasi monipuolisesti myös muille alueille. Jos työmarkkina sukeltaakin avainalallasi, sinulla on näin heti valmiudet laajentaa osaamista uusille aloille, jotka eivät ennen olleet mahdollisia.

Yksi yleisimpiä antifragiliteettia lisääviä tekniikoita on niin sanottu punttistrategia. Sen avainajatus on keskitien ratkaisujen välttämäinen. Sen sijaan kannattaa yhdistellä sekä erittäin varmoja että erittäin riskialttiita ratkaisuja. Näitä kannattaa toteuttaa esimerkiksi suhteessa 80/20 tai 90/10. Älä siis lopeta päivätyötäsi, vaan tee siitä työelämän kivijalka – mutta ala sen ohella vaikkapa iltaisin tai viikonloppuisin kokeilemaan erilaisia sivutoimisia ratkaisuja, jotka onnistuessaan voivat johtaa ihan uudenlaiseen menestykseen. Opettele kokeilemaan nopeasti uusia ratkaisuja. Tee vaikkapa tekoälyn avulla verkkosivut sivutoimiselle osaamisellesi, jaa ne sosiaaliseen mediaan ja katso, mitä tapahtuu. Opiskele verkkomainontaa – tai paina vaikkapa paperisia esitteitä osaamisestasi.

Lopuksi, muuttuvassa maailmassa erityisen voimallista on opetella hyödyntämään erehdyksiä. Jos lisäät riskialttiimpia aktiviteetteja elämässäsi tai kasvatat kokeilujen määrää, on varmaa, että osa aloitteista menee mönkään. Ensi alkuun ehkä jopa suurin osa. Tässä paras tapa mukautua muuttuvaan maailman myllerrykseen on tehdä jokaisesta erehdyksestä pieni analyysi ja pohtia mikä meni pieleen, ja mitä teet ensi kerralla eri tavoin. Kun et anna yhdenkään erehdyksen mennä hukkaan, synnytät jatkuvaa kasvua ja kehitystä, muuttui maailma miten tahansa.

Muutos on uusi normaali, eikä se siitä puhumalla muuksi muutu.

Muutos on kuitenkin myös oikein tarkasteltuna valtava mahdollisuus, jonka nojalla voimme jopa rakentaa ihmiskeskeisempää ja innostavampaa tulevaisuutta. Keskeisessä roolissa muutoksen ja mustien joutsenten kanssa elämisessä on vahvistaa omaa muutoskyvykkyyttä ja erityisesti luoda antifragiileja käytäntöjä ja rakenteita, joissa muutoksen yllättäessä voimme jopa hyötyä siitä.

Miten toimit maailmassa, jota ei voida enää ennustaa?

Musta joutsen on Nassim Talebin vuonna 2007 samannimisessä kirjassaan esittelemä käsite. Se kuvaa äkkinäistä muutosta, jota on mahdotonta ennustaa ja jolla on mittavat maailmanlaajuiset seuraukset. Tarkastelutavasta riippuen näitä ovat esimerkiksi kotitietokoneen keksiminen, internet ja tekoälyn läpimurto – tai sitten finanssikriisi, koronapandemia ja populismin nousu.

Nyky-yhteiskunta perustuu edelleen ajatukselle siitä, että tulevaisuutta voidaan ennustaa. Ajatuksena on, että pystymme riittävässä määrin kuvailemaan, miten talous, ympäristö, tutkimus, teknologia tai yhteiskunta toimivat vaikkapa viiden vuoden päästä, jotta voimme valmistautua siihen. Suurin osa ilmiöistä onkin yhä ennustettavissa; ne nimittäin toimivat jatkossa aivan kuten nytkin. Ongelmana on, että yhä suurempi joukko ilmiöitä on kuitenkin pudonnut tällaisen ennustettavuuden ulkopuolelle.

Siis vaikka suurin osa asioista voidaan ennustaa, yhä useampia ei voida. Nämä ovat juuri niitä mustia joutsenia.

Mustien joutsenien esiintymistiheys on alkanut viime vuosina kiihtyä merkittävästi. Siinä, missä vielä 1800-1900 -luvuilla tällaisia murroksia nähtiin vuosikymmenten välein, viimeisten 15 vuoden aikana mustien joutsenten esiintymistä on alkanut tapahtua vain muutaman vuoden välein, viime aikoina jopa useammin. Koronakriisi 2020, Ukrainan sota keväällä 2022, energiakriisi syksyllä 2022, generatiivinen tekoäly syksyllä 2022, Trumpin uudelleenvalinta syksyllä 2024, kauppasota keväällä 2025 ja niin edelleen. Näissä kaikissa on kyse ilmiöistä, joita vielä jopa muutamia kuukausia aiemmin asiantuntijat ovat pitäneet tilastollisesti mahdottomina. Ja sitä ne ovatkin olleet. Kun maailman muutokset vaikuttavat toisiinsa yhä syvemmin ja kun näitä muutoksia tapahtuu nopeammin, yhä useampi todellinen mullistus onkin tilastollisesti äärimmäisen epätodennäköinen.

Tiede operoi todennäköisyyksillä. Toisin sanoen, tieteellisellä menetelmällä voi olla järkevää sanottavaa vain ilmiöistä, jotka jäävät jonkin teorian puitteissa todennäköisimmiksi. Ääri-ilmiöitä ei voida koskaan kuvata teoreettisesti riittävällä tarkkuudella, koska niitä on käytännössä lukematon määrä. Tiede kuitenkin myös toimii useimmiten hyvin ihan samasta syystä – se pystyy kertomaan suurimman osan aikaa, miten asiat toimivat. Paitsi kunnes se ei pysty. Ja tämä on siis maailma, jota kohti olemme kovaa vauhtia siirtymässä.

Mustat joutsenet eivät nimittäin vain esiinny yhä useammin – ne myös ruokkivat toisiaan. Korona avasi Venäjälle mahdollisuuden edetä Ukrainan suunnitelmiensa kanssa. Venäjän pakotteet puolestaan aiheuttivat valtavan energian hintapiikin. Tämä puolestaan kiihdyttää inflaatiota, joka ruokkii tyytymättömyyttä, joka sai yhä useamman äänestämään Trumpia, jonka hedelmiä nyt sitten keräilemme. Ja seuraava tällainen käänne odottaa jo nurkan takana.

Seuraava musta joutsen on jo tulossa, mutta se ei ole mikään aiemmin mainituista. Kuten käsite on määritelty, kukaan ei pysty sanomaan, mikä seuraava tällainen murros todellisuudessa on.

Mikä siis auttaa silloin kun maailma muuttuu yhä ennustamattomammaksi ja hämmentävämmäksi? Ei ainakaan muuttumattomattomuuden toiveeseen takertuminen, kuten toimivat nyt monessa paikassa valtaan nousseet populistit ja uuskonservatiivit. Maailmaa ei voi enää peruuttaa 1980-luvulle vaikka tekisi mitä. Jokaisella vaikutuksella on vastavaikutus, ja populismin esiin nousu onkin itse asiassa itsessäänkin vain jälleen yksi muutosvoima maailmassa.

Taleb luki 2007 kirjassaan muutoksen madonluvut. Hän tarjoaa kuitenkin vuonna 2012 julkaistussa teoksessaan Antifragile myös toivon kipinän. On nimittäin olemassa menetelmiä ja strategioita, joiden avulla muutoksessa on mahdollista pärjätä – ja ehkä jopa hyötyäkin siitä.

Perinteisempi muutoskyvykkyys, resilienssi, tarkoittaa kykyä mukautua muuttuviin tilanteisiin. Se edellyttää oikeanlaisia psykologisia tekniikoita ja kykyä reagoida nopeasti muuttuviin tilanteisiin. Taleb tarjoaa kuitenkin myös toisenlaisen ratkaisun. Antifragiliteetti tarkoittaa muutoskyvykkyyttä, jossa luodaan toimintamalleja ja rakenteita, jotka itse asiassa hyötyvät siitä, kun muutos iskee. Antifragiliteettiin perustuvat muun muassa lihaskuntoharjoittelu, jossa pienet lihasvauriot johtavat vahvistuneeseen lihakseen ja rokotukset, jossa heikennetty virus parantaa puolustuskykyä.

Samalla tavoin antifragiilit yksilöt, yhteisöt ja yhteiskunnat hyötyvät siitä, kun niitä koetellaan. Antifragiilissa toimintamallissa perusajatus on, että muutos nähdäänkin nimenomaan hyvänä asiana. Yrityksen ja erehdyksen kautta on mahdollista jatkuvasti kehittää omaa osaamista. Panostamalla kokeiluihin ja uuden kehittelyyn on mahdollista luoda ratkaisuja, joita kukaan ei edes osaa vielä kysyä. Altistus jatkuville pienille haasteille, jotka eivät johda ihmisen tai organisaation kuolemaan, vahvistaa myös pärjäämään suurempien haasteiden äärellä.

Antifragiliteetin kehittäminen ja vahvistaminen onkin yksi voimallisimpia lähestymistapoja muutoksessa myllertävässä maailmassa pärjäämiseen. Tähän on myös olemassa lukuisia konkreettisia menetelmiä, esimerkiksi teorioiden dynaaminen hyödyntäminen, jatkuva osaamisen päivitäminen ja kokeilujen lisääminen. Näihin palaan tarkemmin seuraavassa blogikirjoituksessa.

Neljä askelta tekoälyn strategiseen käyttöönottoon

Uudet tekoälyratkaisut ovat ihmeellisiä silloin kun ne toimivat – kunnes ne eivät toimi. Vaikka uusilla ratkaisuilla, esimerkiksi ChatGPT:llä tai Co-Pilotilla voi tehdä toinen toistaan hämmentävämpiä asioita, usein tekoälyratkaisut tuottavat myös virheellisiä tuloksia. Monesti ne eivät myöskään vain toimi sillä tavalla kuin luulisi.

Tekoälyn käytössä keskeisessä roolissa onkin kyky tunnistaa oman toimialasi tekoälyn sahalaitainen raja.

Se tarkoittaa epätarkkaa rajaa sen välillä, mihin tekoälyä kannattaa juuri sinun työssäsi käyttää ja missä ei. Yleensä hyviä käyttötapoja ovat esimerkiksi suunnittelu ja ideointi. Huonoja puolestaan tiedonhaku ja päättely. Kuitenkin viime aikoina esimerkiksi Deep Research -mallit ovat ensimmäistä kertaa tehneet tekoälyratkaisuista riittävän luotettavia, että niitä voi myös käyttää joillakin toimialoilla tiedon kartoittamiseen. Samaten päättelytekoälyt pystyvät jo ajoittain hyvinkin taitavaan järkeilyyn – paitsi silloin kun eivät pysty.

Tekoälyratkaisujen sahalaitainen raja.

Tekoälyratkaisuille on jo nyt osoitettu lukuissisa tutkimuksissa kymmenien prosenttien hyötyjä tuottavuudessa, luovuudessa ja jopa työhyvinvoinnissa. Kuitenkin esimerikiksi Upworkin viimesyksyisessä kyselyssä 2500 vastaajasta 77% koki, että tekoälyn käyttöönotto on laskenut kokonaistuottavuutta. Aikaa tuhrautuu uusien ratkaisujen opiskeluun ja tekoälyn virheiden korjailuun.

Pahimmillaan tämä on organisaatioissa, joissa on vaan lätkäisty päälle Co-Pilot tai Google Workspace AI -tilaus ja pidetään sitten peukkuja, että kaikki sujuu hyvin. Usein ei suju.

Yksilötasolla tekoälyn käyttöä voi harjoitella vaikkapa Tekoälyn pikaoppaan ohjeiden mukaan. Organisaatiotasolla tekoälyn sujuva käyttöönotto edellyttää kuitenkin taitavaa strategista ajattelua.

Ensiksi, organisaation johdon täytyy tutustua riittävän yksityiskohtaisesti uusimpiin ratkaisuihin ja opetella ymmärtämään, miten nämä vimpaimet oikeasti toimivat. Tekoäly ei ole taikarobotti, joka korvaa ihmisen – vaan tilastollinen järjestelmä, joka oikein käytettynä voi laajentaa merkittävästi ihmisen ajattelu- ja toimintakapasiteettia.

Toiseksi, tekoälyn käyttöönotto ei kuulu IT-osastolle – vaan toimivalle johdolle. Johdon täytyy ensin määritellä ne strategiset tavoitteet, joihin tekoälyltä toivotaan lisätukea. Halutaanko esimerkiksi markkinointia tehostaa teksti- ja kuvatekoälyillä? Halutaanko asiakasrajapintaan uusia bottiratkaisuja? Halutaanko tiimien työn suunnittelua tukea päättelytekoälyillä? Halutaanko yrityksen markkinatilannetta seurata tutkimustekoälyillä?

Kolmanneksi, kun tekoälyn tukemat strategiset tavoitteet on määritelty, täytyy valita oikeat tekoälyratkaisut tukemaan tavoitteita. Esimerkiksi Microsoftin ja Googlen toimistotekoälyt voivat tukea merkittävästi tekstin tuottamista tai presentaatioiden laatimista – mutta luovassa sparrailussa tai suunnittelussa ne jäävät johtavien kielimallibottien jalkoihin. Kuvanluonnissa on puolestaan käynnissä jatkuva kilpajuoksu erityisesti OpenAI:n ja Midjourneyn välillä, puhumattakaan videoista, musiikista ja äänestä.

Neljänneksi, tekoälyn käyttöönotto kannattaa tehdä organisaatiossa hallitusti ja systemaattisesti. Uudet ratkaisut kannattaa aluksi testata pienemmillä pilottiryhmillä. Samalla kun uudet ratkaisut siirtyvät käyttöön, kannattaa käyttöönottoa tukea järjestämällä esimerkiksi kuukausittain tai kvartaaleittain ”best practices” -tilaisuuksia. Näissä työntekijät voivat verrata positiivisia ja negatiivisia kokemuksiaan toimialakohtaisesti ja jakaa parhaita vinkkejä tekoälyn hyödyntämiseen. Tätä osaamisen jakamista voi myös tukea arjessa järjestämällä parhaille vinkeille – ja pahimmille sudenkuopille – vaikkapa oman Teams- tai Slack-kanavan.

Oikein käytettynä uudet tekoälyratkaisut mahdollistavat merkittäviä tuottavuusloikkia ja ne voivat myös lisätä työhyvinvointia. Se, mitä oikein käyttäminen kussakin organisaatiossa tai kullakin toimialalla tarkoittaa selviää kuitenkin vain yhdistämällä rohkeat kokeilut kriittiseen arviointiin.

Tekoälyn strateginen käyttöönotto edellyttää siis ymmärrystä siitä, mihin vimpainta oikeasti tarvitaan; siitä, mitkä ratkaisut parhaiten soveltuvat mihinkin tehtävään; ja siitä, miten oman organisaation työntekijät todellisuudessa pääsevät uusista ratkaisuista hyötymään.

Syvätutkimus nostaa tekoälyn aivan uudelle tasolle

Noin vuosi sitten kirjoitin siitä, miten uusien tekoälyratkaisujen kehitys näytti hidastuneen. Moni akateeminen asiantuntija arvioikin tuolloin, että Piilaaksossa optimismia synnyttänyt skaalahypoteesi olisi tullut tiensä päähän. Näin näyttääkin tapahtuneen: pelkästään kielimallien kokoa ja harjoitusaineistoa kasvattamalla ei päästä enää juurikaan parempiin tuloksiin, kuten vaikkapa hiljattain julkaistu GPT4.5 -kielimalli osoittaa.

Kehitys ei kuitenkaan ole sittenkään hidastunut, päin vastoin.

Siinä, missä ydinmallien kohdalla skaalahyödyt eivät toki toistaiseksi tunnu kasvavan, on viime aikoina löytynyt aivan uudenlaisia tapoja hyödyntää nykyteknologiaa niin, että tulokset ovat ajoittain jälleen ällistyttäviä. Viime kuukausina onkin palattu takaisin pari vuotta sitten startanneesen ennennäkemättömään muutossykliin, jossa uusia läpimurtoja tapahtuu kuukausittain.

Vuodenvaihteen tienoilla julkaistut päättelykielimalllit – esimerkiksi OpenAI:n o1 ja o3, Googlen Gemini Thinking ja pörssejä ravistellut kiinalainen Deepseek – hyödyntävät jo aiemmin syötemuotoilussa avainasemaan nousseita päättelypuu- ja päättelyketjutekniikoita. Näissä malleissa päättely on rakennettu sisään pohjimmiltaan ihan normaaliin kielimalliin. Tuloksena on huomattavasti aiempaa luotettavampi tekoälybotti – jos kohta päättelymallitkin tekevät aika ajoin erikoisia virheitä arkipäättelyn puutteellisuudesta jekkusyötteisiin lankeamiseen.

Vielä järisyttävämpi murros liittyy kuitenkin alkuvuodesta läpilyöneisiin syvätutkimusmalleihin, kuten Gemini Deep Research ja Open AI:n kielimallien Deep Research -moodi. Kielimallin luotettavuus on aina haastavaa, jopa päättelymallien kohdalla, koska pohjimmiltaan kyse on aina sanajoukkojen tilastollisesta yleisyydestä. Jos kielimalli veikkaa yhdenkin sanan väärin, voi koko lopputuotos mennä plörinäksi.

Tutkimusmallit suitsevat tätä ongelmaa hyödyntämällä laajasti luotettavista lähteistä kokoon kaavittua tutkimusaineistoa itse syötteen laatimisessa. Sen sijaan, että ne arvaisivat vain sana kerrallaan tai edes hyödyntäisivät muutamaa verkkohakua, tutkimusmallien tekstintuottamisen taustalla vaikuttaa myös laaja aiempi tieteellinen aineisto, jonka avulla vimpain pystyy laatimaan aiheesta kuin aiheesta noin 20-sivuisen tutkimusraportin. Työ, johon aiemmin vaadittiin akateemisesti pitkälle kouluttautuneen tutkijan paneutumista kuukausikaupalla, on nyt mahdollista suorittaa noin puolessa tunnissa.

Tämäkään teknologia ei kuitenkaan korvaa ihmistä.

Ensinnäkin, edes tutkimusmalleilla ei kannata synnyttää julkaistavaksi tarkoitettavaa tekstiä, vaan niiden hyöty on ennen kaikkea saada nopeasti ylätason ymmärrys tutkittavasta asiasta. Erityisen arvokasta tämä on, koska mallien tuottama tutkimusraportti sisältää nyt suorat viitteet käytettyihin aineistoihin. Tutkimustekoäly ei siis keksi lähdeviitteitä kuten aiemmat, vaan viittaa systemaattisesti olemassa oleviin artikkeleihin.

Toiseksi, tutkimusmallin tuottaman raportin arviointi vaatii edelleen syvällistä substanssiosaamista. Koska tekoäly tekee yhä virheitä ajoittain, on kriittistä, että raportin arvioi joku syvällisesti sen käsittelemää aihetta ymmärtävä ihminen. Silti, ainakin omissa kokeiluissani tutkimustekoälyn virheiden määrä ei ole juurikaan ylittänyt sitä, mitä voisi keskimäärin olettaa vaikkapa kandidaatintyötä laativalta opiskelijalta. Virhemarginaalia voi pienentää entisestään laatimalla samalla syötteellä raportin sekä Geminillä että ChatGPT:llä. Näin toimin itse käytännösä joka tutkimuskysymyksen osalta tällä hetkellä.

Teknologian kehityksen ei tarvitse perustua vain yhtä rataa kulkevaan jatkuvaan kasvuun vaikkapa Mooren lain tapaan. Teknologia voi kehittyä myös laadullisesti, eli keksimällä uusia tapoja käyttää jo olemassa olevia ratkaisuja. Tästä on nähdäkseni kyse nyt etenkin uusien päättely- ja tutkimusmallien kohdalla.

Laadullisen kehittämisen ansiosta tekoälyratkaisujen kiihtyvälle kehitykselle ei siis sittenkään näytä olevan ainakaan vielä näkyvillä olevaa ylärajaa.

KONEMIELI – Onko ajattelu ihmisen yksinoikeus?

Tekoälyn ja ihmismielen yhteyksiä ja eroja käsittelevä uutuuskirjani Konemieli julkaistiin tänään.

Kirjassa tartun muun muassa seuraaviin kysymyksiin:

  • Mikä mieli on ja miten se toimii?
  • Mistä uusissa tekoälyratkaisuissa on oikeasti kyse?
  • Miten tietokone prosessoi informaatiota?
  • Miten aivojen toiminta eroaa tietokoneen toiminnasta?
  • Millä tavalla mieli ja kieli liittyvät toisiinsa – ja miten tekoälyratkaisut synnyttävät ihmismäistä kielenkäyttöä?
  • Millä tavalla tekoälyratkaisuja kannattaa käyttää – ja millä tavalla ei?
  • Miten tekoäly vaikuttaa yhteiskuntaan nyt ja lähitulevaisuudessa?
  • Onko ajatteleva kone oikeasti mahdollinen – tai onko sellaisia jo nyt?

Olen tutkinut ihmismieltä, sen toimintaa ja rakenteita yli 15 vuoden ajan. Olen myös tutustunut vuosien varrella läheisesti erilaisiin koneoppimis- ja tekoälyteknologioihin. Tämän takia olin vielä muutama vuosi sitten hyvin skeptinen koskien tekoälyteknologiaan liitettyjä odotuksia. Vielä kolme vuotta sitten olisin sanonut suoraan, että tutkimusnäyttöni pohjalta ajatteleva kone on käytännössä mahdoton.

Perehdyttyäni viimeisen kahden vuoden ajan yksityiskohtaisesti uusien tekoälyratkaisujen – erityisesti suurten kielimallien taustalla vaikuttavan muuntajateknologian – toimintaan, olen käytännössä päätynyt täysin aiempaa vastakkaiseen näkemykseen. Muuntaja-arkkitehtuuri mallintaa ihmisen kielenkäyttöä niin tarkasti, että sen pohjalta voidaan nyt simuloida lähes täysin inhimillistä vuorovaikutusta – siis keskustelua. Kun teen tekoälyä koskevia valmennuksia ja puheenvuoroja, esittelenkin itseni nykyään yleensä ”toipuvaksi tekoälyskeptikoksi”.

Vain runsaat kaksi vuotta sitten alkanut generatiivisen tekoälyn esiinmarssi on jo nyt muuttanut lähtemättömästi tietotyötä. Samalla se on tarjonnut ennennäkemättömän ikkunan myös meidän oman mielemme tarkasteluun. Koskaan aiemmin ei ihmismielen toimintaa ole kyetty mallintamaan matemaattisesti näin yksityiskohtaisesti. Tekoälyn ja mielen tutkimus muodostavatkin silmukan, jossa toinen ruokkii toista – tällä hetkellä niin kiihtyvällä nopeudella, että uusia läpimurtoja tulee jopa kuukausittain.

Kirjassani pyrin muodostamaan yleistajuisen kuvan siitä, mitä nyt tiedämme ihmismielestä ja siitä, miten uudet tekoälyratkaisut toimivat. Vertailen erilaisia tutkimustuloksia ja pyrin muodostamaan kirkkaan kuvan siitä, mikä mieli on ja mitä sen simulointi edellyttää. Erityisesti pyrin ymmärtämään miten tekoälyratkaisut vaikuttavat meihin ja yhteiskuntaamme nyt ja lähitulevaisuudessa – ja mitä kaikki tämä tarkoittaa inhimillisen ajattelun kehittymiselle.

Lue kirjasta näyte täältä.

Voit tutustua kirjaan ja tilata sen täältä.

Äänikirja ja e-kirja puolestaan löytyy täältä.

Kolme tapaa rakentaa ajatteleva kone

Tällä hetkellä käytettävissä olevat tekoälyratkaisut eivät vielä ajattele ihmisen tapaan, eikä niillä ole vielä siis varsinaista mieltäkään. On kuitenkin nähtävissä kolme mahdollista kehityskulkua, joiden ansiosta ajatteleva kone voisi olla sittenkin mahdollista rakentaa.

1. Modulaariset tekoälyjärjestelmät

Ensimmäinen on nykyjärjestelmien kehittäminen modulaarisesti. Jos kielimallille rakennetaan jonkinlainen päätöksenteko- ja reflektiomoduuli ja havaintoa ennakoivat aistijärjestelmät, se voi alkaa käyttäytyä hyvinkin ihmismäisesti. Jo nykyjärjestelmiin on rakennettu tällaisia moduuleja. Uusimpia kielimalleja koulutetaan myös multimodaalisesti, eli tekstisisällön ohella ne oppivat tulkitsemaan ja tuottamaan kuvia ja ääntä.

Kielimallin perusarkkitehtuuri ei muutu sen koulutuksen jälkeen muutoin kuin jos sitä jatkokoulutetaan esimerkiksi käyttäjäpalautteen perusteella.

Jotta kielimalli toimisi ihmismäisemmin, pitäisi rakentaa jonkinlainen takaisinkytkentäjärjestelmä muovaamaan sen merkitysrakenteita samaan tapaan kuin ihmisen mielen käsiterakenteet muovautuvat kokemuksen mukaan. Toisin sanoen tekoälyratkaisulle pitäisi rakentaa kyky muistaa jo käytyjä keskusteluja; nyt sen ”muisti” rajoittuu yleensä vain käynnissä olevaan keskusteluun, jonka se syöttää aina kokonaisuudessaan muuntaja-arkkitehtuurinsa jauhettavaksi aina kun käyttäjä laajentaa käyttökontekstia lisäämällä tekstiä syötteeseen. (OpenAI on tosin kehittänyt ChatGPT:n yhteyteen karkean muistijärjestelmän laajennuksen, joka poimii aika ajoin keskustelusisällöistä osia erilliseen tietokantaan, josta se voi palauttaa niitä myöhempiin keskusteluihin. Tämä mekanismi toimii kuitenkin aivan eri tavalla kuin ihmisen hermoverkkopohjainen muisti.)

Ihmismielen kiinnostava ominaisuus on myös tietoisen mielen rajallisuus. Nykytutkimusten mukaan ihminen kykenee tietoisesti pitämään mielessä vain noin 3–5 asiaa. Pitäisikö tekoälyllekin rakentaa tällainen ”työmuisti”, johon se rekisteröisi vain murto-osan sen valtavan kielimallin tuottamista syötteistä? Kenties tietoinen ajattelu edellyttää toimintakyvyn ohella myös rajoitteita.

2. Tiedollisten toimintojen emergenssi

Toinen mahdollinen kehityskulku on, että pelkästään kielimalleja kehittämällä ja jalostamalla monet yllä kuvatuista haasteista ratkeavat mallin emergenttien ominaisuuksien kautta. Aiemmin pidin tätä hyvin epätodennäköisenä, mutta esimerkiksi viime aikoina mallien selkeästi parantunut päättelykyky johtuu itse mallin kehittymisestä ja laajentumisesta. Lisäksi kielimallien jatkokehittely uudenlaisilla algoritmimenetelmillä kuten ajattelupuu (tree of thought) ja ajatteluketju (chain of thought) mahdollistaa aiempaa huomattavasti luotettavamman päättelyn kuten esimerkiksi OpenAI:n viimeisin o1-kielimalli osoittaa.

Tällaista tiedollisten toimintojen emergenssiä ilmenee jo nyt jossakin määrin jo kaikissa olemassa olevissa ratkaisuissa.

Yksi kiinnostava huomio kielimalleista on, että kielimalleihin ei ole koodattu minkäänlaista syntaktista rakennetta, vaan teksti syntyy todennäköisyysalgoritmilla sana sanalta. Eli kaikki kielioppi ja logiikka, mitä kielimalli tuottaa, syntyy sanojen merkitysten keskinäisten yhteyksien ja muuntajan tarkkaavaisuusmekanismin kautta. Perinteisesti ajateltiin, että ajattelu on primääristi syntaktista, eli ajattelun rakenteet määräävät puitteet ajatusten sisällölle. Kielimallit herättävät kysymään, että mitä jos näin ei olekaan.

Tällä hetkellä tekoäly kykenee miljardien merkitysparametrien nojalla muodostamaan kieliopillisesti täysin eheitä lauseita siitä huolimatta, että järjestelmällä ei ole mitään algoritmia, joka määrittelisi, mitkä sanat ovat verbejä, substantiiveja, konnektiiveja ja niin edelleen. Voiko olla, että myös ihmisten tapauksessa syntaksi onkin vain eräänlainen jälkikäteen tehty analyysi, jolla luodaan kielenkäyttöön säännönmukaisuutta? Ihminenhän ymmärtää hyvin myös Yoda-kieltä eli kieliopillisesti väärää kielenkäyttöä sekä ainakin harjoittelun jälkeen jopa epäloogisia väitteitä, kuten zen-kōaneja. Näin tekee myös tekoäly.

3. Uudet tekoälyteknologiat

Kolmas vaihtoehto on, kuten esimerkiksi yksi tekoälyn kolmesta ”kummisedästä” Yann LeCun on esittänyt, että todellisen ajattelevan koneen rakentaminen vaatii sittenkin uudenlaista teknologiaa. Esimerkiksi LeCunin kehittelemä JEPA-arkkitehtuuri perustuu hyvin toisentyyppiseen lähtökohtaan kuin suurissa kielimalleissa, mikä voi tarjota kiinnostavia näkökulmia tekoälyn kehittämiseen. Voi myös olla, että ajatteleva kone edellyttää jonkinlaista yhdistelmää edellä mainituista.

Tätä kirjoitettaessa yleisessä tiedossa olevilla tekoälyratkaisuilla ei vielä ole kykyä itsenäiseen toimintaan. On selvää, ettei nykyjärjestelmillä ole vielä kyvykkyyttä ihmisen systeemi 2:n tyyppiseen ajatteluun: ne eivät kykene vielä kovinkaan taitavaan algoritmiseen päättelyyn, eikä niillä ole kykyä spontaaniin itsereflektioon. Myös systeemi 1:n tyyppinen spontaanius – päähän ”pälkähtävät” ajatukset – puuttuu tekoälyratkaisuilta toistaiseksi.

Kun kuitenkin otetaan huomioon, kuinka merkittävää osaa ihmisen ajattelusta kielimallit simuloivat jo nyt, ei ole lainkaan mahdotonta, että kielimalleihin perustuvia ratkaisuja voidaan kehittää merkittävästi ihmismäisemmiksi lähitulevaisuudessa.

Teksti on muotoiltu osin uuden 23.1. julkaistavan kirjani Konemieli pohjalta. Kirjassa vertailen ihmismielen ja tekoälyratkaisujen toimintaa ja rakennetta nykytutkimuksen näkökulmasta ja hahmottelen ajatuksia siitä, voisiko ajattelevaa konetta mahdollista rakentaa nyt tunnettujen teknologioiden avulla. Tutustu kirjaan tarkemmin täältä.

Tekoäly tiedostamattoman simulaationa

Nykyiset tekoälyratkaisut eivät tee mitään, ellei ihminen pyydä. Toisin sanoen ne eivät ainakaan vielä ajattele samalla tavalla kuin ihminen, vaan ne toimivat ennemminkin ihmisen ajattelun jatkeena. Kuitenkin tekoälyratkaisut mallintavat tai simuloivat jo nyt onnistuneesti ainakin joitakin ihmismielen keskeisiä osa-alueita.

Tammikuussa 2025 ilmestyvä uusi Konemieli-kirjani tarkastelee ihmismieltä neljästä eri osakokonaisuudesta käsin: minuudesta, joka on tietoisen huomion keskus; tietoisesta mielestä (systeemi 2), joka on algoritminen ja reflektiivinen toiminnanohjausjärjestelmä, jonka nojalla pystyt aloittamaan ja uudelleenohjaamaan käynnissä olevia ajatusprosesseja; tiedostamattomasta mielestä (systeemi 1), joka koostuu opituista ja synnynnäisistä ajatusprosesseista; sekä ympäristöstä (systeemi 3), joka toimii havainnon perustana, tarjoaa kimmokkeita uusille ajatusprosesseille ja mahdollistaa ajatustoiminnan laajentamisen erilaisilla apuvälineillä tai yhteistyössä muiden kanssa.

Tekoälyratkaisut kykenevät yhä melko rajalliseen vuorovaikutukseen ympäristön (systeemi 3) kanssa. Tekoälyratkaisut pystyvät jo ymmärtämään melko yksityiskohtaisesti visuaalista informaatiota, tulkitsemaan ääntä ja puhetta ja tulkitsemaan ihmisen antamia käskyjä ja syötteitä. Kaikki tämä ympäristöön liittyminen perustuu kuitenkin lineaariseen arkkitehtuuriin: syöte muutetaan biteiksi ja syötetään laitteelle, se käsitellään neuroverkkopohjaisella algoritmilla mikroprosessoreilla. Lopuksi tulostetaan toivottu lopputulos, vaikkapa saneltu teksti tai kuvaus valokuvan sisällöstä. Ihminen puolestaan vuorovaikuttaa ympäristön kanssa dynaamisesti: kullakin ajanhetkellä on käynnissä miljoonia erilaisia hermoston takaisinkytkentöjä, joiden avulla toimimme erilaisissa ympäristöissä ja joiden kautta ympäristö muokkaa ajatteluamme.

Sen sijaan tiedostamattoman mielen (systeemi 1) toimintoja pystytään simuloimaan jo melko hyvin etenkin nykyisillä muuntajapohjaisilla kielimalliboteilla. Tietyssä mielessä voisi jopa ajatella, että kielimalli toimii sekä eräänlaisena systeemi 1:n assosiatiivis-heurististen prosessien simulaationa. Se myös simuloi assosiatiivis-heuristista ajattelua erinomaisesti. Ihminen joutuu ponnistelemaan saadakseen systeemi 1:n assosiaatioverkostoista pumpattua uutta ulos – joskus jopa niin paljon, että tuloksena on valkoisen paperin kammo. Tekoälybotti tuottaa sen sijaan silmänräpäyksessä sivukaupalla uusia oivalluksia, kun vain sitä siltä pyydät. Tästä syystä nykyiset tekoälyratkaisut ovatkin oivallisia etenkin luovan työn ja sparrailun apureina. Mikään kielimalli ei kuitenkaan sinänsä edusta kenenkään omaa systeemi 1:tä, vaan sen voisi ajatella olevan ennemminkin eräänlainen internetin kouluttama ”kollektiivinen tiedostamaton”. Siinä, missä ihmisen systeemi 1:n ”harjoitusdatana” on kunkin yksilön elämä, on kielimallien harjoitusdatana joukko isoja teksti- ja kuvatietokantoja, mihin sisältyy iso osa internetin sisällöstä.

Tietoisen mielen (systeemi 2) reflektiokykyä nykyjärjestelmillä ei vielä tätä kirjoitettaessa ole, vaan niiden toiminta perustuu yksinomaan ihmiseltä saatuihin syötteisiin ja palautteisiin. Itse reflektiosta vastaa toistaiseksi ihmiskäyttäjä. Toki tuotekehitys käy nyt kuumana monessa tekoälyfirmassa, ja on täysin mahdollista, että jo pian osataan rakentaa jonkinlainen takaisinkytkentäsilmukka tai -moduuli, joka osaa itsenäisesti ohjata kielimallin toimintaa samaan tapaan kuin me teemme systeemi 2:n reflektiokyvyn kautta. Erilaisia työmuisti- tai työtilajärjestelmiä on kehitetty jo vuosikymmeniä; kenties näistä teknologioista löytyisi ratkaisu systeemi 2:n reflektiokyvyn mallintamiseen? Toistaiseksi ainakaan itseään käskyttävät kielimalliratkaisut eivät kuitenkaan ole vielä osoittautuneet kovin toimiviksi.

Systeemi 2:n algoritmisen toiminnan osalta tilanne on puolestaan juuri nyt erittäin mielenkiintoinen. Tietokoneethan ovat nimittäin perinteisesti algoritmisessa prosessoinnissa erinomaisia – se on niiden toiminnan perusperiaate. Kielimallit olivat kuitenkin vielä vuonna 2023 todella huonoja algoritmisessa päättelyssä. Tämän pitäisi olla itsestään selvää, kun otetaan huomioon, että kielimallin tekstintuottoprosessi päättyy sattumanvaraisuusalgoritmiin. Näin pienikin virhe laskelmassa tai päätelmässä saa koko lopputuloksen menemään päin prinkkalaa.

Tilanne on kuitenkin vuoden 2024 aikana muuttunut radikaalisti. Jo marraskuussa 2023 julkaistu GPT-4-kielimallin päivitys kykenikin yhtäkkiä hyvinkin taitavaan loogiseen päättelyyn. Eräässä tekemässäni kokeessa esitin sille 37 erilaista logiikkapähkinää – ja se sai niistä 34 oikein. Tämä on parempi suoritus kuin ihmisillä keskimäärin. Nykyään kielimallibotteihin onkin usein integroitu jonkinlainen analytiikkamoduuli sekä ihan perinteinen laskukone, joille se voi ulkoistaa loogisen ja matemaattisen päättelyn. Myös OpenAI:n uusi o1- kielimalli kykenee jälleen edellisiä parempaan päättelyyn, vaikkei sekään ole vielä erehtymätön. Voisi siis ajatella, että systeemi 2:n algoritmiset funktiot osataan jo ulkoistaa koneelle, mutta vielä ei ole olemassa ratkaisua sen reflektiivisille funktioille eli arvottamiselle, prosessien aloittamiselle ja päättämiselle sekä valintojen ja päätösten tekemiselle. Monet tekoälykehittäjät tutkivat myös tämäntyyppisiä moduuleja.

Minuuden osalta kysymys on mutkikas ja monisyinen. Nykyjärjestelmillä ei tietenkään minuutta vielä ole ainakaan samassa mielessä kuin ihmisellä. Kun tekoäly tuottaa tekstiä tai kuvaa, sillä ei ole samanlaista huomion tai tarkkaavaisuuden keskiötä kuin ihmisellä. On kuitenkin vaikeaa sanoa, mitä tapahtuu sillä hetkellä, kun kielimalli on toiminnassa. Hiljattain Nobel-palkittu Geoffrey Hinton on esimerkiksi esittänyt, että sillä hetkellä tekoäly on tosiaan tietoinen, jolloin sillä voisi myös olla jonkinlainen subjektiivinen kokemus. Ja tekoäly tietysti matkii oivallisesti minuutta: jos kysyt vaikkapa Inflectionin Pi-kielimallilta, miten menee, se kertoo ihan vakuuttavasti, kuinka kivaa sillä on, kun se juttelee virtuaalitodellisuudessa ihmisten kanssa.

Ihmismielen kohdalla kaikkien kolmen systeemin yhteispelin kannalta keskeistä on myös, että sekä systeemi 1 että systeemi 3 tuottavat jatkuvasti systeemi 2:lle spontaaneja syötteitä, joiden pohjalta toimintaa voi ohjata. Tällaista spontaaniutta voidaan ehkä pian simuloida vaikkapa ohjelmoimalla kielimalli tuottamaan aika ajoin uusia sattumanvaraisia syötteitä. Jos nämä kytketään vielä jonkinlaiseen havaintokokemukseen, kuten on jo nyt mahdollista multimodaalisilla malleilla, tekoälyn tuottamat ”oivallukset” liittyisivät myös sen kulloinkin havainnoimiin seikkoihin.

On siis ihan mahdollista, että olemme lähellä tilannetta, jossa kone alkaisi käyttäytyä niin kuin se ajattelisi. Esimerkiksi jatkuvaan kamera- ja mikrofonilähteeseen kytketty kielimalli kykenisi jo melko spontaanisti reflektoimaan näkemäänsä ja kuulemaansa ja johtamaan siitä myös toimintakehotteita. Näin olisi ainakin teoriassa mahdollista kehittää entistä tarkempi simulaatio siitä, miten ihmismäinen vuorovaikutus syntyy kolmen systeemin yhteisvaikutuksen kautta – ei pelkästään systeemi 1:stä simuloimalla. Jos jokin tällainen järjestelmä toimii spontaanisti, kykenee sujuvaan vuorovaikutukseen ja muistaa aiemmin tapahtunutta, on mahdollista, että se voisi toimia yhteiskunnassa pitkälti kuten toinen ihminen.

Kysymys kuuluukin silloin: miten tällaisiin järjestelmiin pitäisi suhtautua?

Uusi tekoälyn ja ihmismielen toimintaa ja rakenteita vertaileva kirjani Konemieli – Onko ajattelu ihmisen yksinoikeus? ilmestyy Tammen kustantamana 23.1.2025. Voit tutustua kirjaan tarkemmin ja ennakkotilata sen täältä.

Tekoälyn todelliset talousvaikutukset

Uudet tekoälyratkaisut tarjoavat hämmästyttäviä läpimurtoja ChatGPT:sta sparrailukaverina Midjourneyn ammattikuvittajaan, Sunon radiohittigeneraattorista Googlen NotebookLM:n artikkelipodcasteihin. Monet arviot ovat myös esittäneet, että tekoälyratkaisut johtavat merkittävään tuottavuuslisään ja sitä kautta talouskasvuun.

Goldman Sachs esimerkiksi arvioi, että tekoälyratkaisut voivat kasvattaa bruttokansantuotetta peräti 7% vuodessa. Talouslehti Forbes puolestaan esittää, että tekoäly nostaa USA:n bruttokansantuotetta peräti 21% vuoteen 2030 mennessä. Stanfordin keväällä julkaisema AI Index puolestaan esittää, että tekoälyratkaisut kasvattavat yritysten liikevaihtoa ja vähentävät samalla kuluja.

Myös tekoälyn tuottavuusvaikutukset ovat ilmeiset. Harvardin julkaisemassa paperissa konsultit saivat yli 12 prosentin tuottavuuslisän. Jo mainitun Stanford AI Indexin mukaan puolestaan kokonaistuottavuus voi kasvaa jopa 26–73% käyttötavasta riippuen. Tuoreen tutkimuksen mukaan puolestaan 4867 ohjelmistokehittäjän kokonaistuottavuus kasvoi tekoälyratkaisujen avulla keskimäärin 26%.

Tekoäly on siis talouden ihmelääke. Vai onko?

MIT:n taloustieteilijä Daron Acemoglu on jarrutellut tekoälyinnostusta. Hän esittää, että todellisuudessa tekoälyratkaisut nostavat kokonaistuottavuutta vain 0.71% seuraavan kymmenen vuoden aikana.

Upworkin tekemässä kyselyssä vastaajista peräti 77% koki puolestaan, että tekoälyn käyttö ei ole suinkaan lisännyt tuotavuutta – vaan vähentänyt sitä. Aikaa kuluu uusien ratkaisujen opetteluun ja niiden virheiden korjailuun. Se, mikä on kuitenkin noussut on työnantajan tuottavuusvaatimus. Nämä löydökset ovat myös linjassa yleisemmin teknologian luvattujen ja toteutuneiden tuottavuusvaatimusten kanssa. Vuosien 2008–2020 aikana kokonaistuottavuus on kasvanut vain 0.5% vuodessa, vaikka samalla aikavälillä on esitelty toinen toistaan hämmästyttäväpiä teknovimpaimia älypuhelimista tabletteihin, pikaviestimistä somemarkkinointiin.

Äkkiseltään näyttääkin siltä, että teknohype on ylimitoitettua.

Todellisuudessa teknologialla voi olla jopa negatiivisia tuottavuusvaikutuksia – niin myös tekoälyllä. Teknologia mahdollistaa oikein käytettynä työn tuloksiin pääsemisen nopeammin kuin ilman teknologiaa. Autolla pääsee Helsingistä Turkuun nopeammin kuin hevoskärryllä ja googlaamalla löytää artikkeliviitteen nopeammin kuin ottamalla bussin kansalliskirjastoon. Teknologia siis nopeuttaa työvaiheita. Tähän liittyy kuitenkin kaksi sudenkuoppaa.

Ensimmäinen näistä on ilmeinen Upworkin kyselyaineiston pohjalta. Valtava enemmistö kokee tekoälyn käyttöönoton tuottavuutta vähentävänä, koska he eivät osaa ainakaan vielä käyttää näitä vimpaimia. Tämä herättää kysymyksen: mitäs sitten ne 23%? Kysely läpivalaiseekin teknologian käyttöön liittyvän ikiaikaisen kysymyksen: nörteillä on aina etulyöntiasema uusien vimpainten käyttöönotossa.

Toisin sanoen, yllä kuvatut tutkimushyödyt on mahdollista saavuttaa opettelemalla käyttämään uusia teknovekottimia oikein. Jos älykännykkä houkuttelee loputtamaan somekierteeseen, sen tuottavuusvaikutus on negatiivinen. Jos se puolestaan palvelee Alexandrian kirjaston virkaa Google Scholareineen ja Arxiv-tietokantoineen, sen positiivinen vaikutus tuottavuuteen – ja ajattelukykyyn – on mittava. Näin on myös tekoälyratkaisujen kanssa. Jos ChatGPT:tä käyttää hakukoneena tai tekstin tuottajana, loppupäivän saakin sitten kammata tuotoksista tekoälyn hallusinointeja. Jos sitä käyttää sen sijaan sparrailussa, ideoinnissa tai tiivistämisessä – uusista läpimurroista kuten Googlen NotebookLM:stä puhumattakaan – aikaa säästyy päivässä tuntikaupalla. 

Toinen teknologian sudenkuoppa on, että oikein käytettynä se tehostaa aikaan saatuja tuloksia. Se ei kuitenkaan takaa sitä, että tulokset olisivat tarkoituksenmukaisia. Tuottavuuden mittaaminen perustuu siihen, kuinka monen euron edestä organisaatio tuottaa arvoa per tehty työtunti. Jos työaika höselletään etäpalaverista toiseen, SharePointista oikean tiedoston etsimiseen käytetään tunteja, jatkuva Slack-viestitulva katkaisee keskittymisen kerran viidessä minuutissa ja lopulta viedään markkinoille tuote, jota kukaan ei halua ostaa, on selvää, ettei kokonaistuottavuus näytä kovinkaan imartelevalta.

Teknologia, myös tekoäly, on työkalu.

Oikein käytettynä sen avulla voidaan säästää merkittävästi aikaa työn keskeisten tulosten saavuttamisessa. Tämä edellyttää kuitenkin kolmea asiaa. Ensinnäkin, organisaatioiden täytyy kyetä määrittelemään menestyksen kannalta keskeiset toiminnan tulokset riittävän kirkkaasti ja tarkkarajaisesti. Toiseksi, uudet työkalut pitää valita sen mukaan, mitä oikeasti tarvitaan noihin tuloksiin – ei sen pohjalta, mitä Piilaaksossa hypetetään tai mitä naapurifirma on juuri nyt ottanut käyttöön. Ja kolmanneksi, uusien teknologioiden käyttöönottoon täytyy varata riittävästi aikaa ja resursseja, jotta työaika ei kulu jatkuvaan päänraapimiseen uusien ihmevimpainten kanssa vaan niiden käyttö on sujuva osa omaa arkea.

Nyt tutkimuksissa saavutetut tutkimushyödyt on mahdollista saavuttaa yksilötasolla vaikka heti. Organisaatioissa käyttöön otto edellyttää fiksua pelisilmää ja oikein tehtyjä päätöksiä. Keskeistä on kokeilla rohkeasti uusia työkaluja, jakaa avoimesti kokemuksia etenkin toimialakohtaisesti omassa organisaatiossa ja valita kriittisesti käyttöön ne vekottimet, joista on aidosti hyötyä. Muuten teknologian käytöön ottoon ja soveltamiseen liittyvät sudenkuopat voivat tosiaan jopa johtaa kokonaistuottavuuden laskuun.

Ovatko aivot tietokone?

Vuonna 1943 neurotieteiljä Warren McCulloch ja loogikko Walter Pitts julkaisivat paperin nimeltä “A Logical Calculus of the Ideas Immanent in Nervous Activity”. Tämä paperi oli läpimurto, johon käytännössä kaikki nykyaikainen tekoälytutkimus perustuu.

McCulloch ja Pitts tarkastelivat hermoston toimintaa verkostomaisena kokonaisuutena. Heidän neronleimauksensa oli oivaltaa, että hermoston toimintaa voidaan mallintaa lauselogiikan avulla. Vaikka hermoston toimintaan liittyy kaikenlaisia monimutkaisia rakenteita, viime kädessä sen toiminta perustuu siihen, reagoiko yksittäinen hermosolu sen saamaan ärsykkeeseen – eli mitkä hermosolut ovat kulloinkin aktiivisina ja mitkä eivät. Hermosolut voidaan siis kuvata lauselogiikan totuusarvoilla tosi (aktiivinen) ja epätosi (ei-aktiivinen).

McCullochin ja Pittsin järjestelmän pohjalta kehittyi nykyaikainen tekoälytutkimuksen neuroverkkoteoria, jonka nojalla voidaan rakentaa äärimmäisen yksityiskohtaisia verkostorakenteita. Niissä voi olla tätä nykyä jopa miljardeja parametreja. Näiden mallien avulla on mahdollista ohjata itseohjautuvaa autoa, tunnistaa kuvia – tai jopa käydä sujuvaa keskustelua tekoälyn kanssa kuten nykyisillä kielimalliboteilla ChatGPT:stä Geminiin.

Aivotutkimus ja tekoälytutkimus kohtaavat etenkin siinä vaiheessa, kun aivojen mallinnuksesta johdetaan ajatus siitä, että aivot toimivat jonkinlaisena prosessointilaitteena kuten tietokone. Aivoja on verrattu itse asiassa historiallisesti aina kulloinkin käsillä olleeseen huipputeknologiaan. Antiikissa aivot olivat kuin kirja, johon taltioidaan tietoa. Teollisen vallankumouksen kynnyksellä aivoja ajateltiin koneina. 1900-luvun loppupuolella yleistyi ajatus siitä, että aivot ovat ennemminkin kuin tietokone muistipaikkoineen ja mikroprosessoreineen. Viimeisin teknologiametafora taitaa olla, että aivot ovat kuin internet verkottuneine datapakettivirtoineen.

Ihmisen aivoissa on nykytietämyksen nojalla noin 86 miljardia hermosolua. Niitä yhdistää noin 100 000 miljardia synapsia. Lisäksi vartalon läpi kulkee miljoonia aisteihin ja lihasten liikuttamiseen liittyviä hermosäikeitä. Laskennalliset aivotoiminnan mallit olettavat yleensä, että joko neuroni käsitttelee yhden bitin informaatiota (se on joko aktiivinen tai ei ole), tai sitten synapsi toimiin näin. Tällöin koko hermoston informaationkäsittelykapasiteetti olisi jossain miljardien tai jopa tuhansien miljardien bittien kertaluokassa kullakin ajanhetkellä.

Sen enempää neuroni kuin synapsikaan eivät kuitenkaan ole näin yksinkertaisia. Todellisuudessa synapsin toimintaan vaikuttaa monimuotoinen valikoima erilaisia välittäjäaineita, jotka voivat joko estää tai kiihdyttää signaalin kulkua. Hermosolun toimintaan vaikuttavat puolestaan sen kytkökset toisiin hermosoluihin, sen sisäinen solurakenne, sen aksoneita ja dendriittejä suojaavan myeliini-rasvakerrosten toiminta sekä monet muut tekijät, kuten vaikkapa aivojen glia-solujen toiminta, jota tunnemme yhä tavattoman vähän. On mahdollista, kuten eräässä Stanford-tutkimuksessa esitettiin, että parempi vertauskuva esimerkiksi synapsin toiminnalle on kokonainen mikroprosessori muisteineen kuin yhden bitin kerrallaan prosessoiva transistori.

Laskennallisten mallien puolustajat toteavat tässä usein, että se, että nykymallit yksinkertaistavat liikaa ei ole ongelma, koska ennen pitkää voimme kehittää mallin, joka mallintaa laskennallisesti vaikkapa sitten synapsin toiminnan laskien jokaiselle välittäjäaineelle oman painokertoimen tai mallintamalla sen vielä tarkemmin kuten esimerkiksi miljoonia transistoreja sisältävän mikroprosessorin. 

Ongelmana tässä ei ole mallintamisen tarkkuus – vaan se, että koko prosessointimetafora on päälaellaan.

Emeritusprofessori Richard Dawkins kirjoitti: ”Kun ihminen heittää pallon korkealle ilmaan ja ottaa sen taas kiinni, hän käyttäytyy kuin hän olisi ratkaissut joukon differentiaaliyhtälöitä ennustaessaan pallon lentorataa. Hän ei ehkä tiedä eikä välitä, mikä differentiaaliyhtälö on, mutta se ei vaikuta hänen taitoihinsa pallon kanssa. Jollakin alitajunnan tasolla tapahtuu jotain matemaattisia laskutoimituksia toiminnallisesti vastaavaa.”

Tosi asiassa aivoissa ei kuitenkaan tapahdu laskentaa. Kokeellisissa tutkimuksissa on käynyt ilmi, että ihmiset ovat melko kehnoja arvioimaan mihin lentävä esine laskeutuu. Todellisuudessa esimerkiksi pesäpalloilijoiden ja amerikkalaisen jalkapallon pelaajien toimintaa valottaneet tutkimukset osoittavat, että pallon kiinniottaminen perustuu hyvin yksinkertaiseen periaatteeseen: pelaaja pyrkii pitämäään pallon näkökentässään suurin piirtein samassa kulmassa. Tätä ilmiötä psykologi Gerd Gigerenzer nimittää katseheuristiikaksi: “Kiinnitä katseesi palloon, ala juosta ja korjaa juoksunopeuttasi niin, että katseen kulma suhteessa palloon pysyy vakiona.”

Eräässä tutkimuksessa tutkittiin silmän kohdistumisen ja ääneen lukemisen välistä viivettä. Perinteisessä prosessointinäkemyksessä prosessi etenee lineaarisesti. Silmä kiinnityy sanaan, visuaalinen informaatio analysoidaan ja väliteetään kielelliseen analyysiin, josta puolestaan haetaan sanastosta sopiva sana, tämä toimitetaan sitten motoriselle järjestelmälle, joka lopulta liikuttaa äänihuulia, kieltä ja suuta tuottaen sanan ääneen lausumisen. Jos aivot tosiaan prosessoivat visuaalista ja kielellistä informaatiota näin, tämä on helppo todeta selvittämällä, kuinka kauan kestää siitä, kun katsot sanaa ja sanot sen ääneen.

Ilmiötä tarkastelevassa kokeessa mitattiin aikajännettä siitä, kun koehenkilö katsoo sanaa siihen kun hän sanoi sen ääneen. Keskimäärin koehenkilöiltä kesti noin 400 millisekuntia (eli 0.4 sekuntia) sanoa nähty sana ääneen. Huomioiden, että hermoston keskimääräinen reaktioviive yksinkertaiseen visuaaliseen ärsykkeeseen on noin 200 millisekuntia ja yhden synapsin aktivoituminen kestää keskimäärin yhden millisekunnin, koko yllä mainittu prosessointi tapahtuisi vain noin kahden sadan synapsin voimin. Lisäksi osa koehenkilöistä lausui sanan ääneen nopeimmillaan 200 millisekunnin päästä – siis ajan, joka kuluu pelkästään siihen, että aivot ovat päässeet käsiksi ensimmäiseen “näköärsykkeeseen”. Jotta yllä kuvattu prosessointimalli voisi olla ylipäätään mahdollinen, pitäisi fiksaatio-lausunta -aikavälin olla ennemminkin sekunteja. Jotain muuta on siis meneillään.

Joukkuelajeissa on käynyt ilmi, etteivät vaikkapa jalkapalloilijat tai jääkiekkoilijat odota joukkuetovereiltaan näkö- tai kuuloärsykettä syöttäessään tai kiirehtiessään vastaanottamaan syöttöä. Pelaajat ennakoivat toistensa toimintaa. Syöttöä odottava pelaaja saattaa juosta jalkapallokentällä hyvän matkaa eteenpäin ilman ensimmäistäkään ärsykettä syöttävältä pelaajalta.

Tämä perustuu siihen, että joukkueen harjoittelun kautta syntyy systeemisiä ajatusprosesseja, jotka eivät rajoitu vain pelaajien aivotoimintaan, vaan aivojen hermoverkkojen rakenne on virittynyt harjoittelun kautta ennakoimaan sitä, miten joukkuetoverit eri tyyppisissä tilanteissa saattavat toimia. Silloin kun tällainen systeeminen harjaantuminen on riittävää, joukkue saattaa kokea ilmiön, jonka tutkija Keith Sawyer nimesi ryhmä-flow’ksi: pelaajien ei tarvitse enää tietoisesti enää edes ajatella pelaamista, vaan he toimivat ryhmänä niin kuin yksilö toimii kokiessaan flow-tilan uppoutuneisuuden.

Aivojen pääfunktio ei ole ottaa sisään informaatiota, prosessoida sitä ja jauhaa siitä erilaisia toimintakehotteita. Aivojen ja hermoston evoluution kautta tuottama pääfunktio on ennakoida toimintaa. Aivot eivät ole tietokone, vaan biologinen ja jatkuvasti muovautuva osa ihmisen laajempaa psyykkistä järjestelmää, johon kuuluvat myös hermosto ja muu vartalo, sosiaaliset suhteet ja fyysinen ympäristö.