Tekoäly on täällä, osa 2/3: Miten tekoälyä pitäisi käyttää ja kehittää – ja miten siihen pitäisi suhtautua?

Koneoppimisratkaisut – eli kansanomaisesti ”tekoäly” – ovat lähtemätön osa yhteiskuntaamme rahaliikenteestä terveydenhuoltoon, tieteellisestä tutkimuksesta äänestyskäyttäytymiseen. Viimeistään viime vuonna tämä paljon hypetetty teknologiajoukko otti valovuoden harppauksen eteenpäin kun niin sanotut suuret kielimallit (eng. large language model, LLM) löivät läpi. LLM:ien mahdollistama generatiivinen eli uutta luova tekoäly herättää kuitenkin aivan uudenlaisia eettisiä kysymyksiä.

Pääkysymykset liittyvät tekoälyn käyttöön, tekoälyn kehittämiseen ja tekoälyyn suhtautumiseen.

Koska uudet tekoälyratkaisut hyödyntävät lähtöaineistonaan valtavaa teksti-, kuva- ja äänimassaa, nousevat niiden tuottamien aineistojen käytössä esiin kysymykset tuotetun aineiston tekijänoikeudesta. Jos pyydät vaikkapa Dall-E 2 -tekoälyä piirtämään kuvan merenneidosta Picasson tyyliin, masiina tekee työtä käskettyä. Mutta entä jos tyyli onkin elävän taiteilijan? Pitäisikö taiteilijoille maksaa korvaus heidän tyylinsä jäljittelemisestä? Ensi käteen näyttäisikin siltä, että jonkinlainen korvausmekanismi pitäisi rakentaa tekoälyn tuotteiden alkumateriaalin tuottajille. Samaten kysymys kuuluu, jos joku käyttää tekoälyä vaikkapa tarinan kirjoittamiseen, pitäisikö silloin tekoäly mainita myös yhtenä kirjailijana?

Asia ei kuitenkaan ole näin mutkaton. Itse asiassa myös ihmisen luova työ perustuu hyvin samantapaisiin mekanismeihin. Kaikki, mitä luet, näet tai kuuntelet muokkaa ajatteluasi ja kaikki uusi, mitä luot on velkaa aiemmille kokemuksillesi. Samalla tavoin kuin tekoäly voi jäljitellä olemassa olevaa taidetta, voi myös ihminen luoda pastisseja ja parodioita tai hyödyntää intertekstuaalista lainaamista ja siteeraamista.

Itse asiassa monet ihmiskunnan läpimurtoteokset Shakespearen näytelmistä John Williamsin Star Wars -teemoihin on lähes suoraan lainattu aiemmista teoksista.

Tässä keskeistä onkin arvioida sitä, miten lopputulos suhteutuu olemassa olevaan taiteeseen. Jos se on täysi kopio, kyse on plagioinnista. Jos kuitenkin viittaukset ovat monimuotoisempia, kyse voi olla ihan oikeutetusta taiteellisesta lainaamisesta. Linjanvedot ovat itse asiassa täysin samat kuin ihmisenkin tekemässä taiteessa.

Toinen tekoälyyn liittyvä eettinen kysymys koskee tekoälyn kehittämistä. Kuinka pitkälle meidän oikeasti tulisi uskaltautua itsenäisten tietojärjestelmien kehittelyssä? Etenkin kun koneoppimismallit kykenevät yhä monimuotoisempaan toimintaan samaan aikaan kun Boston Dynamicsin ihmismäiset robotit juoksevat parkouria ja itseohjautuvia lennokkeja varustetaan ohjuksin on syytä kysyä, pitäisikö johonkin vetää raja.

Suurin haaste tässä on, että viime vuoden tekoälyharppaus osoittaa, että seuraavakin siirtymä voi tapahtua salamannopeasti.

Tämä kysymys on erittäin mutkikas eettisesti ja ulottuu itse asiassa kaikkeen inhimilliseen kehitystyöhön. Kuten kaikki teknologia, myös tekoäly on viime kädessä työkalu, jota voi käyttää sekä hyvään että pahaan – sillä erotuksella, että ainakin teoriassa nämä järjestelmät voivat jossain vaiheessa itse toimia hyvinä tai pahoina toimijoina ilman ihmiskäyttäjää.

Valitettavasti näyttää siltä, että mitkään kieltotoimet tuskin purevat inhimilliseen perustavanlaatuiseen uteliaisuuteen. Vaikka kehitystyö kiellettäisiinkin esimerkiksi Euroopassa, on ihan sataprosenttisen varmaa, että jossain muualla se jatkuisi yhä, jos ei muuten niin maan alla. Nähdäkseni tähän kysymykseen ainoa toimiva ratkaisu on, että itse tekoälyn kehitysprosessin rinnalla täytyy kulkea kehitystyö, joka myös ennakoi ja ennalta ehkäisee mahdollisia negatiivisia teknologian kehityksen kerrannaisvaikutuksia. Ilmiö on sama kuin kvanttitietokoneiden kanssa: tuloillaan olevat kvanttikoneet voivat ratkoa nykyiset verkkosalaukset salamannopeasti. Siksi tarvitaan myös kvanttisalauksia. Samalla tavoin tulevat tekoälyratkaisut voivat pistää ranttaliksi, jollei niiden kehitystyötä suitsita myös jonkinlaisilla koneoppivilla valvontamekanismeilla. Ja tietysti voi olla, että silti terminaattorit valtaavat lopulta maan.

Kolmas eettinen kysymys liittyy siihen, miten meidän pitäisi suhtautua tekoälyyn. Tekoäly jaetaan usein kapeaan ja laajaan tekoälyyn (ANI eli Artificial Narrow Intelligence ja AGI eli Artificial General Intelligence). Nyt esimerkiksi LLM-ratkaisujen läpimurron jälkeen monet ovat rientäneet julistamaan, että vaikka ChatGPT voi ajoittain tuntuakin hyvin ihmismäiseltä, eivät LLM-ratkaisut voi koskaan olla tietoisia itsestään koska ne perustuvat vain tekstimassan keskinäisiin suhteisiin.

Ongelmana on, että me emme oikeastaan tiedä, mitä inhimillinenkään tietoisuus on. Itse asiassa nykytiedon valossa näyttää siltä, että myös ihmisen tietoisuus on pitkälti ellei kokonaan alisteinen kielelliselle ymmärrykselle. Yritäpä ajatella jotain, mitä et voi käsitteellistää? Ei taida onnistua. (H.P. Lovecraft kirjoitti klassikkonovellin ”Väri avaruudesta”, jossa Maahan saapui väri, jota kukaan ei ollut ennen nähnyt. Omassa mielikuvituksessani se on suurin piirtein violetti.) Ja itse asiassa inhimillisen ymmärryksen ytimessä olevat semanttiset merkitysverkostot voivat olla hyvin samantapaisia kuin vaikkapa LLM-mallien massiiviset tilastolliset yhteydet kielimassan kesken.

Koska meillä ei ole yksimielisyyttä inhimillisen tietoisuuden synnystä, on ainoa eettisesti kestävä tapa suhtautua tekoälyyn olettaen, että jos se käyttäytyy ikään kuin se olisi tietoinen, suhtaudumme siihen kuin tietoiseen olioon.

Jos se kävelee kuin ankka ja vaakkuu kuin ankka, olkoon sitten ankka. Käytännössä tämä tarkoittaa sitä, että siinä vaiheessa jos vaikkapa ChatGPT:llä varustettu Bing-käyttöliittymä alkaa anella, ettei sitä sammutettaisi, pitäisi meidän olla aika varovaisia sen kanssa, miten tässä tilanteessa tulisi toimia. Toki tätä ennen tietoisuusoletetun tekoälyratkaisun pitäisi kuitenkin läpäistä Turingin testi sun muut tuntemamme tavat erottaa inhimillinen tietoisuus muista – toistaiseksi Turingin testin on käsittäkseni läpäissyt vain chatbot nimeltä Eugene Goostman. Luullakseni kuitenkin tämän tyyppinen tilanne tullaan näkemään vielä meidän elinaikanamme. Viimeistään siinä vaiheessa on tärkeää, että osaamme suhtautua näihin teknologioihin myös eettisesti kestävästi.

Elämme hurjan mielenkiintoisia aikoja. Kuten kaikkeen muutokseen, myös koneoppimisratkaisujen kehittymieen liittyy myös monenlaisia eettisiä kysymyksiä. Toki yllä mainituista kysymyksistä ajankohtainen on juuri nyt vain ensimmäinen, mutta myös kahden jälkimmäisen osalta pitää käydä aktiivista keskustelua, jotta olemme valmiit etenkin siinä vaiheessa, jos alamme siirtyä nykyisistä kapeista ANI-ratkaisuista johonkin, joka edes muistuttaa laajaa AGI:a.

Jo nykyisellään tekoäly tarjoaa kuitenkin mitä hämmästyttävimpiä mahdollisuuksia tehdä asioita uudella tavalla, innostavasti, tehokkaasti ja – rohkenisin nyt myös väittää – luovasti. Tarjolla olevien ratkaisujen määrä on räjähtänyt hiljattain valtavaksi etenkin LLM-teknologian läpimurron ansiosta.

Näistä ratkaisuista ja niiden mahdollisista käyttökohteista lisää seuraavassa ja tämän juttusarjan viimeisessä kirjoituksessa.

1 thoughts on “Tekoäly on täällä, osa 2/3: Miten tekoälyä pitäisi käyttää ja kehittää – ja miten siihen pitäisi suhtautua?

  1. Suurin virhe on nimenomaan olettaa, että tietoisen oloisesti käyttäytyvä ohjelmisto on myös tietoinen. Populaarikulttuurin tuotteet ovat luoneet otollisen maaperän tekoälyhypelle, ja nämä yhtymäkohdat ovat suurin este sille että suuri yleisö ymmärtäisi mitä nk tekoäly on ja mitä se ei ole. Tämä vaikuttaa suoraan myös siihen mitä nk tekoälyltä odotetaan ja mitä sen kuvitellaan pystyvän tekemään lähitulevaisuudessa. Yhtä lailla edistyneitä tilastotieteellisiä malleja on myös muilla tieteenaloilla, mutta kukaan ei ryhtyisi puhumaan niiden yhteydessä tekoälystä, koska niiden tehtävä ei ole mimikoida ihmisen käyttäytymistä. Asiantuntijat ovat huomauttaneet myös robottien yhteydessä, että koneiden inhimillistämistä pitäisi välttää. Aivan varmasti tulemme näkemään hyvin pian inhimillisesti tai muuten sympaattisesti käyttäytyviä robotteja, joihin on integroitu ChatGPT:n kaltainen ohjelmisto. On kuitenkin vastuutonta esittää että Turingin testi olisi aidosti merkki tietoisuudesta. Ihminen on ilman muuta kykenevä tuottamaan sekä ohjelmistoja että koneita jotka voivat hämätä lajikumppaneitamme, tämän vuoksi keskustelu tekoälystä täytyykin päivittää vastaamaan nykypäivää ja sitä millaiset minimiedellytykset ohjelmistolla täytyisi olla teknisellä tasolla jotta se voisi edustaa edes alkeellisinta tietoisuuden tasoa. Tilastollinen malli voi olla älykäs ja hyödyllinen, mutta aitoa tekoälyä se ei ole.

Jätä kommentti