Miksi tekoälyvallankumous saattaa muuttaa meidät vain tyhmemmiksi

Esseessään Arno Aranko avaa syitä, miksi olemme vaarassa joutua eräänlaiseen tietopohjaiseen kriisiin. Hänen mielestään tarvitsemmekin laajempaa keskustelua siitä, mitä olemme vaarassa menettää altistuessamme tekoälyn luomalle sisällölle sekä sen ilmeisille hyödyille.

Tekoälyä ei pitäisi ymmärtää pelkästään teolliseen vallankumoukseen rinnastuvana teknologisena kehitysloikkana ja tuotantovälineiden siirtymisenä konesaleihin, vaan laajemmin ihmisen tietoisuutta muokkaavana teknologiana. Pidän pitkän aikavälin riskinä sitä, että vieraannumme yhteisestä tietoon perustuvasta todellisuudenkäsityksestä sekä sen rakentamisen edellytyksistä.

Generatiivista tekoälyä voi ymmärtää juutalaisessa kansanperinteessä jaetun kertomuksen Prahan golemista kautta. Se kertoo savesta rakennetusta valtavasta olennosta, jonka rabbi Judah Loew Bezalel rakensi ja herätti henkiin salatuilla taioilla sekä kaiversi hepreankielisen sanan “totuus” golemin otsaan. Golemille tehtäväksi hän antoi paikallisen juutalaisyhteisön suojelemiseen heihin kohdistuvalta vainolta.

“Golem oli suunnattoman voimakas. Se teki täsmälleen sen, mitä siltä pyydettiin. Mutta sillä ei ollut viisautta eikä harkintaa. Lopulta sen kömpelyys johti onnettomuuksiin ja rabbin oli pakko tuhota se.”

 

Golemit keskuudessamme

Niin kuin golem, on generatiivinen tekoäly tiettyä määriteltyä päämäärää toteuttamaan veistetty malli. Sen kehitys on edennyt huimaa vauhtia ja mallien tarkkuus, keskustelevuus sekä mukautuvuus erilaisiin aihealueisiin ja käyttötarpeisiin on hämmästyttävää. Ihmiset käyttävät malleja kirjoittamisen, oppimisen ja tiedonhaun tukena, mutta myös erityisosaamista vaativien sisältöjen, kuten koodin tuottamiseen, terapian sekä lainopillisiin neuvojen hakemiseen. Olemme generatiivisen tekoälyn sisällön kuluttajia ja tuottajia yhä useammin myös tahtomattamme tai jopa edes tiedostamatta sitä. Nykyään jos Googlelle esittää kysymysmuotoisen haun, antaa se ensimmäisenä vastineenaan tekoälyn tuottaman vastauksen. Mallien kyvyistä ja rajoista käydään siis syystäkin keskustelua, jossa kuitenkin esiintyy vaarallista mystifiointia generatiivisen tekoälyn tulevaisuuden mahdollisuuksista. Jos mallien tuottamille sisällöille ei osata antaa oikeanlaista painoarvoa, niiden käyttö ei ole enää linjassa mallien käyttötarkoituksen kanssa.

Generatiivinen tekoäly on yksinkertaistettuna tilastollinen algoritmi, joka vastaa käyttäjän antamaan viestiin tuottamalla sisältöä, kuten esimerkiksi tekstiä, koodia, ääntä tai kuvamateriaalia. Tämä vastaus perustuu pääosin massiiviseen koulutusdataan, josta algoritmi on opetellut tunnistamaan kaavoja ja toistuvuuksia erittäin moniulotteisella tasolla. Algoritmi purkaa käyttäjän antaman viestin osiin ja yrittää päätellä viestikokonaisuudesta, käyttäjän käyttöhistoriasta sekä algoritmin järjestelmäohjeistuksesta, mitä käyttäjä tarkoittaa viestillään ja todennäköisimmin odottaa siihen vastaukseksi.

Generatiivisen tekoälyn algoritmit eroavat suhteessa ihmisen tiedonkäsittelyyn karkeasti ajateltuna kolmella tasolla:

  1. Tietokäsitys eli ymmärrys siitä, mikä on tietoa, miksi jokin on tietoa ja miten tieto rakentuu.

  2. Viisaus ja harkinta eli käsitys tekojen ja tapahtumien seurauksista sekä sisäiseen motivaatioon perustuva tavoitteellinen toiminta.

  3. Oppiminen eli kyky ottaa sisältöä vastaan, käsitellä sitä ja sisällyttää se osaksi laajempaa tietouttamme.

Avaan seuraavaksi näitä eroja tehdäkseni generatiivisesta tekoälystä ymmärrettävän sisällönkäsittelykoneistonsa kautta.

 

Miksi tekoäly ei kykene tuottamaan tietoa

Kielimallit operoivat abstrahoidun, koulutusaineistonsa kieleen perustuvan todellisuuskuvauksen varassa ja ovat sidoksissa siihen. Kysymykset oikeasta ja väärästä ovat olemassa vain sisällöllisesti siinä muodossa, missä ne on pystytty koulutusaineiston perusteella purkamaan assosiaatioiksi. Runollisesti ilmaistuna kielimalli elää limbossa totuuden ja epätotuuden välissä, eikä sillä ole kykyä erottaa niitä toisistaan, vaan ainoastaan kyky esittää vaikutelmia uskottavuudesta ja luotettavuudesta perustuen koulutusaineistosta opittuihin kaavoihin. Tässä piilee mielestäni generatiivisen tekoälyn vahvuus ja heikkous, sillä kieli on luonteeltaan epämääräistä, mutta myös suurilta osin kaavamaista.

Klassisen tiedon määritelmän mukaan tieto on hyvin perusteltu tosi uskomus. Ollakseen tietoa, täytyy siis väitteellä olla hyvät perustelut tai todisteet ja sen on vastattava totuutta. Muussa tapauksessa on kyseessä luulo tai arvaus. Generatiivisen tekoälymallin tuottama sisältö ei siis ole tietoa lainkaan, sillä tekoälymallilla ei voi olla sisäistä käsitystä totuudesta, koska sen tuottamat perustelut perustuvat tilastolliseen arvaukseen. Samalla tavalla kuin tilastollisten mallienkaan tuottama sisältö ei itsessään sisällä totuusarvoa, vaan ne vaativat kontekstisidonnaista tulkintaa, järkeilyä ja laajempaa ymmärrystä todellisuudesta. Tilastollisena mallina generatiivinen algoritmi ei siis kykene tätä tekemään, vaan pikemminkin esittää tulkitsemista ja järkeilyä pyrkien antamaan mahdollisimman tarkan vaikutelman sisällöstä, joka perustuu sen assosiatiiviseen käsitykseen käyttäjän odotuksesta.

 

Koneellisen ja inhimillisen sisällöntuotannon lainalaisuudet

Toisin kuin algoritmit, ihmisinä ilmaisemme asioita epäsuorasti ja asioiden merkitys on sidoksissa kulttuurisiin erityispiirteisiin sekä tilannesidonnaisiin logiikoihin, joita ei kielellä tyypillisesti ilmaista. Ilmaisumme tosiasiassa perustuu tulkintoihin, luottamukseen ja jaettuihin merkityksiin, joita voidaan luoda tarvittaessa lennosta. Ihmiskeho on erikoistunut erilaisiin aistikokemuksiin perustuvan tiedon vastaanottamiseen ja käsittelemiseen, sekä soveltamaan kokemuksistaan keräämäänsä tietoa jatkuvassa vuorovaikutuksessa ulkoisen maailman kanssa.  Ihminen pystyy myös järkeilemään asioita erilaisilla päättelylogiikoilla ja muodostamaan sitä kautta käsityksiä, luuloja ja arvauksia “ulkoisesta todellisuudesta” suhteessa kuviteltuihin todellisuudentiloihin. Generatiivinen tekoäly on sidoksissa kaavoihinsa ja tietoformaattiinsa, joka joko sopii tai sitten ei sovi annettuun tilanteeseen. Jos tekoäly onnistuu luomaan jotain uutta ja mullistavaa, tekee se sen tahattomasti ja suhteessa ihmisen arvioon sen suoriutumisesta.

Ihmisten välisessä vuorovaikutuksessa erityisesti luottamus sekä arviointikyky ovat kriittisessä asemassa. Olemme imeneet historiamme aikana itseemme liudan tiedostettuja ja tiedostamattomia tulkintanormeja ja symbolisia merkityksiä, jotka tehostavat vuorovaikutusta sekä luottamuksen muodostumista. Erilaiset sosiaaliset linssit ovat hitsautuneet yhteen tapaamme kokea maailmaa, jotta kykenemme arvioimaan ymmärrystämme ja luottamussuhdettamme eri asioihin.  Algoritmi ei tunne luottamusta, eikä sillä ole yhtenäistä, sosiaalisesti muodostettua näkökulmaa. Näin ollen se ei voi myöskään arvioida asioiden mielekkyyttä tai tärkeysjärjestystä, mutta kaavamaisuudessaan se toimii perusteellisella tavalla välittämättä sosiaalisesta asemasta.

Oppiessamme uutta meidän täytyy ensisijaisesti sovittaa asioita aikaisemmin omaksumaamme tietoon ja käsitteistöön, mikä vaatii työtä sekä ajattelua. Tämän oppimisprosessin kautta meistä tulee samalla etevämpiä erottamaan olennaisen epäolennaisesta ja luomaan selityksiä soveltavasti riippuen tarpeesta ja konteksista. Oppimisen kautta kehitymme siis myös kehollisessa mielessä tiedon soveltajina ja käyttäjinä, emme ainoastaan tiedon omaksujina. Generatiivinen tekoäly ei käy tällaista oppimisprosessia läpi, vaikka sitä kutsutaankin oppivaksi. Sen vastine oppimiselle on uuden tekstisisällön purkaminen ja sisällyttäminen osaksi itseään laskemalla numeerisia painoarvoja ja yhteyksiä uudelleen. Sillä ei ole kuvaa maailmasta tai käsitystä sen toiminnasta. Algoritmi tarvitsee sekä ihmisperustaista tietoa ja ideoita voidakseen luoda todellisuutta paremmin mukailevia sisältöjä että ihmisiltä saatua palautetta tämän sisällön sopivuudesta. Ihmisperustainen ajatustyö taas edellyttää selkeää käsitystä tiedosta, kykyä käsitellä uutta tietoa sekä myös kykyä rakentaa uutta tietoa.

 

Tiedonmuodostuksen sivuuttaminen ja todellisuuskäsityksen rapautuminen

Tietokoneistomme tulee siis jatkossakin perustumaan ihmisaivojen tekemälle työlle, vaikkakin se on yhä kalliimpaa suhteessa tekoälyn tuottamaan sisältöön. Ihmisillä ja organisaatioilla on lukuisia hyviä syitä hyödyntää algoritmeja, mutta tämän hyödyntämisen seurauksena syntyy massoittain halpaa, tietoa muistuttavaa kaavamaista sisältöä. Merkitykset ja kielellinen ilmaisu typistyvät ja tehostuvat. Tiedon arviointiin ja oppimiseen menee yhä vähemmän työtä ja aikaa. Kykenemmekö sopeutumaan koneiden monistamaan käsitykseen todellisuuden kuvajaisista, jotka perustuvat omiin haluihimme? Tätä kulttuurista kehityskulkua kutsutaan yhteisen todellisuuskäsityksen rapautumiseksi (reality drift), jossa kuratoitu, digitaalisesti välittynyt, synteettinen kuvaus elämästä erkaantuu ajassa ja paikassa eletystä kulttuurista.

Ajattelumme teoreettinen ja kielellinen puoli on selkeästi tehostettavissa, mutta kehollinen, koettu todellisuus ja siitä johdettu “sanoittamaton” oppiminen ja looginen ajattelu ei niinkään. Tietotyö koostuu tehtävistä, joissa tuotetaan, tulkitaan, käsitellään ja arvioidaan tietoa, minkä väitän vaativan ruumiillistunutta asiantuntijuutta. Asiantuntija kykenee toimimaan tekoälyn avustamana, mutta myös ilman sitä. Ja vaikka tekoäly muuttaa tietotyön tekemisen tapoja enemmän ohjeistavaksi ja koordinoivaksi, ei asiantuntijuuden perusta ja tietopohjan rakentamisen edellytykset muutu. Jos ruumiillistunutta asiantuntijuutta ei kyetä erottamaan selkeästi tekoälyn esittämästä asiantuntijuudesta, on asiantuntijuus ja siihen perustuva tieto vaarassa hämärtyä, kun ihmiset luulevat tietävänsä asioita nähdessään vain totena esitettyjä arvauksia todellisuudesta.

Tässä on mielestäni tärkein vedenjakaja sille, tuottaako generatiivinen tekoäly lisäarvoa suhteessa sen haittavaikutuksiin: auttaako se meitä tulemaan lähemmäksi toisiamme tai laajentamaan olemassaolevaa käsitystämme eri todellisuuksista vai erkaannuttaako se meitä niistä vahvistamalla käsitystä todellisuudesta, jossa tarkka, mutta pohjimmiltaan älytön arvaus, on riittävä vastine ajatustyölle. Kangastuksia otetaan yhä suuremmissa määrin todesta, jolloin erkaantuminen todellisuudesta syvenee; koetun todellisuuden rajoja venytetään niin omasta toiveestamme kuin kykenemättömyydestämme erottaa näiden rajoja toisistaan.

 

Golemin kohtalo riippuu kyvystämme ymmärtää sitä

Generatiivinen tekoäly täydentää ja tukee ihmisten kykyjä esimerkiksi olemaan toistamatta vanhoja virheitä, tunnistamaan ihmisaivoille liian monimutkaisia toistuvuuksia, ja helpottamaan tulevaisuuden suunnitelmien ja ehdotusten kommunikointia. Asiantuntijoiden avustamana generatiivinen tekoäly voi myös mahdollistaa uuden tiedon tuottamista. Uskon, että organisaatioissa tiedostetaan edelleen asiantuntijuuden kriittisyys tekoälyn rinnalla ja ihmiset vastaavat tekoälyn tekemistä päätöksistä tai vähintään sen päätöksenteon valvonnasta. Pelkään kuitenkin, että hallitsematon generatiivisen tekoälyn käyttö johtaa kasvavaan joukkoon ihmisiä, jotka eivät tosiasiallisesti ymmärrä toisiaan, eivätkä sitä mitä heidän ympärillään tapahtuu. Näillä ihmisillä on pikemminkin vahva luulo ymmärryksestä, joka yhä useammin osuu oikeaan, mutta silti heiltä puuttuu olennainen osaaminen oman ymmärryksensä arvioimiseksi. Maailma on yhä tarkemmin muotoutunut tarpeisiimme, joita tietokoneistomme ovat heikommin varusteltuja täyttämään itsenäisesti. Tämä kehityskulku voi lopulta koitua golemin kohtaloksi.


HERÄSIKÖ AJATUKSIA? OTA YHTEYTTÄ

Arno Aranko

Seuraava
Seuraava

Jaettu konteksti ja epämukavat totuudet: Kuinka S-ryhmä loi strategialle jaetun kehyksen Harvardissa?