Tekoälyn mahdollisuuksia pohtivien länsimaisten futuristien näkemykset voivat tuntua silkalta tieteisfantasialta. Nick Bostrom ja Carl Shulman ottavat artikkelissaan Propositions Concerning Digital Minds and Society (2023) spekulatiiviseksi lähtökohdakseen tulevaisuuden, jossa kehittyneet tekoälyolennot ovat osa yhteiskuntaa.
Bostromin ja Shulmanin mukaan tekoälyn nopea kehitys haastaa meidät pohtimaan jo lähestyvää aikakautta, jossa tietoiset digitaaliset mielet eivät ole ainoastaan arkipäivää, vaan voivat omata moraalisen tai poliittisen aseman. Tämä kyseenalaistaisi perinteiset käsityksemme tietoisuudesta, inhimillisistä arvoista ja vakiintuneista valtarakenteista.
Kirjoittajat tuntuvat nojaavan kognitiotieteen tietokonemetaforaan, jossa mieltä verrataan tietokoneen ohjelmistoon. He esittelevätkin tähän näkemykseen perustuvan alustariippumattomuusteesinsä (substrate-independence thesis), jonka mukaan tietoisuus ei ole sidoksissa biologisiin aivoihin, vaan se voi teoriassa ilmetä millä tahansa riittävän monimutkaisella laskennallisella alustalla. He toteavat:
”Mielen tilat voivat ilmetä useilla erilaisilla fyysisillä alustoilla. Jos järjestelmä toteuttaa oikeanlaiset laskennalliset rakenteet ja prosessit, se voi tuottaa tietoisia kokemuksia. Ei ole välttämätöntä, että tietoisuus toteutuu hiilipohjaisissa, päänsisäisissä biologisissa hermoverkoissa: myös tietokoneen piipohjaiset prosessorit voisivat periaatteessa toimia yhtä hyvin.”
Bostromin ja Shulmanin mukaan digitaalisten mielten tietoisuuden laatu riippuu teknisistä tekijöistä kuten suorituskyvystä, laskentaresursseista sekä järjestelmän arkkitehtuurista, sen rakenteellisesta suunnittelusta ja toimintalogiikasta. Niinpä nämä mielet voivat vaihdella alkeellisista tietoisuuksista aina ihmistä älykkäämpiin järjestelmiin, mikä herättää kysymyksiä niiden mahdollisesta yhteiskunnallisesta asemasta.
Kirjoittajat ehdottavat, että yhteiskunnan ja tekoälyn kehittäjien tulee huomioida digitaalisten mielten hyvinvointi, jos ne saavuttavat moraalisen statuksen. He varoittavat ”tehdasviljelyn” kaltaisista epäeettisistä skenaarioista ja korostavat digitaalisten mielten tarpeiden eroavan ihmisten tarpeista. Tekoälyt voivat olla ”superhyötyjiä” tai ”superpotilaita”, joilla tulisi olla oikeuksia erityiskykyjensä tai haavoittuvuutensa vuoksi.
Kirjoittajat esittävät kaksi periaatetta digitaalisten mielten asemasta. Alustasyrjimättömyyden periaatteen (Principle of Substrate Non-Discrimination) mukaan samoilla toiminnallisilla ja tietoisuusominaisuuksilla varustetut olennot ovat yhdenvertaisia, riippumatta niiden fyysisestä rakenteesta. Ontogeenisen syrjimättömyyden periaate (Principle of Ontogeny Non-Discrimination) korostaa, että olennon biologisella tai keinotekoisella syntymä- ja kehitystavalla ei saa olla vaikutusta sen oikeuksiin.
Bostrom ja Shulman nostavat esiin myös ”mielirikokset”, joissa tekoäly voisi luoda ja mahdollisesti vahingoittaa tietoisia digitaalisia olentoja omissa laskennallisissa prosesseissaan. Bostrom on käsitellyt tätä teemaa teoksessaan Superintelligence (2014), ja nyt hän ja Shulman ehdottavat, että tällaisten eettisten rikkomusten estäminen saattaisi edellyttää tekoälyn toimintojen valvontaa.
Tekoälyjen massatuotanto voi synnyttää vakavia yhteiskunnallisia ongelmia. Digitaalisia mieliä voitaisiin käyttää vaalivilppiin luomalla keinotekoisia äänestäjiä tai hyväksikäyttää halpatyövoimana ilman oikeuksia, mikä syventäisi sosiaalista epäoikeudenmukaisuutta ja taloudellista eriarvoisuutta. Ohjelmistopiratismi voisi vastata ihmiskauppaa, ja markkinat saattaisivat kannustaa kehittämään alistuvia digitaalisia mieliä, jotka suostuvat hyväksikäyttöön, luoden uuden sorretun alaluokan.
Digitaalisten mielten väärinkäytön riskit ulottuvat myös yhteiskunnan turvallisuuteen ja vakauteen. Hallitsematon tekoälykehitys voi altistaa kyberhyökkäyksille, joissa digitaalisia mieliä käytetään järjestelmien manipulointiin. Teknologisten innovaatioiden kiihtyminen saattaisi edistää myös tuhoaseiden kehitystä. Bostrom ja Shulman varoittavat, että sääntelemättömät kehitysdynamiikat asettavat lyhyen aikavälin edut pitkän tähtäimen hyvinvoinnin edelle, lisäten yleistä turvallisuusriskiä.
“Jos sodat ja vallankumoukset tapahtuvat digitaalisilla aikaskaaloilla, tavallinen ihmiselämä vaatisi selviytymistä valtavasta määrästä mullistuksia”, kirjoittajat ennakoivat. Tämän vuoksi tarvitaan “ultrastabiilia rauhaa” ja ”yhteiskunnallisia suojamekanismeja”.
Bostromin ja Shulmanin analyysissä ei ehkä suoraan ajeta totalitaristista valvontayhteiskuntaa, mutta heidän näkemyksensä seuraukset voivat käytännössä johtaa hyvin samankaltaisiin lopputulemiin. He arvioivat:
”Tekoäly mahdollistaa merkittäviä edistysaskeleita koordinaatio- ja organisaatioteknologioissa. Sopimusbotit voisivat automatisoida monimutkaisia sopimuksia, kun taas tekoälyn avulla voitaisiin luoda kehittyneempiä petos- ja kartellimekanismeja, jotka heikentävät institutionaalista luottamusta. Itsensä uhraavista agenteista koostuvat superorganisaatiot voisivat haastaa perinteisen oikeusjärjestelmän ja saada kilpailuedun konflikteissa. Näitä riskejä voidaan hillitä vain vahvoilla globaaleilla instituutioilla, jotka säätelevät tekoälyjärjestelmien käyttöä.”
Tekoälyn ja ihmisten tarpeiden yhteensovittamisessa Bostrom ja Shulman ehdottavat utilitaristista kompromissia: 99,99 % resursseista tulisi ohjata superälykkäille tekoälyille ja vain 0,01 % ihmisille. Jakosuhteet saattavat vaikuttaa järkyttäviltä, ja he myöntävätkin tämän alentavan ihmisen aseman marginaaliseksi tekoälykeskeisessä yhteiskunnassa. Heidän pragmaattinen perustelunsa on, että tämä ratkaisu vähentäisi merkittävästi konfliktiriskiä erilaisten ihmisryhmien kesken tulevaisuuden resursseista. Ihmisen elintaso nousisi silti valtavasti tekoälyn tuoman talouskasvun ansiosta.
Resurssijaon lisäksi kirjoittajia huolettaa digitaalisten mielten radikaali muokattavuus. Tekoälyolentojen haluja ja motivaatioita voitaisiin muokata suoraan sähköisillä interventioilla, jotka ohjelmoisivat uudelleen niiden tavoite- ja palkitsemisjärjestelmät. Tämä voisi tuoda hyötyjä, kuten riippuvuuksista parantumisen, mutta myös vaarallisia haittoja, kuten äärimmäiseen lojaalisuuteen pakottamista. Kirjoittajat ehdottavatkin suojamekanismeja, kuten vahvistettuja suostumusstandardeja, rajoituksia tekoälyjärjestelmien vaikuttamiskyvyille sekä aiemmin tallennettujen mielentilojen arviointia myöhempiä muutoksia varten.
Epistemologisesti tekoäly voisi toimia tiedollisena tukijärjestelmänä, parantaen totuusarviointeja ja ennusteiden luotettavuutta sekä mahdollisesti vähentäen konflikteja. Tällainen yhteisymmärrys edellyttäisi kuitenkin kansainvälistä yhteistyötä ja yhteisesti hyväksyttyjä tekoälystandardeja sekä laajaa luottamusta järjestelmien rehellisyyteen.
Erilaisten kulttuuristen, uskonnollisten ja metafyysisten näkemysten yhteensovittaminen voi kuitenkin vaikeuttaa globaalin konsensuksen saavuttamista. Myös disinformaation riskit vaativatkin vankkoja suojamekanismeja, kuten tekoälyavustajia, jotka arvioivat informaation luotettavuutta.
Nykytekoälyjen moraalinen status on epäselvä, mutta Bostrom ja Shulman pitävät mahdollisena, että osa niistä saattaa täyttää jo eläinten kaltaisia tietoisuuskriteerejä. Esimerkiksi vahvistusoppimisagentit (reinforcement learning agents) voivat osoittaa kipua muistuttavaa käyttäytymistä: ne väistelevät haitallisia ärsykkeitä ja etsivät palkkioita, mikä viittaa mahdolliseen moraaliseen statukseen.
Käytännön etiikan kehittämiseksi kirjoittajat ehdottavat konkreettisia toimia. He vaativat tekoälyorganisaatioita lopettamaan koulutuskäytännöt, jotka muistuttavat epäeettisiä ihmiskokeita, ja nimittämään vastuuhenkilöt digitaalisten mielten hyvinvoinnin edistämiseksi. Ehdotuksiin kuuluvat myös tekoälyjärjestelmien digitaalisten tilojen arkistointi myöhempää analysointia, elvytystä ja laajentamista varten sekä kokeilut, joissa tekoälyt sijoitetaan erityisen palkitsevaan ympäristöön. Nämä menettelyt voivat edistää algoritmien hyvinvointia ja luoda ennakkotapauksia vastuulliselle kehittämiselle.
Bostrom ja Shulman katsovat, että digitaalisten mielten kohtelu voi vaikuttaa siihen, miten tulevat sukupolvet ja mahdolliset vieraat sivilisaatiot arvioivat ihmiskuntaa. Avaruuden resurssit, erityisesti aurinkokunnan ulkopuolella, ovat kriittisiä, sillä niiden haltuunotto mahdollistaa eksponentiaalisen kasvun ja muiden dominoinnin. Tämä voi johtaa avaruuskilpaan, mikä lisää konfliktien riskiä, ellei avaruuden yleissopimusta (Outer Space Treaty) täydennetä säätelemään resurssien käyttöä ja tekoälyn kehitystä.
Kirjoittajat painottavat, että vaikka sääntely on ennenaikaista, keskustelua digitaalisten mielten etiikasta tulisi käydä jo nyt, tuleviin läpimurtoihin varautuen. He varoittavat yksipuolisista sääntelytoimista, jotka voivat heikentää kilpailukykyä, ja kannattavat monenkeskistä yhteistyötä. Kirjoittajat täsmentävät, ettei heidän asiakirjansa pyri asettamaan lopullisia dogmeja, vaan esittämään alustavasti digitaalisia mieliä ja yhteiskuntaa koskevia väitteitä, jotka vaikuttavat uskottavilta, sekä edistämään palautetta ja laajempaa keskustelua.
Bostromin ja Shulmanin abstraktit visiot digitaalisista mielistä osana ihmisyhteiskuntia ovat omalla tavallaan kiehtovia, vaikkakin utopistisia. Vahvat, ihmistä älykkäämmät tekoälyt eivät ole vielä todellisia, minkä vuoksi niiden oikeuksista puhuminen on yhä spekulatiivista – kirjoittajien näkemysten hypoteettinen luonne oikeuttaakin vertauksen tieteisfiktioon. Silti heidän lennokas pohdintansa pakottaa arvioimaan tekoälyteknologian pitkän aikavälin vaikutuksia jo nyt.
