Tekoälyteknologian kehitys on edennyt eksponentiaalisesti laskentatehon, datamäärien ja mallien koon kasvun myötä. Suuret kielimallit, kuten GPT-sarjan versiot tai Grok-mallit, tuottavat ihmismäistä tekstiä, ratkaisevat monimutkaisia ongelmia ja simuloivat luovaa ajattelua rajatuissa tehtävissä.
Tämä on synnyttänyt liioitellun optimistisia ennusteita yleisen tekoälyn kehittämisestä, jossa koneen odotetaan saavuttavan kyvyn oppia ja soveltaa tietoa millä tahansa älyllisen toiminnan alueella. Monet johtavat tutkijat ja filosofit kuitenkin korostavat, että edistysaskeleet ovat yhä kapean tekoälyn ilmentymiä, eivät etenemistä kohti aitoa yleisälyä, joka kykenisi ihmisen kaltaiseen päättelyyn ja käyttäytymiseen.
Nykyiset järjestelmät nojaavat tilastolliseen oppimiseen: neuroverkot koulutetaan massiivisilla datamäärillä ennakoimaan seuraavaa sanaa, kuvaa tai toimintaa. Tämä ei tuota ymmärrystä eikä kontekstista riippumatonta abstrahointia. Yann LeCun, Meta AI:n johtava tutkija, on toistuvasti kutsunut kielimalleja ”automaattisiksi täydennysohjelmiksi”, jotka eivät kykene kausaaliseen päättelyyn tai maailman mallintamiseen ihmisen tavoin. LeCun vertaa niitä järjestelmiin, jotka osaavat pelata shakkia tai go-peliä, mutta eivät ymmärrä pelin logiikkaa pidemmällä aikavälillä.
Energiatehokkuus muodostaa toisen keskeisen rajoitteen. Ihmisaivot kuluttavat noin 20 wattia ja pystyvät monimutkaiseen yleistämiseen, kun taas suuret tekoälymallit vaativat tuhansia kertoja enemmän energiaa yksittäiseen päättelytehtävään. OpenAI:n entinen johtava tutkija Ilja Sutskever on arvioinut, että vahva tekoäly edellyttäisi laskentatehon kasvua useilla suuruusluokilla sekä uusia arkkitehtuureja, jotka jäljittelevät aivojen modulaarisuutta ja hierarkkista oppimista. Sutskeverin mukaan olemme yhä ”esiparadigmaattisessa vaiheessa”, jossa emme tunne yleisälyn periaatteita.
Filosofisesti vahvan tekoälyn tavoittelu törmää tietoisuuden ja ymmärryksen ongelmaan. John Searlen 1980-luvulla suorittamassa kiinalaisen huoneen ajatuskokeessa osoitetaan, että syntaksin manipulointi ei riitä semantiikkaan: järjestelmä voi tuottaa oikeita vastauksia ymmärtämättä niiden merkitystä. Tämä pätee suoraan kielimalleihin, jotka operoivat merkkijonoilla ilman sisäistä maailman representaatiota. Hubert Dreyfus on kritisoinut symbolisen tekoälyn ja konnektionismin kyvyttömyyttä käsitellä implisiittistä tietoa, kuten kehollisuutta, tilannetajua ja kulttuurista kontekstia.
Historiallinen vertailu vahvistaa skeptisyyttä. Tekoälyn kehityksessä on koettu useita talviaikoja: Lighthill-raportti (1974) johti rahoituksen leikkauksiin, ja 1980-luvun asiantuntijajärjestelmien buumi romahti, koska niillä ei ollut kykyä soveltaa erikoistunutta tietoaan uusiin tilanteisiin. Nykyinen innostus pohjautuu syviin neuroverkkoihin ja big dataan, mutta Gary Marcus varoittaa ”neuroverkon talvesta”, ellei kehitetä hybridimalleja, jotka yhdistävät symbolisen päättelyn ja tilastollisen oppimisen.
Neurotieteellinen näkökulma tukee viivästystä. Aivojen plastisuus, unijaksot ja emotionaalinen säätely ovat keskeisiä oppimiselle, mutta puuttuvat nykyisistä malleista. DeepMindin Demis Hassabis korostaa tarvetta ”maailman malleihin”, joissa agentti simuloi fysiikkaa, sosiaalisia suhteita ja pitkän aikavälin seurauksia. Tällaiset mallit ovat alullaan ja vaativat uusia paradigmoja, kuten neurotieteilijä Karl Fristonin vapaan energian periaatetta.
Eettiset ja yhteiskunnalliset näkökohdat hidastavat myös kehitystä. Tekoälyn riskit – hallitsematon itsekehitys, arvovinoumien leviäminen ja sotilaallinen käyttö – ovat saaneet filosofi Nick Bostromin ja tutkija Eliezer Yudkowskyn vaatimaan tiukkaa sääntelyä. OpenAI:n ja Anthropicin turvallisuustiimit kilpailevat kaupallisten paineiden ja sijoittajien tuottovaatimusten kanssa, mikä ohjaa resursseja pois perustutkimuksesta. Evoluutiobiologian näkökulmasta ihmisäly on miljoonien vuosien sopeutumisen tulos, ja sen replikointi vaatisi syvällisen ymmärryksen kognitiivisesta kehityksestä.
Laskennalliset rajat asettavat omat konkreettiset esteensä. Transistorien koon pienentäminen hidastuu (Mooren laki hiipuu), ja vaikka kvanttilaskenta lupaa läpimurtoja, tietojenkäsittelytieteilijä Scott Aaronson arvioi hyödyllisen kvanttilaskennan olevan vuosikymmenten päässä. Datan saatavuus muodostuu pullonkaulaksi: avoin internet-data on pitkälti jo hyödynnetty, ja laadukkaan datan kerääminen edellyttäisi uusia menetelmiä. Kate Crawford varoittaa ”datan ehtymisestä” ja mallien massiivisista ympäristövaikutuksista.
Historia osoittaa, että mullistavien teknologioiden kehitys ei usein noudata odotuksia. Lentokoneen kehittämiseen meni vuosikymmeniä, ja ydinfuusio ei ole vieläkään toteutunut 70 vuoden tutkimustyön jälkeen. Vastaavasti tekoälyn kehitys voi hidastua odottamattomiin haasteisiin. Koneoppimisen asiantuntija François Chollet on ehdottanut ARC-tehtävää yleisälyn mittariksi, mutta mikään malli ei ole saavuttanut ihmistasoa. Chollet arvioi vahvan tekoälyn olevan kymmenien vuosien päässä, sillä se edellyttäisi kykyä oppia vähäiselläkin datalla.
Kiinalainen näkökulma vahvistaa tätä realismia. Professori Zhang Hongjiang on todennut, että kiinalainen tekoälytutkimus ”keskittyy käytännön sovelluksiin, ei teoreettisiin superälyunelmiin”, edeten askel askeleelta kapean tekoälyn alueilla kuten kuvantunnistuksessa ja robotiikassa. Tsinghuan yliopiston Tang Jie varoittaa hypetyksestä: suuret kielimallit eivät ole askelia kohti yleistä tekoälyä, vaan aito yleisäly vaatisi läpimurtoja kausaalisessa päättelyssä ja sosiaalisessa älyssä.
Pekingin yliopiston Wang Shipeng korostaa neuro-symbolisia hybridimalleja, kun taas Shanghain Jiao Tong -yliopiston tutkijat kannattavat monimodaliteettien yhtenäisiä arkkitehtuureja. Nankingin Zhou Zhihua huomauttaa energiatehokkuuden kriittisyydestä Kiinan hiilijalanjäljen näkökulmasta ja kehittää aivojen toimintaa matkivia tehokkaita neuroverkkoja. Vuoden 2024 Shanghain julistus globaalista tekoälyn hallinnasta korostaa eettisyyttä, turvallisuutta ja hallittavuutta, ja tutkija Zeng Yi vetoaa vastuulliseen, asteittaiseen kehitykseen resurssien oikean kohdentamisen varmistamiseksi.
Vaikka tekoäly kehittyy nopeasti, ja valtamedia julkaisee ajoittain sensaationhakuisia otsikoita, yleinen tekoäly on yhä kaukana – yli-inhimillisestä superälystä puhumattakaan. Nykyiset mallit ovat erikoistuneita työkaluja, jotka suoriutuvat ennakoitavissa tehtävissä mutta epäonnistuvat avoimissa ympäristöissä. Tutkijat korostavat tarvetta uusille arkkitehtuureille ja neurotieteelliselle inspiraatiolle, kun taas filosofit muistuttavat, että älykkyys on ymmärrystä ja kontekstia – ei pelkkää laskentaa.
Nämä tekijät yhdessä teknologian ylikuumenemisen kanssa herättävät keskustelua tekoälykuplasta, jonka pelätään voivan puhjeta, mikäli odotukset ylittävät todellisen kehityksen. Realistisen arvion mukaan yleinen tekoäly ei ole toteutumaisillaan oleva mullistus, vaan vielä kaukana horisontissa, ja polku sinne on täynnä tieteellisiä, eettisiä, teknisiä ja taloudellisia haasteita.
