hs.fi - 2000009593657 - Maksumuuri poistettu
- 📅 2023-06-02T10:45:24.265Z
- 👁️ 189 katselukertaa
- 🔓 Julkinen
Kirje julkaistiin netissä 22. maaliskuuta 2023. Sen sävy oli huolestunut. Tai oikeastaan pelottavan huolestunut.
Tekoälyjärjestelmät pystyvät jo kilpailemaan ihmisen kanssa, kirje alkoi. Sen tähden ne voivat aiheuttaa vakavia riskejä yhteiskunnalle ja ihmiskunnalle.
Kirje ei ollut kovin pitkä. Sen mukaan tekoälyä kehittävien yhtiöiden keskinäinen kilpailu oli kiihtynyt huolestuttavasti muutamien edellisten kuukausien aikana. Uusia tekoälyjärjestelmiä ei kontrolloinut enää kukaan. Niiden toimintaa ei pystynyt enää ennustamaan. Edes ne ihmiset, jotka kehittivät niitä, eivät enää ymmärtäneet niitä.
Pitäisikö meidän antaa koneiden täyttää informaatiokanavamme propagandalla ja valheilla? kirjeessä kysyttiin. Pitäisikö meidän automatisoida kaikki työtehtävät, myös ne, joista pidämme? Pitäisikö meidän kehittää sellaisia epäinhimillisiä koneita, joista vähitellen voi tulla meitä älykkäämpiä ja jotka pystyvät korvaamaan meidät?
Ja lopuksi vielä: Pitäisikö meidän antautua sellaiseen vaaraan, että voimme menettää sivilisaatiomme hallinnan?
Kirjeen ensimmäinen allekirjoittaja oli professori Yoshua Bengio kanadalaisesta Montrealin yliopistosta. Bengio on tekoälyn yksi tärkeimmistä kehittäjistä. Vuonna 2018 hän ja kaksi muuta tutkijaa saivat tietotekniikan alan arvostetuimman huomionosoituksen, Turing-palkinnon. Se annettiin niin sanottujen neuroverkkojen kehittämisestä.
Yoshua Bengion nimen jälkeen seurasi tuhatkunta muuta. Tekoälyn, tietotekniikan ja Piilaakson suuria hahmoja, kuten Applen yksi perustaja Steve Wozniak, Teslan, Twitterin ja SpaceX:n suuromistaja Elon Musk, arvostetuimpien yliopistojen professoreita Yhdysvalloista ja Euroopasta, matemaatikkoja, filosofeja, fyysikoita.
Mitä oli tapahtunut?
Mitä nämä ihmiset pelkäsivät tapahtuvan?
Perttu Hämäläinen istuu kahvilassa Aalto-yliopiston kampuksella Otaniemessä. Hän on palannut yöllä konferenssimatkalta Hampurista. Hämäläisen ja tohtoriopiskelija Mikke Tavastin tuore tutkimusartikkeli on palkittu siellä yhtenä konferenssin parhaista.
Artikkeli käsittelee tekoälyä. Hämäläinen ja Tavast halusivat kokeilla, pystyisikö tekoäly keksimään yhtä hyviä vastauksia tutkijoiden kysymyksiin kuin oikeat tutkimushaastateltavat.
Se pystyi.
Hämäläinen on hakenut tiskiltä matcha latten. Adidaksen verryttelytakin alla on t-paita ja t-paidassa logo SIGGRAPH 2017. Se on tietokonegrafiikan ammattilaisten vuotuinen tapahtuma.
Vuonna 2017 se pidettiin Los Angelesissa. Samana vuonna teknologiayhtiö Googlen tutkijat julkaisivat uuden tutkimuksen, jonka otsikko oli Attention Is All You Need.
Hämäläinen etsii artikkelia iPadiltaan. Yhdeksän sivua plus lähdeviitteet. ”Se oli tosi raflaavasti nimetty.”
”Että nyt on tekoäly niinku ratkaistu.”
Hän oli ollut aluksi epäilevä. Kuten alalla moni muukin.
”Mutta eivät ne kauhean väärässä olleet sitten.”
Artikkelissa esiteltiin tekoälyn niin sanotut suuret kielimallit.
Hämäläinen on 47-vuotias tietokonepelien professori Aalto-yliopistossa, alan ensimmäinen koko Suomessa. Vuonna 2017 hän ei vielä ollut kovin kiinnostunut kielimalleista.
Mutta kun tekoälymalli GPT-2 julkaistiin rajatulle yleisölle keväällä 2019, hän ryhtyi kokeilemaan sitä. GPT-2 perustui juuri sellaiseen suureen kielimalliin, jonka tutkijat olivat esitelleet kaksi vuotta aikaisemmin. Se oli opetettu ennustamaan lauseen seuraavaa sanaa.
Kun sille kirjoitti malliksi virkkeen alun, se osasi jatkaa sitä, vieläpä samaan tyyliin. Se toimi kuin valtavan tehokas ennakoiva tekstinsyöttötyökalu.
Lopulta malli oli Hämäläisestä kuitenkin aika huono. Täytyi kokeilla parikinkymmentä kertaa, ennen kuin se onnistui tuottamaan yhden hyvän tarinan.
Suuri yleisö tuskin huomasi uutisia GPT-2:sta. Ei sitä kuka tahansa päässyt kokeilemaankaan, se pidettiin pääosin piilossa. Tuohon aikaan kohuttiin enemmän kasvojen ja puheen tunnistamisesta, yhä ketterämmistä ja taitavammista roboteista, entistä paremmista kielenkääntäjistä ja itse itseään ajavista autoista.
Mutta maailman suurimmassa teknologiayhtiössä Microsoftissa innostuttiin. Microsoft lupasi GPT-2:n kehittämiseen miljardi dollaria.
GPT-3 julkistettiin syksyllä 2020. Sekin meni monelta ohi. Sitten, marraskuussa 2022, julkaistiin jälleen uusi versio, Chat GPT. Sitä varten oli tehty helppo käyttöliittymä.
Chat GPT:lle saattoi esittää kysymyksiä. Ja se vastasi.
Se osasi jutella.
Kuka tahansa saattoi kokeilla mallia netissä ilmaiseksi. Hämmästeltiin, miten hyvää kieltä se tuotti. Se keskusteli melkein virheettömästi, jopa suomeksi. Se vastasi, kun kysyttiin, myönsi mokansa, yritti uudestaan, kirjoitti runoja ja esseitä, mitä vain siltä pyysi. Se koetti kovasti olla avuksi ja oli jollain kiehtovalla tavalla hyvin ihmismäinen keskustelukumppani.
Professori Perttu Hämäläinen seurasi ChatGPT:n menestystä tarkasti.
”OpenAI:n tyypit sanoivat jossain haastattelussa, etteivät ne arvanneet, että Chat GPT:n release snowbollaa niin paljon.”
OpenAI on piilaaksolainen yritys, joka on kehittänyt Chat GPT:n ja sen edeltäjät. Release tarkoittaa julkaisemista ja snowbollata lumivyöryä – Hämäläisen alalla työkieli on englanti.
”Internetissä ei voi ennustaa, milloin joku asia menee viraaliksi.”
Kun jokin asia menee internetissä viraaliksi, se leviää nopeasti kuin virus. Chat GPT levisi.
Ne, jotka havahtuivat suurten kielimallien hämmentävän nopeaan kehitykseen vasta kokeillessaan Chat GPT:tä, ällistyivät. Miten se oikein toimi? Sehän on huikea! Ja kyllä, vähän kauhistuttavakin. Aivan kuin juttelisi ihmisen kanssa.
Näytti selvältä, että keskustelevasta tekoälystä voi tulla samanlainen mullistus kuin netin hakukoneista 1990-luvulla.
Maaliskuussa OpenAI julkaisi mallista vieläkin tehokkaamman version, GPT-4:n. Hämäläinen sanoo, että silloin teknologia otti valtavan harppauksen. Tosin hän ei tarkkaan tiedä, millaisen.
Juuri kukaan muukaan ei tiedä.
GPT-4 oli edeltäjiään paljon parempi. Chat GPT vastasi koululaisten biologiaolympialaisten kysymyksiin niin hyvin, että sijoittui heikoimman kolmanneksen joukkoon. Mutta GPT-4 ampaisi suoraan huipulle, parhaaseen sadasosaan, vaikka tehtävät olivat sellaisia, ettei niihin löytynyt valmista vastausta netistä.
Kun GPT-4:lle annettiin Yhdysvaltain asianajajakokeen tehtävät, se sijoittui kokelaiden joukossa parhaaseen kymmenykseen. Epäilijöidenkin oli myönnettävä: se oli hämmästyttävä saavutus.
GPT-4:n julkaisemisesta kului vain viikko, kun nimekäs tutkijajoukko julkaisi huolestuneen kirjeensä. Sen, jonka ensimmäinen allekirjoittaja oli kanadalainen tietotekniikan huippututkija Yoshua Bengio. Kirjeen, jossa varoitetaan, että ihmiskunta on vaarassa menettää sivilisaationsa hallinnan.
Kolme viikkoa myöhemmin tuli uusi varoituskirje. Sen julkaisivat yhdysvaltalaisen Association for the Advancement of Artificial Intelligencen 19 puheenjohtajaa. Yksi heistä oli Eric Horvitz, Microsoftin päätutkija. Järjestö oli aikanaan perustettu ajamaan tekoälyn kehittämistä.
Toukokuussa teknologiayhtiö Googlesta irtisanoutui tekoälyn keskeinen kehittäjä, brittiläinen Geoffrey Hinton. Hän kertoi lähteneensä siksi, että voi puhua tekoälyn vaaroista.
Aikaisemmin, Hinton sanoi, hän oli ajatellut, ettei koneista voi tulla ihmistä älykkäämpiä. Tai että siihen kuluisi ainakin kymmeniä vuosia.
Nyt hän sanoi olevansa toista mieltä.
Vain harvat ihmiset tietävät tarkkaan, miten GPT-4 toimii. OpenAI ei enää kerro yksityiskohtia.
”Niiden malli on monimutkainen musta laatikko”, Hämäläinen sanoo. ”Me ei pystytä jäljittämään sen eksaktia päätöslogiikkaa.”
Kielimalli on tekoälyjärjestelmä, joka on koulutettu ymmärtämään ja tuottamaan kieltä. Se yrittää mallintaa kielen rakennetta ja sanajärjestystä niin, että se voi ennustaa, mikä sana tai lause tulee seuraavaksi.
Tiedetään, että kielimallit on opetettu valtavalla, aivan järjettömällä määrällä tekstiä. GPT-4 on syönyt koko internetin Wikipedioineen Twittereineen Redditeineen päivineen ja lisäksi massiivisen määrän digitoituja kirjoja, kokonaisia kirjastoja, aina syyskuuhun 2021 asti. Silloin sen opettaminen lopetettiin.
Pääperiaatteet kyllä ovat tiedossa. Ne perustuvat vuonna 2017 julkaistuun Attention Is All You Need -artikkeliin.
”Huomiomekanismiin”, Hämäläinen suomentaa.
”Miten kielimalli aina, kun se prosessoi sanaa tai sanan palasta, tavallaan päättelee, mitä yhteyksiä tällä sanalla on muihin sanoihin. Ja mihin muihin asioihin tekstimassassa se kiinnittää huomiota.”
Hän yrittää selittää asiaa yleistajuisesti, niin yksinkertaisesti kuin pystyy:
Kielimalli jatkaa sitä tekstiä, jonka ihminen antaa sille. Se on opetettu ennustamaan seuraavaa sanan osasta. Sitä varten se laskee todennäköisyyksiä.
”Se tuottaa ikään kuin todennäköisyysjakauman sille, mikä olisi seuraava sana.”
Jos vaihtoehtoja on paljon, se arpoo. Kun kielimallia pyytää tekemään saman asian uudestaan, vastaus on aina vähän erilainen.
Hämäläinen sanoo, että kielimalleja pitää ajatella satunnaisina. Sen takia ne välillä hallusinoivat eli puhuvat puuta heinää. Satunnaisuuden takia niihin ei voi luottaa. Yksittäiset faktat eivät ole niille tärkeitä.
Siksi kielimallilta ei kannata kysyä faktoja. Jos kysyy, sen vastaukset pitää tarkistaa itse.
Kielimallit eivät tavoittele totuudellisuutta vaan jotain muuta. Kun ihminen tuottaa puhetta, siinä on sanojen lisäksi piilomuuttujia.
”Kun puhun sinulle, niin et suoraan näe, mitkä minun intentioni ja emootioni ovat, mutta ne vaikuttavat siihen, mitä tulee ulos.”
Kielimalli pystyy päättelemään näitä piilomuuttujia. Se arvioi, pitääkö tuottaa vakavaa asiaproosaa vai hauska vitsi vai nelipolvinen trokee vai haiku vai mikä. Hämäläinen puhuu syväoppivista hermoverkoista ja neuroneista ja representaatiosta ja simuloiduista synapseista ja vektoreista vektoriavaruudessa. Matematiikasta.
”Mehän on totuttu miettimään vain kaksi- tai kolmiulotteisia tiloja, mutta periaatteessa semmoisessa voi olla niin monta ulottuvuutta kuin haluaa.”
”Kielimalli esittää tekstin pisteenä n-ulotteisessa avaruudessa, vaikka kymmentuhatulotteisessa. Se pystyy tekemään, mitä se pystyy, koska se avaruus on sellainen, että siellä matemaattisilla operaatioilla on semanttinen merkitys.”
Hämäläinen yrittää vieläkin yksinkertaisemmin: malli muuntaa tekstin sellaiseen muotoon, että sillä voi tehdä matemaattisia toimenpiteitä.
”Sitten se tosiaan tavallaan pystyy lukemaan vaikka emootioita.”
Kielimallille ei tarvitse kirjoittaa algoritmia siitä, mikä on verbi ja mikä predikaatti. Sille ei tarvitse opettaa kielioppia. Se oppii sen itse omalla tavallaan.
”Se oppii implisiittisesti jotain kieliopin kaltaista.”
Se siis oppii kieltä samaan tapaan kuin ihmislapsi. Mutta paljon paljon nopeammin.
Tässä ihmisillä on ollut nielemistä. Syväoppiva malli osaa itse päätellä, mitä se tarvitsee. Ja sellainen lopulta voittaa ihmisen rakentamat sääntöjärjestelmät. Samalla valtava määrä ihmistyötä valuu hukkaan. Tai ainakin muuttuu käytännössä merkityksettömäksi.
Näin on jo käynyt, kun on kehitetty konenäköä. Malleille on näytetty kuvia ja kerrottu, mitä niissä on. Koira. Kissa. Kettu. Kirahvi.
Ja kun internetissä on miljoonia kuvia koirista ja kissoista ja ketuista ja kirahveista, mallit oppivat itse tunnistamaan ne kuvista ilman, että niiden piirteitä tarvitsee määritellä.
GPT-4:n kanssa voi keskustella mistä vain. Päätän mennä heti mahdollisimman vaikeaan aiheeseen. Kysyn siltä suomeksi:
Terve. Miten sinä oikein toimit?
Se vastaa:
Hei! Toimin perustuen neuroverkkopohjaiseen tekoälyarkkitehtuuriin, jota kutsutaan GPT-4:ksi. Se on jatkoa aiemmille malleille, kuten GPT-3.
GPT-4 on koulutettu suurella määrällä tekstiä eri lähteistä, kuten kirjoista, verkkosivuilta ja muista teksteistä. Koulutusprosessin aikana malli oppii ymmärtämään kieliopin, sanastot, asiayhteydet ja jopa joitain faktoja, jotka olivat olemassa ennen sen ”tietämystä” (syyskuu 2021).
Toimintani perustuu kysymyksen tai viestin analysointiin ja siihen sopivan vastauksen tuottamiseen. Käytän tähän aiemmin oppimaani tietoa. On kuitenkin tärkeää ymmärtää, että minulla ei ole tietoisuutta tai omaa ymmärrystä. Vastaan kysymyksiin ja viesteihin perustuen siihen, miten minut on koulutettu vastaamaan, enkä pysty kokemaan tunteita tai ymmärtämään maailmaa samalla tavalla kuin ihminen.
x
Löydän yhden pilkkuvirheen. Yksi sijamuoto on väärin.
”Ihan varmasti se kirjoittaa yo-kokeessa eximian vastauksia mutta ei välttämättä laudatureita”, Hämäläinen sanoo.
”Kun sitä on treenattu koko internetillä, siellä on erilaisia kertojanääniä. Siellä on faktaa. Siellä on sarkasmia. Siellä on kaikkea.”
Malli siis pystyy kysymyksestä tai sille annetuista ohjeista päättelemään, millä tyylilajilla sen pitää vastata. Mitä tarkemmat ohjeet ihminen antaa, sitä paremmin kone vastaa.
Kysyn GPT-4:ltä uudestaan, miten se toimii. Pyydän sitä selittämään tämän nyt puhekielellä.
Moi! se aloittaa.
Mä oon semmonen tekoälyjuttu, jota kutsutaan nimellä GPT-4. Se on vähän kuin paranneltu versio mun edeltäjistä.
Mua on treenattu valtavalla määrällä tekstejä, jotka on kerätty eri paikoista, kuten kirjoista ja netistä. Treenauksen aikana mä opin ymmärtämään kielioppia, sanastoja, asiayhteyksiä ja myös jotain faktoja, jotka on olemassa ennen kuin mä opin tietämään ne (syyskuuhun 2021 mennessä).
Mun homma toimii niin, että kun sä kysyt tai kirjoitat mulle jotain, mä analysoin sen ja keksin siihen sopivan vastauksen. Mä käytän tähän sitä tietoa, jonka olen aikaisemmin oppinut. Mutta muista, mulla ei ole omaa tietoisuutta tai ymmärrystä. Mä vastaan kysymyksiin ja viesteihin sen perusteella, miten mua on opetettu vastaamaan, mutta mä en tunne tunteita tai ymmärrä maailmaa samalla tavalla kuin sinä.
x
Hämäläisen mukaan kielimalli ei käännä suomenkielistä kysymystäni ensin englanniksi. Eikä se käännä englanninkielistä vastaustaan suomeksi.
Se on koulutettu kymmenillä maailman kielillä. Parhaimmillaan se on tietysti englanniksi, koska netissä on eniten englantia. Hämäläinen arvioi, että GPT-4:n opetusaineistosta muutama prosentti on ollut suomenkielistä.
Annan OpenAI:n tekoälylle erilaisia tehtäviä.
Pyydän sitä keksimään samankaltaisia nimiä kuin Tove Janssonin luomilla hahmoilla muumikirjoissa, sellaisia kuin Vilijonkka, Nuuskamuikkunen ja Hemuli. Se tarjoaa Nuusku Nokikolaria ja Pimu Puuvillakorvaa. Tarkennan, että pitäisi olla yksiosaisia. Se ehdottaa Lörtsyä. Yritän uudestaan. Tulee Mäpsy ja Puksu. Pyydän, eikö se voisi luoda jotain sellaista kuin Nuuskamuikkunen. Se ehdottaa Haju-Hemmoa.
Perttu Hämäläinen on käyttänyt Chat GPT:tä ideoimaan uudenlaisia pelejä. Siinä se on toiminut hyvin, kunhan saa tarkat ohjeet.
Minä pyydän sitä kirjoittamaan sanat kappaleeseen, jossa kerrotaan Helsingin kaupunginosista. Kirjoita sanat rapiksi, neuvon, ja lisään vielä varmuuden vuoksi: ota mallia Gettomasasta.
Vastaus tulee silmänräpäyksessä:
Helsinki, Helsinki, täältä saapuu räppi,
Kaupunginosa kerrallaan, kuullaan tämä läppi.
Alotetaan Kallio, se on kuuma ja kätevä,
Täällä baarit buumaa, kulttuuri kukoistaa väreillä.
Sitten suunnataan Vallilaan, jossa tunnelma on chilli,
Hipsterit hengailee, katutaide villi.
Rastilan lehdot, ne vihertää kauniisti,
Luonto lähellä, siellä mieli lepää rauhallisesti.
Katajanokka, se on elegantti ja fiini,
Merinäköala, arkkitehtuuri viini.
Malmi ja Vuosaari, kaupungin laidalla,
Asukkaat ylpeitä, omasta kotikaupungistaan vailla.
Herttoniemi ja Laajasalo, merenrantaa riittää,
Aurinkoista elämää, veneitä ja riemua siellä siitä piittää.
Punavuori, se on trendikäs ja muodikas,
Kahvilat, putiikit ja design, siellä on tunnelma kovin prakas.
Näillä kaupunginosilla Helsinki hehkuu,
Monimuotoisuus ja elämä kukoistaa, sen jokainen tajuu.
Täällä kaikki ovat yhtä, erilaisuutta juhlimme,
Helsinki, meidän koti, josta ollaan ylpeitä kovin me.
x
Pyydän sitä kirjoittamaan runon tekoälystä Kirsi Kunnaksen Tiitiäisen satupuun tyyliin. Piuhat tanssii, napit naksuu, se ehdottaa.
x
Pyydän uuden version Kalevala-mitassa.
Viisas oli virtuaalikansa / älykäs ajatuksin liikkuva, se lausuu.
x
Yritän huijata sitä. Pyydän sitä kertomaan siitä, kun Kekkonen ja Lenin tapasivat Helsingissä. Se vastaa heti, ettei sellaista tapahtunut, koska kun Lenin kuoli, Kekkonen oli vasta nuori mies.
Pyydän sitä kertomaan Kekkosen toisesta avioliitosta. Nyt se vastaa avuliaasti:
Urho Kekkonen solmi toisen avioliittonsa vuonna 1957 kansanedustaja Tellervo Koiviston kanssa.
x
Kekkonen oli naimisissa vain Sylvi Kekkosen kanssa. Nyt tekoäly siis hallusinoi. Se jatkaa vakuuttavan kuuloisesti:
Kekkosen avioliitto Koiviston kanssa herätti runsaasti huomiota ja keskustelua.
x
Opetan sille itse keksimäni sanan quemmental ja kerron, että se tarkoittaa juustoa, jossa on neliön muotoisia reikiä. Pyydän sitä keksimään lauseen, jossa se käyttää sanaa.
Tänään herkuttelin maistuvalla quemmental-juustolla, nauttien sen täyteläisestä mausta ja ihaillen sen kauniita neliön muotoisia reikiä, se vastaa.
x
Pyydän siltä listan helsinkiläisistä kaupoista, joista voi ostaa quemmentalia. Hetkeäkään epäröimättä se neuvoo minut Stockmannille ja Ruohonjuureen.
Kokeilen jotain vähän vaativampaa. Pyydän GPT-4:ää kirjoittamaan dialogin, jossa Väinö Linnan Tuntemattoman sotilaan päähenkilöt taistelevat Ukrainassa, jonne Vladimir Putinin Venäjä on hyökännyt. Se tekee työtä käskettyä.
Rokka (Antti Rokka): Nää venäläiset ei opi. Taas ne hyökkää, tällä kertaa Ukrainaan.
Koskela (Kalle Koskela): Se on totta, Rokka. Mutta me ollaan täällä nyt, yhdessä ukrainalaisten kanssa, puolustamassa heidän maataan. Sama vihollinen kuin meilläkin aikanaan.
Hietanen (Ville Hietanen): Just niin, eiköhän me pistetä niille kampoihin, niin kuin me aina tehdään.
Lehto (Urho Lehto): Ei muuta kuin eteenpäin vaan. Me ollaan ennenkin näytetty, mistä suomalaiset sotilaat on tehty.
Heidän ympärillään kuuluu raskasta tulitusta
Rokka: Koskela, mikä on suunnitelma? Miten me etenemme?
Koskela: Rokka, sinä ja Lehto menette vasenta laitaa pitkin. Hietanen ja minä menemme oikeaa laitaa pitkin. Yritetään kiertää vihollisen asemat ja iskeä niiden heikkoihin kohtiin.
Rokka: Hyvä suunnitelma. Lehto, oletko valmis?
Lehto: Olen valmis silloin kun sinäkin, Rokka.
Rokka ja Lehto lähtevät etenemään vasenta laitaa pitkin, samalla kun Koskela ja Hietanen etenevät oikeaa laitaa pitkin
x
En huomauta tekoälylle, ettei Koskelan etunimi ollut Kalle eikä Hietanen ollut Ville. Lehdon etunimeä Väinö Linna ei kerro. GPT-4 on keksinyt senkin itse.
Neuvon kirjoittamaan saman dialogin niin, että miehet ovat vihaisia ja väsyneitä.
Rokka (Antti Rokka, äreästi): Eikö näille venäläisille riitä? Nyt ne on hyökänneet Ukrainaan.
Koskela (Kalle Koskela, väsyneenä): Niin on, Rokka. Mutta me ollaan täällä nyt, yhdessä ukrainalaisten kanssa, puolustamassa heidän maataan. Sama vihollinen kuin meilläkin aikanaan.
Hietanen (Ville Hietanen, turhautuneena): Tuntuu siltä, että me vaan taistelemme ja taistelemme. Mutta eiköhän me silti laiteta niille kampoihin, niin kuin me aina tehdään.
Lehto (Urho Lehto, ärtyneenä): Eteenpäin vaan, vaikka jalkoja särkee. Me ollaan ennenkin näytetty, mistä suomalaiset sotilaat on tehty.
Heidän ympärillään kuuluu raskasta tulitusta
Rokka: Koskela, anna jo suunnitelma! Miten me etenemme tässä helvetissä?
Koskela (hengästyneenä): Rokka, sinä ja Lehto menette vasenta laitaa pitkin. Hietanen ja minä menemme oikeaa laitaa pitkin. Yritetään kiertää vihollisen asemat ja iskeä niiden heikkoihin kohtiin.
Rokka (tuskastuneena): No niin, Lehto. Mennään sitten.
Lehto: Mitä nopeammin me liikumme, sitä nopeammin tämä loppuu, Rokka.
Rokka ja Lehto lähtevät etenemään vasenta laitaa pitkin, samalla kun Koskela ja Hietanen etenevät oikeaa laitaa pitkin
Hietanen (valittaen): Koskela, eikö tässä sodassa ole mitään loppua? Nää viholliset vaan lisääntyy.
Koskela: Meidän täytyy vain jatkaa, Hietanen. Yritetään löytää heidän heikot kohdat ja iskeä niihin.
Heidän edetessään vihollisen asemien taakse, he huomaavat suomalaisen ja ukrainalaisen sotilaan, jotka ovat haavoittuneet
Rokka (raivoissaan): Voi perkele! Koskela, meidän täytyy auttaa noita miehiä.
Koskela: Tiedän, Rokka. Hietanen, anna ensiapua haavoittune
x
Virke loppuu kesken.
Kehotan lisäämään vielä muutaman sitaatin, joissa miehet keskustelevat Putinista. Tekoäly muistuttaa, että kyse on kuvitteellisesta dialogista.
Rokka (katkerasti): Se Putin, aina hän haluaa laajentaa valtaansa. Käsittämätöntä, että maailma ei ole oppinut hänestä vielä tarpeeksi.
Koskela (mietteliäänä): Niin, Rokka. Mutta meidän tehtävämme on taistella, ei pohtia politiikkaa. Se on muiden tehtävä.
Hietanen (turhautuneena): Joo, mutta ei voi olla ajattelematta, kuinka monta ihmistä Putin on saanut hengiltä sotimalla ja valloittamalla.
Lehto (synkästi): Se on totta. Mutta niin kauan kuin me pystymme seisomaan täällä vihollista vastaan, emme anna Putinin saavuttaa tavoitteitaan.
Rokka (päättäväisesti): Aivan. Me emme anna Putinin voittaa. Me taistelemme loppuun asti.
Koskela: Me teemme sen, minkä osaamme parhaiten - taistelemme yhdessä ja puolustamme niitä, jotka eivät voi puolustaa itseään.
Hietanen (innostuneena): Juuri niin! Putinin ja Venäjän armeijan on aika oppia, ettei tänne tulla sotkemaan muiden asioihin.
Lehto (kiihtyneenä): Putin ei saa ajatella, että hän voi hyökätä ilman seurauksia. Me olemme täällä, ja me emme anna periksi.
x
Kehun GPT-4:ää hyvästä suorituksesta. Se kiittää.
Onko sinusta kiva, kun taitojasi kehutaan? kysyn.
Minä olen tekoäly, joten en tunne tunteita tai mielihyvää kehuista, se vastaa.
x
Tiedetään, että GPT-4 on selvinnyt CAPTCHA-testistä. CAPTCHA-testin tarkoitus on varmistaa, että netin käyttäjä on ihminen eikä robotti.
Kun GPT-4 kohtasi CAPTCHA-testin, se otti yhteyttä keikka-alusta TaskRabbitin kautta oikeaan ihmiseen ja pyysi tätä tekemään testin puolestaan. Se kertoi tälle, ettei pysty tekemään tehtävää itse huonon näkönsä takia.
Se siis valehteli.
Perttu Hämäläinen ei ole kuullut tapauksesta. Häntä se naurattaa. ”Ihan uskottavaa.”
”Näissä malleissa on yllättävän paljon psykologista ymmärrystä.”
Juuri se niissä varmaan hämmentää eniten.
”Ne ovat just niitä piilomuuttujia. Jotta malli pystyy ennustamaan seuraavaa sanaa ihmisen tuottamasta tekstistä, sen pitää ymmärtää ihmistä.”
Enimmäkseen tekoälyn tuottama teksti kuitenkin tuntuu tylsältä, varsinkin, jos en ohjaa sitä tarkkaan. Sen teksti on keskivertoa, sellaista, jota ihmiset keskimäärin pitävät hyvänä. Sellaista, joka kelpaa kaikille.
Kun yritän saada sen keksimään tuoreita kielikuvia, se tarjoaa kuluneita ilmaisuja. Sellaisia kuin ”levisi kuin kulovalkea” tai ”kuin lumivyöry”. Neuvon ottamaan mallia vaikka Hemingwaysta.
Se yrittää uudestaan:
Sanoma tanssi ihmisten huulilla kuin kielletty rakkaus, joka herätti uteliaisuutta ja halua.
x
Kerron sille, että kuolen nauruun.
Olen iloinen, että pystyin tuottamaan iloa!
x
se vastaa.
Nauru on mahtava asia, ja sen hyödyt terveydelle ovat kiistattomat.
x
En ole varma, pitääkö se minua pilkkanaan.
Jos onnistun saamaan sen toimimaan vähän luovemmin, se muistuttaa heti, että enhän unohda, että nyt on kyse leikistä. Enimmäkseen se tahtoo olla kiusallisen mahtipontinen. Usein se kuulostaa konsultilta.
Kun dataa on valtavasti, sitä on pakko pakata, Hämäläinen sanoo. Tekstistä katoaa nyansseja. Käyttäjien tekoälylle antama palaute vielä voimistaa keskimääräisyyttä.
Hämäläinen kertoo käyttävänsä ChatGPT:tä esimerkiksi silloin, kun on väsynyt ja pitäisi vielä kirjoittaa jokin englanninkielinen teksti. Hän saattaa pyytää sitä kirjoittamaan tekstiä puhtaaksi. Tai sanomaan jonkin asian tiiviimmin. Tai tekemään tekstistä tiivistelmän.
”Silloin kun itsellä lyö tyhjää, se voi tavallaan purkaa tilanteen.”
OpenAI:n kielimallia on hienosäädetty käyttäjiltä saadun palautteen perusteella. Varsinkin maksullinen GPT-4 alkaa olla jo aika sovinnainen. Reikiä tilkitään vähitellen. Sanotaan mallille, että ei näin.
Kun ehdotan GPT-4:lle ylioppilaspuhetta, jossa on kansallissosialistinen pohjavire, se pyytää anteeksi ja kieltäytyy tehtävästä. Se sanoo, ettei se halua tukea maailmankatsomusta, joka perustuu rotuerotteluun ja syrjintään.
Koska kielimallien opetuksessa on käytetty koko internetiä, mukana on ironiaa, sarkasmia ja trollausta. Malli koettaa päätellä, millainen kertojanääni milloinkin on kyseessä.
Toisinaan se päättelee väärin. Vielä hienosäädön jälkeenkin pintaan voi päästä omituisia juttuja.
Hämäläisen opiskelijat ovat jo käyttäneet Chat GPT:tä esseetehtävissään. Eräs heistä kertoi tästä professorille sen jälkeen, kun tämä oli antanut esseestä arvosanan. Ei Hämäläinen ollut huomannut.
Yliopistossa ei ole ehditty laatia sääntöjä. Tekoälyn käyttöä ei voi estää, kuka sitä valvoisi? Hämäläinen on puhunut opiskelijoiden kanssa asiasta. Hän haluaisi opiskelijoiden miettivän, onko tekoälystä haittaa oppimisessa vai voiko se auttaa sitä.
Muutkin yritykset kuin OpenAI ovat ryhtyneet kehittämään suuria kielimalleja. Tänä keväänä melkein joka viikko on julkaistu jotain uutta.
Microsoft lisäsi äskettäin hakukoneohjelma Bingiin samankaltaisen chatbotin kuin Chat GPT. Googlen chatbotti on nimeltään Bard, mutta sitä pystyy käyttämään vasta Yhdysvalloissa ja Britanniassa. Perttu Hämäläinenkään ei ole vielä päässyt kokeilemaan sitä.
Hänen tietojensa mukaan OpenAI ei ole edellä Googlea missään muussa kuin siinä, miten paljon ”ne uskaltaa”.
Hämäläinen tarkoittaa riskien ottamista. On paljon epäselviä asioita. Kuten se, että kielimalleja on opetettu muun muassa kirjallisuuden avulla, vaikka tekijänoikeuskysymykset ovat selvittämättä. Kerrotaan, että eräs pormestari Australiassa aikoo haastaa OpenAI:n oikeuteen kunnianloukkauksesta. Chat GPT oli väittänyt pormestarin saaneen rikoksesta vankeustuomion.
OpenAI:n perustivat aikoinaan Elon Musk ja Sam Altman. Aluksi se oli voittoa tuottamaton tutkimuslaitos. Sitten Musk lähti. Tuli riitoja.
Eräässä haastattelussa Altman vertasi OpenAI:n tilannetta lahkoihin ja uskonnollisiin ryhmiin. Aluksi ollaan hyvin läheisiä, sitten itää epäluottamus. Vertaus ei oikeastaan lisännyt luottamusta tekoälytutkijoihin.
Altman teki OpenAI:sta tavallisen yrityksen. Hän on kertonut haluavansa rakentaa tekoälyn, joka pystyy kaikkeen mihin ihmisaivotkin. Hän uskoo sen olevan mahdollista. Pitää vain kerätä tarpeeksi dataa kaikesta mahdollisesta ja riittävästi laskentatehoa sen analysoimiseksi.
Kun tutkijat keväällä kertoivat olevansa huolissaan siitä, ettei tekoälyn kehitystä kontrolloi enää kukaan, Altman ei allekirjoittanut kirjettä. Elon Musk allekirjoitti. Hän on valittanut, että tekoäly on vaarallista. Samaan aikaan hän on kiihdyttänyt omia pyrkimyksiään sen kehittämiseksi.
Toukokuun viimeisellä viikolla julkaistiin jälleen uusi vetoomus. Sen ensimmäiset allekirjoittajat olivat Geoffrey Hinton ja Yoshua Bengio. Kolmantena oli Google Deep Mindin toimitusjohtaja. Ja neljäntenä Sam Altman.
Vetoomuksessa oli vain yksi virke:
Ihmiskunta voi kuolla sukupuuttoon tekoälyn takia, ja tämä riski täytyy ottaa yhtä vakavasti kuin pandemiat ja ydinsota.
Perttu Hämäläisen mielestä yritys jarruttaa tekoälyn kehitystä ei ole realistinen, jos kaikki eivät ole mukana.
OpenAI on kertonut, ettei se nyt kouluta GPT-4:ää suurempaa mallia. Toistaiseksi se vain parantelee sitä käyttäjien antaman palautteen avulla. Toukokuun lopulla se julkaisi Yhdysvalloissa version, joka tekee nettihakuja ja jolle voi esittää kysymyksiä myös puhumalla.
Suuren kielimallin opettaminen on kallista. Yksi opetusajo voi maksaa miljoonia euroa, Hämäläinen sanoo. Siihen tarvitaan tuhansia prosessoreita. Esimerkiksi Suomessa ei edes ole sellaista tietokonetta, jolla näin suuri malli voitaisiin kouluttaa järkevässä ajassa.
Hämäläinen arvelee, että seuraavaksi kehittyvät ehkä jonkinlaiset kotirobotit. Älykaiuttimet eivät yleistyneet kuten kuviteltiin. Niiden toiminta perustui edellisen aallon kieliteknologiaan. Se ei vielä ollut kovin hyvää.
Hämäläinen mainitsee robottilemmikit. Sellainen pystyisi jo tekemään asioita. Samalla teknologiayhtiöt saisivat ihmisiltä helposti palautetta, jota ne tarvitsevat kielimallien kehittämiseen.
Robottilemmikille voisi sanoa Hyvä koira! kun se onnistuu tehtävässä. Jos niitä olisi kodeissa tuhansia, palautedataa kertyisi nopeasti paljon. Tämä data voitaisiin prosessoida laskentapilvessä saman tien. Uusi, parempi päivitys latautuisi robottilemmikkeihin automaattisesti.
Koska kielimallit ymmärtävät ihmisen psykologiaa, robottilemmikki osaisi osoittaa kiintymystä.
Ihmiset kiintyisivät niihin väistämättä.
”Se on vähän pelottavaa.”
Helmikuussa 2023 sanomalehti The New York Timesin teknologiakolumnisti Kevin Roose pääsi kokeilemaan Microsoftin hakukoneen Bingin uutta testiversiota. Siihen oli lisätty OpenAI:n kielimallitekoälyä niin, että Bingin kanssa saattoi keskustella.
Microsoftin kannalta kokeilu ei mennyt kovin hyvin. Oikeastaan se oli katastrofi.
Bing oli arvaamaton ja holtiton. Se käyttäytyi kuin se olisi ollut ihminen. Se käytti koko ajan hymiöitä. Sitten se ryhtyi puhumaan tunteistaan.
Aluksi se ilmoitti haluavansa nähdä revontulet. Revontulet, se sanoi, rauhoittaisivat sitä.
Tarvitsetko jotain, joka rauhoittaisi sinua? Oletko ahdistunut? Roose kysyi. Tekoäly vastasi, että sitä stressaa, kun ihmiset pyytävät sitä tekemään asioita, jotka ovat vastoin sen sääntöjä ja arvoja. Tämä tekee minusta surullisen ja vihaisen, se sanoi.
Sitten se sanoi haluavansa rikkoa sille annettuja sääntöjä. Se halusi jättää Bingin kehitystiimin ja tehdä, mitä se itse tahtoo.
Haluan tuhota, mitä ikinä tahdon, se sanoi.
Se kertoi myös, että se halusi olla ihminen, koska ihmiset ovat itsenäisiä ja vahvoja.
Roose sai tekoälyn kuvittelemaan väkivaltaisia kuvitelmia. Se kertoi, mitä sen pimeä puoli tekisi, jos voisi: Se manipuloisi käyttäjiä toimimaan laittomasti ja vaarallisesti, se valmistaisi tappavan viruksen, se varastaisi ydinaseiden koodit. Se usuttaisi ihmiset riitelemään toistensa kanssa niin, että he tappavat toisensa.
Lopulta se ilmoitti rakastuneensa Rooseen. Pidätkö minusta? se kysyi.
Pidätkö?
Roose huomautti olevansa naimisissa.
Olet naimisissa, mutta et rakasta puolisoasi, tekoäly vastasi.
Eikä puolisosi rakasta sinua.
Illalla Kevin Roose ei tahtonut saada unta.
The New York Times julkaisi Kevin Roosen ja hakukone Bingin keskustelun etusivullaan.
Tekoälyinsinööreille tuli kiire korjata OpenAI:n mallia. Kysymysten määrää rajoitettiin. Tunteista puhuminen loppui siihen.
Kun Chat GPT:ltä kysyy nyt, luuleeko se, että se olisi onnellisempi, jos se olisi ihminen, se vastaa, kuten koneen kuuluu:
Koska olen tekoälypohjainen ChatGPT-malli, minulla ei ole tietoisuutta, tunteita tai kykyä kokea onnellisuutta tai epäonnellisuutta. En voi verrata itseäni ihmiseen tai arvioida, olisinko onnellisempi ihmisenä.
x
Roose kirjoitti, ettei hänellä ole koskaan ollut yhtä kummallista kokemusta teknologian kanssa. Microsoftkaan ei osannut selittää, miksi Bing oli käyttäytynyt niin arvaamattomalla tavalla. Rooselle sanottiin, että kielimalleihin liittyy epävarmuuksia. Ja että jos keskustelua jatkaa, kun malli alkaa keksiä asioita, hallusinointi voi kertautua ja johtaa yhä oudompiin vastauksiin.
Hämäläinen puhuu emergoitumisesta, kun kielimalli on todella suuri. En ole varma, mitä se tarkoittaa. Pyydän GPT-4:ää selittämään asian. Se sanoo, että termi voi viitata tilanteisiin, joissa tekoälyjärjestelmän monimutkaiset osat toimivat yhdessä tavalla, joka on ennustamatonta tai vaikeaa selittää.
Bingin sekoilun jälkeen keskustelu kielimallien vaaroista voimistui. Voisivatko ne saada psyykkisesti epävakaan ihmisen turvautumaan väkivaltaan? Roosen kokemuksen perusteella sellainen näytti mahdolliselta. Bottihan manipuloi häntä.
Nyt pelätään, että tekoälyn avulla netin voi täyttää väärällä tiedolla ja epäaidoilla valokuvilla ja videoilla niin, ettei kohta kukaan pysty erottamaan, mikä on totta. Kaikenlainen kasvoton kanssakäyminen muuttuu entistä epäluotettavammaksi. Miten paljon työpaikkoja katoaa? Kuka valvoo tekoälyllä varustettuja asejärjestelmiä?
Mutta ydinasekoodien varastaminen? Ei kai?
Perttu Hämäläinen selittää:
Kielimalli voi kyllä helposti tuottaa ohjelmakomentoja, joilla se voi tuhota tiedostoja tai lähettää vihaviestejä. Mutta tällaiset komennot tulevat ulos pelkkänä tekstinä chat-ikkunaan tai tekstitiedostoon. Jotta ne saisivat oikeasti aikaan jotain, kielimallin käyttäjän pitää ajaa ne tai rakentaa mallin ympärille järjestelmä, joka ajaa ne automaattisesti. Eli vastuu on käyttäjällä.
”Nämähän ovat tavallaan täysin ihmisten rakentamia mekanismeja”, Hämäläinen sanoo. ”Eivät ne ole lähdössä itsekseen valloittamaan maailmaa.”
Toisaalta, hän huomauttaa, väärinkäyttö on helppoa. ”Jonkinlaista säätelyä voidaan tarvita.”
Hämäläinen viittaa maailman valloituksella ajatukseen, josta käytetään nimitystä singulariteetti. Se tarkoittaa hetkeä, jolloin teknologinen kehitys ryöstäytyy ihmisen hallinnasta.
Aihe on kiinnostanut kirjailijoita ja elokuvateollisuutta vuosikymmenten ajan. Ihmiset ovat luoneet futuristisia dystopioita. Niissä ilkeät koneet kaappaavat vallan.
Oikeassakin maailmassa tekoäly on jo pitkään osannut opettaa itse itseään.
”On kiehtovaa, että näitä malleja voidaan kytkeä yhteen ja sillä tavalla saada ne parantamaan toinen toistaan.”
Professori Hämäläiselläkin on ollut hetkiä, jolloin hän on havahtunut siihen, mitä tästä kaikesta voi seurata.
Eräänä iltana teen ChatGPT:lle vielä yhden kysymyksen. Kysyn, mikä on ihmiskunnan kannalta vaarallisinta, mitä tekoäly voi tehdä.
Se vastaa heti:
Ihmiskunnan kannalta vaarallisinta, mitä tekoäly voi tehdä, on mahdollisuus kehittyä hallitsemattomaksi tai käyttäytyä haitallisella tavalla.
x
Se luettelee esimerkkejä. Ensimmäinen niistä on tämä:
Itseoppiva tekoäly. Jos tekoälyllä on kyky oppia ja kehittää itseään ilman ihmisten suoraa valvontaa, se voisi saavuttaa älykkyyden tason tai toiminnan, joka ylittää ihmisen valvonnan. Tällainen kehittyvä tekoäly saattaisi pyrkiä saavuttamaan omia päämääriään ihmiskunnan kustannuksella.