hs.fi - 2000009717668 - Maksumuuri poistettu
- 📅 2023-07-20T07:56:56.018Z
- 👁️ 131 katselukertaa
- 🔓 Julkinen
Tietoturva-asiantuntija Mikko Hyppösen sähköpostiin saapui viesti 2. maaliskuuta klo 23.54.
Otsikkokentässä luki ”Small little project”.
Hyppönen avasi sähköpostin. Viestin lähettäjäksi oli merkitty nimi Thomas Sperl. Kyseessä on nimimerkki. Sama henkilö käyttää myös kirjainlyhennettä SPTH. Henkilön oikeaa henkilöllisyyttä ei ole tiedossa, mutta hänen ”pienet” ja erikoiset projektinsa ovat Hyppöselle tuttuja.
Aikaisemmin SPTH on muun muassa kehitellyt haittaohjelman, joka voidaan ujuttaa DNA:han. DNA on koodia siinä missä tietokoneohjelma. Nykyteknologialla DNA:ta voidaan tulostaa. Se tarkoittaa, että haittaohjelma voitaisiin periaatteessa ujuttavaa osaksi ihmisen perimää.
”Kuulostaa tosi huonolta idealta”. Hyppönen kommentoi juuri kertomaansa.
Sitten Hyppönen kommentoi SPTH:n tuoreinta viestiä.
Se on niin ikään ”tosi huono idea.”
Tuoreimmasta SPTH:n sähköpostista käy nopeasti ilmi, että lähettäjä on rakentanut uudenlaisen tietokonesyöpäläisen. Tarkalleen ottaen hän on hyödyntänyt tietokoneautomaation uusinta aaltoa eli suurta tilastollista kielimallia – siis juuri sitä, jota kansankielellä kutustaan tekoälyksi.
Haittaohjelma hyödyntää Chat GPT:n kaltaista kielimallia, jonka ansiosta ohjelma voi muuttaa muotoaan. Se voi olla joka kerta erinäköinen.
Haittaohjelman taustalla on perinteinen Python-ohjelmointikieleen perustuva tietokonevirus. Se poikkeaa perinteisistä haittaohjelmista siten, että ohjelma ei levitä samaa koodia kohteisiinsa vaan pyytää GPT-kielimallin avulla muokkaamaan funktion toteuttavaa koodia uudelleen. Se on ikään kuin tietokoneeseen iskevä koronavirus, joka mutatoituu jokaisen tartunnan yhteydessä niin, että koronatesti ei tunnista sitä.
Hyppösen mukaan oikeastaan kaikki nykyiset haittaohjelmat ovat ihmisen käsin koodaamia. Suuret kielimallit voivat helpottaa tietorikollisten työtä siinä missä ne auttavat tavallista koodaria työtehtävissä.
Tietoturvayhtiö Withsecuren (joka syntyi vuonna 2022 F-Securen jakautuessa kahteen eri yhtiöön) tutkimusjohtaja Hyppösen mukaan suuret kielimallit toimivat yhtä lailla hyvään kuin pahaan. Jos Chat GPT:n, Bardin tai Clauden kaltainen suuri kielimalli voi olla loistava sparraamaan yläkouluikäistä fysiikan tai kemian tehtävissä, samalla tavalla kielimalli voi auttaa terroristia tekemään pommeja.
Suurten kielimallien kehittävät voivat toki rajata tietyt käyttötarkoitukset pois tarjoamistaan työkaluista. Juuri samasta syystä Hyppönen näkee fiksuna, että kielimalleja kehittävät ja hallinnoivat vastuulliset tahot. Silti verkkorikollisille kielimallit tarjoavat mielenkiintoisia mahdollisuuksia. Niistä SPTH:n esittämä, koodia muovaava malli voi mullistaa koko verkkorikollismaailman toimintamallit ja voimasuhteet.
Hyppönen vertaa kamppailua verkkorikollisten kanssa pöytätennisotteluun. Yhdellä puolella ovat järjestäytyneet verkkorikollisjengit ja toisella puolella tietoturvaa kehittävät yhtiöt. Viimeiset vuodet rikolliset ovat tehtailleet erilaisia haittaohjelmia käsin, kun taas tietoturvayhtiöt ovat pyrkineet koneoppimisen avulla tunnistamaan niitä. Withsecure on Hyppösen mukaan käyttänyt koneoppimista jo kahdeksantoista vuotta, vaikka ei olekaan kutsunut sitä tekoälyksi yhtä aikaisin kuin yhdysvaltalaiset kilpailijat.
Kun yhdellä puolella pingispöytää on ihminen ja toisella puolella on edistynyt ja väsymätön robotti, voi lopputuloksen arvata.
”Robotti lyö kovempaa ja nopeammin”, Hyppönen sanoo.
”Mutta mitä kohta tapahtuu, niin nämä kehittyneimmät verkkorikollisjengit automatisoivat toimintaansa.”
Ensimmäinen esimerkki haittaohjelmien automaation mahdollisuuksista oli SPTH:n kehittämä troijalainen.
SPTH ei kuitenkaan ole verkkorikollinen vaan eräänlainen nettiajan aktivisti, joka ei yritä hyötyä kehittämillään haittaohjelmilla. Niiden tarkoitus lienee esittää mahdolliset uhkat ennen kuin ne päätyvät vääriin käsiin. Tekoälyä hyödyntävää troijalaista ei ole vielä tavattu kertaakaan villinä.
Nettihuijarien työkalupakkiin kuuluvat myös haittaohjelmia yksinkertaisemmat huijauskeinot. He saattavat levittää aidon oloista materiaalia sosiaalisessa mediassa. Hyppönen kaivaa esiin tuoreen Twitterissä levinneen videon, jossa Elon Musk kehotti sijoittamaan kryptovaluuttoihin. Kyseessä oli tietokoneella luotu syväväärennös. Musk vaikutti videolla silti suhteellisen aidolta.
Sosiaalisessa mediassa on levinnyt myös lukuisia muita väärennettyjä kuvia ja videoita. Välillä valekuvilla ei ole muuta tarkoitusta kuin hämmentää, mutta toisinaan niiden levittäjillä voi olla taustalla myös selkeät motiivit.
Tänä vuonna Twitterissä levisi muun muassa kuva, jossa väitettiin, että Yhdysvaltain puolustusvoimien hallintorakennus Pentagonissa on räjähtänyt. Samalla hetkellä yhdysvaltalaisten yhtiöiden pörssikursseissa nähtiin notkahdus, vaikka kyseessä oli valeuutinen. Ja silloin voi aina tehdä rahaa, jos tietää ennalta pörssin liikkeet.
Tekoäly automatisoi Hyppösen mukaan myös huijarien sähköpostiviestit. Suurten kielimallien ansiosta lunnastroijalaisia levittäviä sähköposteja on entistä helpompi tehtailla. Perinteisesti tietorikolliset ovat kirjoittaneet käsin viestejä ja lähettäneet niitä kohteilleen. Sähköpostiohjelmien on kuitenkin suhteellisen helppo tunnistaa haittaviestit ja luokitella ne vaarallisiksi.
Tulevaisuudessa jokaista viestiä voidaan varioida, mikä tekee roskapostien ja huijausviestien tunnistamisesta entistä vaikeampaa.
Samalla tavoin myös toimitusjohtajahuijaukset voivat yleistyä, koska kielimallit osaavat kirjoittaa sujuvampaa kieltä. Toimitusjohtajahuijauksessa rikollinen esiintyy yrityksen johtotason henkilönä ja pyytää tavallista työntekijää tekemään jonkun toimenpiteen hänen puolestaan.
Hyppönen toteaa, että suuret kielimallit mahdollistavat jo olemassa olevien rikoskeinojen hyödyntämisen entistä laajemmassa mittakaavassa.
Toimitusjohtajien lisäksi rakkaudennälkäiset ovat huijareille otollisia uhreja.
Nykyisin lähes puolet parisuhteista alkaa netissä – ainakin länsimaissa. Se tarkoittaa, että romanssihuijausten markkinat ovat varsin isot. Romanssihuijauksia tehdään usein valeidentiteetillä mutta joskus jopa omilla kasvoilla. Tyypillisesti tavoitteena on saada ihastunut deittikumppani lainaamaan tai antamaan rahaa vaikkapa matkalippujen ostamiseen tai johonkin muuhun epämääräisempään.
Kielimallien avulla deittiohjelmissa voi olla hauska, nokkela, terävä ja mielenkiintoinen. Henkilö voi myös luoda deittiprofiilinsa kuvat tekoälyllä, vaikka deittisovellukset pyrkivätkin estämään väärien kuvien käyttöä tunnistamalla käyttäjiä.
Hyppönen toteaa romanssihuijausten olevan erityisen ikäviä siksi, että uhrit eivät menetä vain rahojaan vaan myös ihastuksensa kohteen.
Samaan aikaan kun suurten kielimallien käyttö on yleistynyt, on tarjolle tullut ohjelmia, jotka pyrkivät tunnistamaan tekoälyn tuottamaa tekstiä. Ne toimivat toistaiseksi kovin huonosti. Ohjelmat ovat saattaneet todeta esimerkiksi raamatusta otettuja katkelmia tekoälyn tuottamiksi. Käytännössä ei siis ole vedenpitävää keinoa enää sanoa, mikä teksti on tekoälyn luomaa ja mikä ei.
Hyppösen mukaan jonkinlainen vesileima-tekniikka voisi tulla avuksi. Toki tekstille vedenpitävää vesileimatekniikkaa saattaa olla hyvin hankala luoda, mutta pitkiin teksteihin sellainen voitaisiin kehittää ainakin jossain määrin toimivaksi. Silloin kone loisi tekstiin tietyn algoritmin avulla merkkejä, joita ihminen ei lukiessaan huomaa. Kone voisi tunnistaa tietyistä tekstissä käytetyistä merkeistä, että kyseessä on tekoälyn luoma teksti.
Mutta koska tapaa tekoälyn luoman tekstin tunnistamiseen ei toistaiseksi ole, antaa Hyppönen helpon neuvon, joka ainakin toistaiseksi toimii. Nettideitin kanssa kannattaa nopeasti ottaa videopuhelu. Ainakaan vielä videopuhelua ei pystytä täysin väärentämään. Laskentatehon kasvaessa se voi toki kohta olla mahdollista.
Toinen Hyppösen neuvo on, että ei kannata sokeasti luottaa ainakaan sellaisiin asioihin, jotka vaikuttavat liian hyvältä ollakseen totta. Neuvo pätee niin tekstiin, kuviin, ääneen kuin videoihin.
”Suomi on ollut maa, jossa on voinut luottaa. Mutta emme elä enää vain Suomessa vaan internetissä.”