-
Asiantuntija varoittaa: Tekoäly tekee huijauksista laadukkaampia
Tietoturvaan keskittyvän D-Fence Oy:n perustaja Juha Oravala on huomannut, miten tekoäly on parantanut selvästi erilaisten kalasteluviestien laatua etenkin niiden kirjoitusasun osalta.
– Kalasteluviestien laatu on parantunut viimeisen puolen vuoden aikana merkittävästi. Laatu koheni samaan aikaan kun ChatGPT:n ensimmäinen versio julkaistiin viime huhtikuussa, Juha Oravala sanoo.
Hän kirjoittaa parhaillaan Ari Andreassonin ja Marianna Toivosen kanssa Tietosuoja ja yksityisyys -kirjan, jossa pureudutaan myös tekoälyn tuomiin haasteisiin lähinnä sen osalta, kuka vastaa, jos tekoäly jossain vaiheessa tekee itsenäisiä päätöksiä.
Kalasteluviestien ohella myös väärennettyjen sivustojen laatu on parantunut Oravalan mukaan selvästi. Tämä näkyi hänen mukaansa äskettäisessä Omakanta-huijauksessa, jonka tietokirjailija Petteri Järvinen nosti esille Twitterissä.
Kaikissa tapauksissa tekoälyä ei tarvita parantamaan kielen laatua. Oravala on pannut merkille, että joissakin tapauksissa huijaukset kohdistetaan niihin, jotka eivät puhu suomea äidinkielenään. Näissä huijausviesteissä kieliasu on tarkoituksella puutteellinen.
Rikolliset edellä tekoälyn hyödyntämisessä
Tekoälystä odotetaan jatkossa apua tekoälyn luomien huijausviestien tunnistamiseen. Oravalan mukaan loppukäyttäjä on kuitenkin vastedeskin heikoin lenkki.
– Loppukäyttäjän osaamista ei voi paikata millään teknologialla. Jatkossa kiinnostava kysymys on, että kun tekoälyn tekemä sisältö on yhtä laadukasta kuin ihmisen tekemä, miten tekoäly enää osaa erottaa ne toisistaan ja varoittaa huijauksista. Siksi tekoälyä voidaan mielestäni hyödyntää rikollisten näkökulmasta paremmin kuin suojauksen näkökulmasta.
Oravalan mukaan yhteiskunnat ovat tällä hetkellä valtaisan murroksen keskellä.
– Joka päivä tekoäly etenee valtavalla vauhdilla eteenpäin. Se on suurin asia Internetin tulon jälkeen. Emme vielä ymmärrä, mitä kaikkea se tulee merkitsemään.
– Se, mistä mielestäni kannattaa olla huolissaan on se, miten tekoälyä aletaan hyödyntää päätöksissä, jotka vaikuttavat ihmisiin. Nykyisessä GDPR:ssä (EU:n tietosuojalainsäädäntö) on säädetty, että niin ei saisi tehdä. Houkutus on kuitenkin iso.
Tietosuojalainsäädännön mukaan koneellinen ihmistä koskeva päätöksenteko on mahdollista, jos ihminen hoitaa jonkin osan päätöksenteon vaiheista. Rajojen vetäminen tämän osalta on Oravalan mukaan epäselvää tekoälyn yleistyessä. Hänen mukaansa EU:lta on tulossa tekoälyä koskeva lainsäädäntö.
Kirjoittaja