Mielipide - Valtion tutkimusorganisaation CSIRO:n mukaan generatiivisen tekoälyteollisuuden arvo on noin 22 biljoonaa dollaria vuoteen 2030 mennessä.

Nämä järjestelmät - joista ChatGPT on tällä hetkellä tunnetuin - voivat kirjoittaa esseitä ja koodia, luoda musiikkia ja taideteoksia sekä käydä kokonaisia keskusteluja. Mutta mitä tapahtuu, kun niitä käytetään laittomiin tarkoituksiin?

Viime viikolla suoratoistoyhteisöä järkytti otsikko, joka liittyy generatiivisen tekoälyn väärinkäyttöön. Suosittu Twitch-striimaaja Atrioc julkaisi anteeksipyyntövideon kyynelsilmin jäätyään kiinni pornon katselusta, jossa oli muiden naispuolisten striimaajien päällekkäiset kasvot.

Julkkiksen pään photoshoppaamiseen pornonäyttelijän vartaloon tarvittava "deepfake"-teknologia on ollut käytössä jo jonkin aikaa, mutta viimeaikaiset edistysaskeleet ovat tehneet sen havaitsemisesta paljon vaikeampaa.

Ja tämä on jäävuoren huippu. Väärissä käsissä generatiivinen tekoäly voi aiheuttaa mittaamatonta vahinkoa. Meillä on paljon menetettävää, jos lait ja sääntely eivät pysy perässä.

Ristiriidasta suoranaiseen rikokseen

Viime kuussa generatiivinen tekoälysovellus Lensa joutui arvostelun kohteeksi, koska sen järjestelmä pystyi luomaan täysin alastomia ja hyperseksualisoituja kuvia käyttäjien pääkuvista. Kiistanalaisesti se myös valkaisi värillisten naisten ihon ja teki heidän piirteistään eurooppalaisemmat.

Vastareaktio oli nopea. Suhteellisen vähälle huomiolle jäi kuitenkin se, että taiteellisen generatiivisen tekoälyn käyttömahdollisuudet huijauksissa ovat valtavat. On raportoitu, että nämä työkalut pystyvät väärentämään sormenjälkiä ja kasvoskannauksia (menetelmää, jolla useimmat meistä lukitsevat puhelimensa).

Rikolliset löytävät nopeasti uusia tapoja käyttää generatiivista tekoälyä parantaakseen jo tekemiään huijauksia. Generatiivisen tekoälyn houkutin huijauksissa on sen kyky löytää kuvioita suurista tietomääristä.

Kyberturvallisuuden alalla on havaittu "pahojen bottien" yleistyminen: pahantahtoiset automaattiset ohjelmat, jotka jäljittelevät ihmisen käyttäytymistä rikosten tekemiseen. Generatiivinen tekoäly tekee niistä entistäkin kehittyneempiä ja vaikeammin havaittavia.

Oletko koskaan saanut huijaustekstiviestiä "verotoimistosta", jossa väitetään, että veronpalautus odottaa sinua? Tai ehkä olet saanut puhelun, jossa väitetään, että sinua vastaan on annettu pidätysmääräys?

Tällaisissa huijauksissa voitaisiin käyttää generatiivista tekoälyä parantamaan tekstien tai sähköpostiviestien laatua, jolloin niistä tulisi paljon uskottavampia. Viime vuosina on esimerkiksi nähty, että tekoälyjärjestelmiä on käytetty esiintymään tärkeinä henkilöinä "voice spoofing" -hyökkäyksissä.

Sitten on vielä romanttisia huijauksia, joissa rikolliset esiintyvät romanttisina kiinnostuksenkohteina ja pyytävät kohteiltaan rahaa auttaakseen heidät taloudellisista vaikeuksista. Nämä huijaukset ovat jo nyt laajalle levinneitä ja usein tuottoisat. Tekoälyn kouluttaminen intiimien kumppanien välisillä todellisilla viesteillä voisi auttaa luomaan huijauskeskustelurobotin, jota ei voi erottaa ihmisestä.

Geneerisen tekoälyn avulla verkkorikolliset voisivat myös kohdistaa huijaukset valikoivammin haavoittuviin ihmisiin. Esimerkiksi kouluttamalla järjestelmää suurilta yrityksiltä varastetuilla tiedoilla, kuten Optus- ja Medibank-tietomurroissa viime vuonna, rikolliset voisivat ottaa kohteekseen vanhukset, vammaiset tai taloudellisesti vaikeuksissa olevat ihmiset.

Lisäksi näitä järjestelmiä voidaan käyttää tietokonekoodin parantamiseen, mikä joidenkin tietoverkkoturva-asiantuntijoiden mukaan tekee haittaohjelmien ja virusten luomisesta helpompaa ja virustorjuntaohjelmien havaitsemisesta vaikeampaa.

Teknologia on täällä, emmekä ole valmistautuneet siihen.

Australian ja Uuden-Seelannin hallitukset ovat julkaisseet tekoälyä koskevia puitteita, mutta ne eivät ole sitovia sääntöjä. Molempien maiden lait, jotka liittyvät yksityisyyteen, avoimuuteen ja syrjimättömyyteen, eivät ole tekoälyn vaikutusten osalta tehtäviensä tasalla. Näin ollen olemme jäljessä muusta maailmasta.

Yhdysvalloissa on ollut vuodesta 2021 lähtien käytössä lakisääteinen kansallinen tekoälyaloite. Ja vuodesta 2019 lähtien Kaliforniassa on ollut laitonta, että botti on vuorovaikutuksessa käyttäjien kanssa kaupankäyntiä tai vaaleja varten paljastamatta, ettei se ole ihminen.

Myös Euroopan unioni on hyvässä vauhdissa säätämässä maailman ensimmäistä tekoälylakia. Tekoälylaki kieltää tietyntyyppiset tekoälyohjelmat, jotka aiheuttavat "kohtuuttoman riskin" - kuten Kiinan sosiaalisen luotonannon järjestelmässä käytetyt ohjelmat - ja asettaa pakollisia rajoituksia "korkean riskin" järjestelmille.

Vaikka ChatGPT:n pyytäminen rikkomaan lakia johtaa varoituksiin siitä, että "vakavan rikoksen suunnittelu tai toteuttaminen voi johtaa vakaviin oikeudellisiin seurauksiin", tosiasia on, että näihin järjestelmiin ei tarvitse ohjelmoida moraalisääntöjä.

Niitä voidaan pyytää tekemään mitä tahansa, ja rikolliset keksivät todennäköisesti kiertoteitä kaikille säännöille, joiden tarkoituksena on estää niiden laiton käyttö. Hallitusten on tehtävä tiivistä yhteistyötä kyberturvallisuusteollisuuden kanssa, jotta voidaan säännellä generatiivista tekoälyä tukahduttamatta innovointia esimerkiksi vaatimalla tekoälyohjelmilta eettisiä näkökohtia.

Australian hallituksen olisi käytettävä tulevaa yksityisyydensuojalain tarkistusta, jotta se voisi ennakoida generatiivisen tekoälyn mahdollisia uhkia, jotka kohdistuvat verkkoidentiteettiimme. Uuden-Seelannin tietosuojaa, ihmisoikeuksia ja etiikkaa koskeva kehys on puolestaan myönteinen askel.

Meidän on myös yhteiskuntana oltava varovaisempia uskomaan sitä, mitä näemme verkossa, ja muistettava, että ihmiset ovat perinteisesti huonoja havaitsemaan petoksia.

Tunnistatko huijauksen?

Kun rikolliset lisäävät generatiivisia tekoälytyökaluja arsenaaliinsa, huijausten havaitseminen muuttuu entistä hankalammaksi. Klassiset vinkit pätevät edelleen. Mutta niiden lisäksi opimme paljon arvioimalla, miten nämä työkalut eivät ole riittäviä.

Generatiivinen tekoäly on huono kriittisessä päättelyssä ja tunteiden välittämisessä. Sitä voidaan jopa huijata antamaan vääriä vastauksia. Kun tiedämme, milloin ja miksi näin tapahtuu, voimme kehittää tehokkaita menetelmiä tekoälyä kiristykseen käyttävien verkkorikollisten kiinniottamiseksi.

Kehitteillä on myös työkaluja, joilla voidaan havaita tekoälyn tuotokset ChatGPT:n kaltaisista työkaluista. Jos nämä työkalut osoittautuvat tehokkaiksi, niillä voidaan ehkäistä pitkälle tekoälyyn perustuvaa tietoverkkorikollisuutta.

  • Brendan Walker-Munro on vanhempi tutkija Queenslandin yliopistossa.

Julkistamisilmoitus: Brendan Walker-Munro saa rahoitusta Australian hallitukselta Trusted Autonomous Systemsin kautta, joka on puolustusyhteistyön tutkimuskeskus, jota rahoitetaan seuraavan sukupolven teknologiarahastosta.

Lähde

Previous Post Next Post