Eettiset säännöt ohjaavat sisäistä tarkastajaa ja sisäisen tarkastuksen johtajaa kaikessa toiminnassa. Voimassa olevien sääntöjen mukaiset periaatteet ovat rehellisyys, objektiivisuus, luottamuksellisuus ja ammattitaito. Koko IPPF-kokonaisuus (IPPF = International Professional Practices Framework eli kansainvälinen ammatillisten käytäntöjen ajatusmalli) mukaan lukien eettiset säännöt on päivityksen alla. Kansainvälisten sisäisen tarkastuksen standardien (Global Internal Audit Standards, myöhemmin GIAS) luonnoksessa voimassa olevien neljän eettisen periaatteen rinnalle on nostettu myös ammatillinen huolellisuus (due professional care).
Tässä kirjoituksessa tarkastellaan erityisesti kielimalliin perustuvan tekoälyn käyttämistä sisäisen tarkastajan työssä eettisten sääntöjen näkökulmasta. Artikkelia varten on tarkasteltu sekä voimassa olevia eettisiä sääntöjä, käyttäytymis- ja soveltamisohjeita että GIAS-luonnosta.
Eniten keskustelua kuluvan vuoden aikana on aiheuttanut Open AI:n julkaisema ChatGPT, jonka versio on vapaasti käytettävissä internetissä. ChatGPT:n hyödyistä ja riskeistä on julkaistu kirjoituksia mm. IIA globalin sivuilla ja Internal Auditor -lehdessä. Chat GPT on kuitenkin vain yksi tekoälysovellus, joka on markkinoilla. Esimerkiksi Microsoft on ilmoittanut julkaisevansa 365-ohjelmistoon tukitoimintona toimivan tekoälysovelluksen, copilotin, joka on jo rajatusti saatavilla.
Sisäisen tarkastajankin on valmistauduttava siihen, että tekoäly muokkautuu työkaluksi, jota käytetään päivittäisessä työssä. Muutosta voisi verrata tietokoneiden tuloon kirjoituskoneiden tilalle ja siihen, kuinka tuo muutos edellytti sopeutumista. Vastuu työn tuloksista säilyy kuitenkin työn tekijällä. Tekoälyn käyttöön liittyvät eettiset riskit ovat riippuvaisia siitä, millaiseen tarkoitukseen tekoälysovellusta käytetään. Tekoälyn voisi esimerkiksi valjastaa kirjoittamaan tarkastusraportti tai laatimaan työ-, tarkastus- tai vuosisuunnitelma. Sitä voisi käyttää tiedonkeruuseen tai analysoimaan tarkastuksen yhteydessä saatuja tietoja. Tekoälysovellusta voisi käyttää valmiin tekstin muokkaukseen luettavampaan muotoon tai laatimaan tiivistelmän satasivuisesta tarkastusraportista ja muokkaamaan siitä ymmärrettävämmän sellaiselle lukijalle, joka ei tunne alan erityissanastoa.
REHELLISYYS Demonstrate Integrity
Rehellisyys on perusta muille eettisille periaatteille. Rehellisyyden periaatteeseen liitetyt ohjeet tulevat monin tavoin sovellettaviksi myös tekoälysovellusten käyttöä harkitessa.
Rehellisyyden periaatteen mukaisesti käyttäytyvä sisäinen tarkastaja ei toimi tavalla, joka heikentää ammattikunnan tai oman organisaation arvostusta. Yhdysvaltalaisen juristin erheellinen toiminta on varoittava esimerkki. Juristi oli käyttänyt kielimalliin perustuvaa tekoälyä tuomioistuimelle toimitettavan asiakirjan (legal brief) laatimisessa. Tekoäly oli hallusinoinut tietoa, ja asiakirjassa oli viittauksia oikeustapauksiin, joita ei tosiasiassa ollut olemassa. Juristi ei ollut tarkistanut tekoälyn tuottamaa tekstiä, vaan oli toimittanut virheitä sisältävän asiakirjan tuomioistuimelle.[1] Tällainen väärän tiedon esittäminen totena on omiaan heikentämään ammattikunnan tai oman organisaation arvostusta.
Kielimallin hallusinoiman tekstin asiavirheiden tunnistaminen voi olla hankalaa, koska se on taitava tuottamaan tekstiä eikä muistuta erilaisista huijauskampanjoista tuttua kankeaa ja kielioppivirheitä vilisevää suomenkielistä tekstiä. Yhdysvaltalaisen juristin erehdys johtui osittain siitä, että hän ei ollut riittävästi perehtynyt kielimalliin perustuvan tekoälyn toimintaan. Chat GPT ei ole superhakukone, jonka tuottamiin tuloksiin voi luottaa.
Sisäisen tarkastajan on noudatettava myös oman tarkastustoiminnon ja organisaationsa eettisiä ja muita ohjeita. Ennen tekoälysovellusten käyttöönottoa sisäisen tarkastajan täytyy selvittää, mikä on oman organisaation ohjeistus sovellusten käyttöön, jos sellaista ohjeistusta on laadittu.
Sisäinen tarkastaja ei saa antaa virheellistä tai harhaanjohtavaa kuvaa omasta ammattitaidostaan. Mikäli käyttää tekoälyä tuottamaan tai analysoimaan tekstiä, onko asia syytä tuoda ilmi? Tekoälysovellusten käyttöä on syytä käsitellä samoin kuin analyysityökalujen ja tarkastusohjelmien käyttöä. Sekä IPPF:n standardeissa että GIAS-ehdotuksessa määritetään, että käytettävät teknologiset resurssit, kuten data-analyysivälineet ja -ohjelmistot, dokumentoidaan. Tekoälysovellusten käyttö on syytä tuoda ilmi.
OBJEKTIIVISUUS Maintain objectivity
Eettiset säännöt edellyttävät puolueettomuutta. GIAS-ehdotuksessa ammatillisen objektiivisuuden vaatimuksen todetaan sisältävän sen, että sisäisellä tarkastajalla on puolueeton ja vinoutumaton ajattelutapa. Tarkastajien on oltava tietoisia mahdollisista vinoumista kuten ennakkoluuloista ja tiedostamattomista ajatteluvinoumista, ja hallittava niitä. Tekoälysovelluksissa riskinä on, että niiden kehittämisessä käytetty data (jonka perusteella tekoäly tekee päätöksensä) on vinoutunutta. Kun riskistä on tietoinen, tekoälyn tuottamaan tekstiin osaa suhtautua niin, että pyrkii tunnistamaan mahdollisia ennakkoluuloihin perustuvia tuotoksia.
Objektiivisuuden periaatteen huomioiminen edellyttää, että jos sisäinen tarkastaja käyttää tekoälyä avustamaan datan analysoinnissa tai esimerkiksi suunnittelussa, tarkastajalla on oltava riittävä varmuus siitä, että tekoälylle syötteenä eli promptina annettavat tiedot eivät ole vinoutuneita. Tiedon luotettavuutta on standardien mukaan arvioitava ammatillisella skeptisyydellä, eli säännöllä, joka GIAS-ehdotuksessa on osana eettisiä toimintaohjeita.
LUOTTAMUKSELLISUUS Maintain Confidentiality
Luottamuksellisuuden sääntö edellyttää, että sisäiset tarkastajat ovat huolellisia työssään hankkimansa tiedon käytössä ja turvaamisessa. Sisäinen tarkastaja ei saa luovuttaa luottamuksellista tietoa, ellei siihen ole erillistä velvollisuutta.
Tekoälysovellusten käytössä on voitava varmistua siitä, että tekoälylle promptina syötetty tieto ei siirry organisaation ulkopuolelle. Sisäinen tarkastaja voi työssään saada hyvinkin arkaluonteista ja sisäisestikin salassa pidettävää tietoa, kuten henkilötietoja, palkkatietoja tai turvallisuuteen liittyvää tietoa. Minkä tahansa tiedon ja erityisesti arkaluonteisen tiedon syöttäminen tekoälysovellukselle muokattavaksi tai analysoitavaksi voi olla ongelmallista. Esimerkiksi vapaasti käytettävissä oleva ChatGPT:n versio kerää sille syötettyä tietoa ja käyttää sitä opetustarkoituksessa. Opetustarkoitukseen tarkoitetun tiedonkeruun saa asetuksista pois päältä, mutta silti sovellus tallentaa käydyt keskustelut määräajaksi. Sama riski on olemassa kaikissa niissä tekoälysovelluksissa, jotka eivät ole organisaation omistuksessa ja hallinnassa.
AMMATTITAITO Demonstrate competency
Voiko ammattitaidon periaatteeseen sisältyä jopa edellytys työtä tehostavan apuvälineen käyttämisestä? IPPF:n standardin 1210.A3 mukaan tarkastajan on tunnettava käytettävissä olevat tekniikkaan perustuvat tarkastusmenettelyt. Näillä tarkoitetaan automatisoituja tarkastuksen työkaluja, kuten yleiskäyttöisiä tarkastusohjelmistoja, testiaineiston luomiseen käytettäviä ohjelmia, tietokonepohjaisia tarkastusohjelmia, tarkastuksen erityisiä apuohjelmia sekä tietokoneavusteisia tarkastustekniikoita. Standardin 1210 soveltamisohjeiden mukaan sisäisen tarkastajan on huomioitava ajantasaiset tapahtumat, trendit ja asiat. On sisäisen tarkastuksen johtajan vastuulla järjestää koulutuksia, joissa tarkastusyksikön jäsenille esitellään uutta teknologiaa tai muutoksia tarkastusmenettelyihin. Vuonna 2021 julkaistun Tilastokeskuksen tilaston mukaan enin osa yrityksistä perusteli tekoälyn käyttämättä jättämistä sillä, että yrityksellä ei ole tarpeellista osaamista (59%). Kuten IPPF:n standardeissa, myös GIAS:n ammattitaitoa koskevassa standardilla 3.1 ammattitaito edellytetään, että sisäinen tarkastaja tuntee työkalut ja tekniikat tiedon keruuta, analysointia ja arviointia varten sekä sisäinen tarkastaja pysyy ajan tasalla uusista trendeistä.
Tekoälysovellusten laajan suosion vuoksi sitä ei voi sivuuttaa, vaan tekoäly on uusi trendi, joka on huomioitava. ChatGPT:llä on yli miljoona rekisteröitynyttä käyttäjää, ja sivustolla openai.com vieraillaan yli 1 miljardia kertaa kuukaudessa. Ilmiöstä on vähintään tultava tietoiseksi, vaikkei tekoälyn käyttämistä omassa työssä kokisikaan tarpeelliseksi.
Eettisten sääntöjen käyttäytymisohjeen 4.3 mukaan sisäisen tarkastajan on jatkuvasti kehitettävä ammattitaitoaan sekä palveluidensa tuloksellisuutta, vaikuttavuutta ja laatua. Tekoälysovellusten hyödyntämisellä on laaja potentiaali tehostaa sisäisen tarkastajan työntekoa. Tekoäly voi tuottaa sisältöä, joka perustuu sellaiseen laajaan aineistoon tai kansainväliseen kehitykseen, että yksittäisen sisäisen tarkastajan ei ole mahdollista omaksua vastaavaa tietomäärää. Tekoälyn tuottamaan aineistoon on kuitenkin suhtauduttava ammatillisella skeptisyydellä, joka GIAS-ehdotuksessa on osana eettisiä ohjeita ammatillisen huolellisuuden periaatteen osa-alueena.
AMMATILLINEN HUOLELLISUUS Exercise Due Professional Care
Noudattaessaan ammatillista huolellisuutta, sisäisen tarkastajan tulee harkita teknologiapohjaisten tarkastus- ja muiden tietoanalyysityökalujen käyttöä (standardin 1220.A3 ja GIAS standardi 4.2). Mikäli tekoälypohjainen työkalu on käytettävissä, sen käyttö voi olla paikallaan, mikäli riskit hallitaan.
GIAS standardin 4.3 mukaan sisäisen tarkastajan on harjoitettava ammatillista skeptisyyttä. Ammatillisen skeptisyyden vaatimukseen kuuluu mm. tiedon luotettavuuden kriittinen arviointi. Rehellisyyden periaatteen käsittelyssä nousi esiin esimerkki yhdysvaltalaisesta juristista. Jos hän olisi suhtautunut tekoälyn tuottamaan tekstiin ammatillisella skeptisyydellä, hän olisi mitä luultavimmin huomannut tekoälyn tuottaman tiedon virheet.
LOPPUHUOMIO
Tekoäly tulee, haluttiin tai ei. Käyttöönotto vaatii avoimuutta ja uteliasta mieltä. Standardit ovat hyvä perusta ja pohja, joka ohjaa riskien arviointia. Kun toimimme standardien ja periaatteiden mukaisesti käyttöönotto menee hyvin.
Aleksandra Miettinen
Sisäinen tarkastaja
Espoon kaupunki
Aleksandra on mukana Sisäiset tarkastajat ry:n Eettisten asioiden toimikunnassa.
[1] Tapauksesta uutisoinut mm. Reuters https://www.reuters.com/legal/new-york-lawyers-sanctioned-using-fake-chatgpt-cases-legal-brief-2023-06-22/ ja NY Times https://www.nytimes.com/2023/06/08/nyregion/lawyer-chatgpt-sanctions.html
Avaa koko näytössä