ARTIFICIAL INTELLIGENCE AUDITING FRAMEWORK
IIA on julkaissut jo aikaisemmin sisäisessä tarkastuksessa käytettävään tekoälyyn liittyvän viitekehys-sarjan ensimmäisen osan ja julkaissut nyt toisen osan. Määrittelyn mukaisesti tekoälyn avulla koneet voivat tunnistaa malleja, joita ihmiset eivät kykene löytämään. Lisäksi keinoälyn avulla koneet voivat käsitellä ja varastoida nopeasti valtavia tietomääriä. Viitekehyksen tarkoituksena on kuvata, mitä tekoälyn käyttäminen tarkastustyössä voi olla, miten tekoäly toimii, mitkä ovat tekoälyn käyttöön liittyvät mahdollisuudet ja riskit, miten arvioidaan ovatko tekoälyn avulla saavutetut tulokset alkuperäisten määrittelyiden mukaiset sekä ovatko tekoälyn ehdottamat suositukset käytännössä mahdollista toteuttaa.
IIA:n mallissa on kuvattu esimerkkejä tekoälyn käyttöön liittyvistä tavoitteista ja toimenpiteistä sekä niiden mittaamiskeinoista. Lisäksi on erikseen esitetty tärkeimmät sisäisen tarkastuksen ammattistandardit, jotka pitää huomioida tekoälyä sovellettaessa ja erityisesti sen avulla saatujen tulosten analysoinneissa. Esittelyn alussa korostetaan sisäisen tarkastuksen tärkeätä roolia sen auttaessa hallitusta ja ylintä johtoa riskien hallinnan ja sisäisen valvonnan riittävyyden arvioinnissa sekä miten niiden toteuttamisessa voidaan tekoälyä hyödyntää. Viitekehyksen alussa kuvataan ja verrataan myös ulkoisen ja sisäisen tarkastusten tavoitteiden, roolien, vastuiden ja toimintojen eroja ja yhteneväisyyksiä.
Viitekehyksessä esitellään lisäksi tekoälyn käyttöön tarkastuksissa liittyviä haasteita, miten sisäinen tarkastus voi niihin varautua omalla työllään ja miten viitekehyksen antamia ohjeita pitäisi hyödyntää tekoälyn käyttämisessä. Ohjeistuksessa muistutetaan myös tekoälyn käytön rajoituksista, jotka pitää huomioida ja viitekehyksessä korostetaan, että kuitenkin se on viime kädessä ihminen, joka tekee sen päätöksen, voidaanko tekoälyn avulla saatuja tuloksia hyödyntää osana tarkastustyötä ja sen havaintoja. Lisäksi viitekehyksessä painotetaan myös sitä, että tekoälyä sovellettaessa on aina noudatettava sisäisen tarkastuksen standardeja. Samoin viitekehyksessä muistutetaan, että myös tekoälyn avulla laaditut tarkastuksen tavoitteet ja niiden perusteella laaditut tarkastussuunnitelmat vastaavat organisaation tavoitteita ja johdon tarpeita.
Omana osanaan viitekehyksessä kuvataan tekoälyn käyttämisessä tarkastuksessa organisaation strategioihin, hyvään hallinnointiin ja henkilöstöön liittyviä vaatimuksia ja periaatteita. Hyvän hallinnon osuudessa kuvataan tekoälyyn käyttöön liittyvät vastuut ja velvollisuudet. Lisäksi mallissa todetaan, että hyvän hallinnon avulla varmistetaan, että tekoälyä käyttävillä ja hyödyntävillä henkilöillä on riittävät tiedot, taidot ja osaamiset asetettujen tavoitteiden saavuttamiseksi.
Viitekehyksessä kuvatut tekoälyn käytön hyvät hallintaperiaatteet auttavat varmistamaan, että tekoälyyn liittyvät toimenpiteet ja päätökset ovat organisaation strategisten tavoitteiden, arvojen ja sovittujen periaatteiden mukaiset.
Tämä viitekehys on luotu, jotta sisäiset tarkastajat voivat ymmärtää tekoälyyn liittyvät perusteet, mitä rooleja tekoälyllä voidaan ottaa ja pitää ottaa, mitkä ovat tekoälyn käyttöön liittyvät mahdollisuudet ja riskit sekä miten niihin voidaan varautua.
Viitekehyksen lopussa pohditaan, miten huomioidaan se hyödyntääkö tekoälyä tarkastuksissa oma henkilöstö vai ostopalvelusopimuksen takia ulkopuoliset suorittajat. Lisäksi viitekehyksessä korostetaan sen tärkeyttä, että sisäisen tarkastuksen pitää informoida hallitusta ja ylintä johtoa tekoälyn käyttämisestä tarkastuksissa sekä tehdä tekoälyn käytön hyödyntämisessä avointa ja aktiivista yhteistyötä organisaation ensimmäisen ja toisen puolustuslinjan kanssa. Olennaista on myös luoda riittävät periaatteet ja toimintatavat tekoälyn käyttöä arvioivalle riskienhallinnalle, hyvälle hallinnolle ja sisäiselle valvonnalle.
https://na.theiia.org/news/Pages/New-The-IIAs-Artificial-Intelligence-Auditing-Framework.aspx