Skap ekte tillit til kunstig intelligens
Næringslivet bruker automatiserte analyser og maskinlæring stadig mer. Likevel sliter bedriftene med å stole på resultatene de får. – Skal man ta i bruk maskinlæring, må man stille tydelige krav, sier Tom Einar Nyberg i KPMG.
Nard AS for KPMG
Vi hører stadig oftere næringslivsledere slå seg på brystet og fortelle hvordan de på ett eller annet nivå har tatt i bruk kunstig intelligens eller én eller annen form for robotisering i virksomheten sin. Vi må det, om vi skal henge med i konkurransen internasjonalt, sier de gjerne.
Bare hver tredje tror
Og det stemmer jo, for «robotene» er virkelig på fremmarsj – men ikke uten problemer. Ett problem er at menneskene i virksomheten gjerne har vondt for å stole på resultatene de får fra maskinene – og kunstig intelligens behøver ikke engang å være involvert. Det viser en global undersøkelse hvor KPMG ser på sammenhengen mellom tillit og digital endring og utvikling, forteller Tom Einar Nyberg, director i KPMG Norge og leder for Digital Operations i selskapets rådgivningsvirksomhet.
– Bedriftene ønsker å hente ut fordelen i automasjon, men de stoler ikke alltid på det datamaskinene gjør, sier Nyberg.
Undersøkelsen Guardians of trust viste at bare 35 prosent av de spurte topplederne hadde «høy grad av tillit» til analysene produsert i deres egen organisasjon, og at så mye som 25 prosent hadde liten eller absolutt ingen tillit til dataene.
– Det er kanskje ikke så rart. Dette er ennå nytt for mange virksomheter, og få av dem har fått på plass governance og styring på virksomhetens data og algoritmer, sier Jo Sigurd Pedersen, director og leder for området Data & Analytics i selskapets revisjonsvirksomhet.
Still klare krav!
De to er enige om at dersom du som leder godkjenner at det brukes maskinlæring i deler av din virksomhet, må du stille klare krav både til de som leverer dataene og til de som utvikler algoritmene dine.
– Still spørsmål: Hvordan fremstilles dataene, hvordan brukes og vedlikeholdes de, hvilke kontrollmekanismer finnes og hvordan fungerer de? Dykk ned i dette og still de ubehagelige spørsmålene til du får svar du forstår og kan være komfortabel med. I Norge er vi altfor dårlige til å stille spørsmål ved slike ting. Vi er kanskje litt for godtroende, sier Pedersen.
Nyberg trekker også frem et paradoks i slike undersøkelser: Med én gang man begynner å se på datakvaliteten i informasjonen som algoritmene bygger på, vil man nesten alltid finne ting å sette fingeren på.
– Da vil trolig to ting skje: På den ene siden mister man kanskje litt av tilliten til data som benyttes andre steder i virksomheten, og på den andre siden vil man samtidig ta grep for å heve datakvaliteten der man kan. Resultatet kan bli noe av et paradoks; at virksomheten faktisk vil få bedre data, samtidig som ledelsen har lavere tillit til dem, sier han.
Nye modeller
Erfaringene fra selskaper som har vært tidlig ute med å ta i bruk kunstig intelligens, viser at de ikke først og fremst gjør det for å kunne kvitte seg med ansatte slik at de kan spare penger. I langt større grad handler det om å skape en arbeidsstokk som blir en blanding av digitale og menneskelige medarbeidere som deler på ansvaret både for å fatte beslutninger og utføre oppgaver.
– Disse virksomhetene jobber nå med å etablere samarbeidsmodeller mellom maskiner og mennesker, med å finne ut hvordan de kan legge til rette for at arbeidsprosessene etablerer den nødvendig tilliten. Det å gjøre slike prosesser til en essensiell del av virksomhetens driftsmodell, innebærer at det å lede maskinene blir like viktig som å lede de ansatte, sier Nyberg.
Det betyr også i bunn og grunn at eierskapet til maskinenes del av arbeidet må ligge hos topplederen. Å sette mennesker – helst med et bredt og variert spekter av ekspertise – til å ha overoppsyn med slike verktøy, blir en sentral del av et helt nødvendig kontrollapparat.
Tillitens voktere
Det er her uttrykket som har gitt navn til KPMGs rapport dukker opp; «Guardians of trust», eller «Tillitens voktere», om du vil. Dette handler ikke bare om å gi kontrollører nye oppgaver og ansvarsområder, det handler også om å utvide kontrollvirksomheten fra det rent tekniske til også å omfatte «mykere» elementer som strategi, kultur og etikk.
– Selv om det finnes mange tekniske standarder, retningslinjer og krav som virksomheter kan lene seg på når de skal utvikle IT-systemer og -verktøy, må disse standardene avstemmes, forbedres og tilpasses den nye tid, sier Pedersen.
Som et eksempel på et rammeverk hvor slik tilpasning er mulig, nevner han «de tre forsvarslinjene», som gjør det enklere for organisasjoner å identifisere roller og ansvar i virksomheten, og øve på løpende risikostyring:
Virksomheten: Som første forsvarslinje må forretningsenhetene være bevisst hvilke analyseverk de benytter seg av, og kunne håndtere tillitens fire forankringspunkter: kvaliteten, effektiviteten, integriteten og motstandsdyktigheten i virksomhetens algoritmer.
Overoppsyn med risiko: Som en andre forsvarslinje, må funksjonen som monitorerer virksomhetens samlede risiko, også etablere retningslinjer og prosedyrer som kan tjene som «rekkverk» for organisasjonen.
Tilsyn og revisjon: Tredje forsvarslinje kan være internrevisorer og uavhengige tilsynsmiljøer som kan validere kontrollmekanismene og peke på potensielle svakheter.
Lederne må ta eierskap
– Undersøkelsen viser at lederne er bevisst at dette er et problem med potensielt stor sprengkraft. 92 prosent av de spurte topplederne er bekymret for hvordan virksomhetens omdømme kan påvirkes av svikt i datakvalitet, gale analyser eller feil i «robotiserte» oppgaver, sier Nyberg.
– Bekymringen til tross, er det sterke variasjoner i hvordan lederne tilnærmer seg denne problemstillingen. I USA oppgir bare 21 prosent av lederne at de har tillit til virksomhetens data-analyser, mens i India er tilsvarende andel helt oppe i 65 prosent. Vårt poeng er at lederne ikke kan være naive på dette området. Her må de selv stille krav og ta eierskap, slår Pedersen fast.