Generativ AI skaper milliardbutikk av data
Teknologi og digitalisering
I denne spalten vil Lars Erlend Leganger og noen av hans kollegaer skrive om aktuelle temaer innen teknologi/digitalisering som direkte eller indirekte også vil påvirke revisors hverdag. Lars Erlend er AI-ekspert og direktør i PwC. Han har en PhD i teoretisk fysikk fra NTNU.
ChatGPT er en AI-chatbot som kan tolke naturlig språk og generere (mer eller mindre gode) svar på alle mulige spørsmål mellom himmel og jord. Vi kan stå overfor det største paradigmeskiftet innen hvordan vi innhenter informasjon siden Google revolusjonerte nettsøk – med googling.
Direktør i PwC
Den amerikanske teknologen og fremtidsforskeren Roy Amara (1925–2007) rakk å analysere – og spå effekten av – mange teknologier og samfunnsendringer i løpet av sitt yrkesliv, fra internett til global oppvarming. Han etterlot seg et nyttig verktøy for alle som forsøker å se inn i fremtiden, den såkalte Amaras læresetning: «Vi tenderer til å overvurdere effekten av en teknologi på kort sikt, og undervurdere effekten av en teknologi på lang sikt.»
Tar tid med selvkjørende biler
Et godt eksempel på Amaras læresetning i praksis er selvkjørende biler: Det er mange tekniske, adferdsmessige, juridiske, og samfunnsmessige finurligheter som skal gjennomgås før full selvkjøring blir en realitet, og skal du kjøpe ny bil med et relativt kortsiktig ti års perspektiv, bør du nok ikke legge for stor vekt på selvkjøringspotensialet.*Elon Musk kunne med fordel sett hen mot Amaras læresetning, med sine stadige lovnader om selvkjørende Teslaer «innen kort tid»: https://www.consumerreports.org/autonomous-driving/timeline-of-tesla-self-driving-aspirations-a9686689375/ Skal du derimot foreta en investering, planlegge infrastruktur, e.l. med mange tiårs horisont, bør du definitivt tenke godt gjennom hvordan markedet og samfunnet kan påvirkes av selvkjørende biler.
ChatGPT – et voldsomt gjennombrudd
Det gjelder altså å puste med magen før en lar seg begeistre for mye over konsekvenser av kunstig intelligens-fremskritt for dagliglivet og på jobb på kort sikt. I Revisjon & Regnskap nr. 6 2022 skrev jeg om neste generasjons AI-chatboter, med potensielle fremtidige anvendelser som AI-genererte eposter, taler, og samlivsråd. Jeg forsøkte ikke å spå nøyaktig når slike anvendelser ville bli en realitet – om så var hadde jeg, med Amaras læresetning i mente, neppe turt å spå det voldsomme gjennombruddet OpenAIs ChatGPT-tjeneste skulle få bare måneder senere.
«Vi tenderer til å overvurdere effekten av en teknologi på kort sikt, og undervurdere effekten av en teknologi på lang sikt.»
Roy Amaras læresetning
Tolker naturlig språk
ChatGPT er en AI-chatbot bygget på OpenAIs GPT-3.5 maskinlæringsmodell som kan tolke naturlig språk og generere (mer eller mindre gode) svar på alle mulige spørsmål mellom himmel og jord. Med et lettfattelig grensesnitt gir ChatGPT en brukeropplevelse besnærende nær de hjelpsomme og mer eller mindre selvbevisste AI-er vi kjenner fra science fiction. Dette har truffet en nerve: I januar 2023, to måneder etter lanseringen, hadde ChatGPT 100 millioner aktive brukere, og ble med det den raskest voksende appen noensinne: Til sammenligning trengte Tiktok og Instagram henholdsvis ni og 30 måneder for å komme opp i samme antall brukere.*https://finance.yahoo.com/news/chatgpt-on-track-to-surpass-100-million-users-faster-than-tiktok-or-instagram-ubs-214423357.html
Har «lest» det meste på nettet
ChatGPT er et eksempel på generativ AI – matematiske modeller som kan generere forskjellige former for innhold, det være seg tekst-svar på spørsmål, bilder og lyd, powerpointpresentasjoner, skjønnlitteratur, eller software-kode. Modellene bygges dels ved å anvende maskinlæringsalgoritmer som automatisk finner og beskriver mønstre og sammenhenger i store datasett (f.eks. bilder, tekst, og kildekode delt på internett), og dels ved at menneskelige modelltrenere og brukere gir tilbakemeldinger om når modellene lykkes og ikke lykkes, som gradvis gjør modellene bedre. Grovt forenklet kan en si at ChatGPT har «lest» det meste som finnes av informasjon på internett, og har til en viss grad lært seg hvordan innsikter fra forskjellige områder kan anvendes på nye problemstillinger.
Setter sammen relevant innsikt
Det er spesielt den gryende evnen til å generalisere og anvende kunnskap på nye områder som gjør ChatGPT så interessant. Spør du f.eks. en tradisjonell nettbank-chatbot om fremgangsmåten for å dele konto med kona får du fullgodt svar, men nettbank-chatboten kommer til kort om du spør den hvorfor kona ikke vil dele bankkontoen sin med deg (i så fall måtte de som bygde chatboten ha eksplisitt tatt høyde for problemstillingen i byggeprosessen). ChatGPT derimot klarer å sette sammen relevant innsikt fra forskjellige tekster i treningsgrunnlaget (anslagsvis om personvern og tillit i parforhold) og leverer et fullgodt svar her, se figur 1.
Chatbot bygget med tradisjonell teknologi:
11:23:35
Hvordan deler jeg bankkonto med kona?
11:23:36
Kontoeier kan legge til en disponent på konto i nettbanken under Dagligbank og lån – Disponenter.
Kontoeier må være over 18 år for à kunne legge til eller slette disponenter.
Disponenten som skal legges til, må være over 18 år og kunde i DNB
Bestille kort til disponent Disponentens tilgang Disposisionsfullmakt
11:23:55
Hvorfor vil ikke kona at jeg skal ha innsyn i hennes bankkonto?
11:23:55
Nå er jeg ikke sikker på om jeg forstår hva du mener. Kan du skrive det på en annen mâte?
ChatGPT:
Hvorfor vil ikke kona at jeg skal ha innsyn i hennes bankkonto?
Det kan være flere grunner til hvorfor din kone ikke ønsker at du skal ha innsyn i hennes bankkonto, og det er viktig å respektere hennes ønsker og privatliv.
Noen mulige årsaker kan inkludere:
Personvern: Din kone kan ønske å holde økonomiske transaksjoner og detaljer om sin personlige økonomi privat.
Uavhengighet: Noen mennesker ønsker å opprettholde en viss grad av økonomisk uavhengighet og kontroll over sin egen økonomi.
Følelse av mistillit: Hvis dere har hatt tidligere problemer eller diskusjoner om økonomi, kan din kone føle at å gi deg innsyn i hennes bankkonto kan føre til mistillit eller konflikt.
Økonomisk ansvar: Din kone kan føle at hun ønsker å ta ansvar for sin egen økonomi og eventuelle økonomiske forpliktelser eller utgifter.
Det er viktig å huske at hver person har rett til å ha privatliv, og det er viktig å respektere disse grensene. Hvis du har bekymringer eller spørsmål om økonomi eller økonomisk ansvar, kan det være lurt å diskutere dette åpent og ærlig med din kone, og finne en måte å håndtere disse bekymringene på, en måte som føles komfortabel og respektfull for begge parter.
Tradisjonelle chatboter (øverst) kan svare godt på spesifikke spørsmål de er bygget for å håndtere, men kommer raskt til kort ved spørsmål som de som bygde modellen ikke har tatt spesifikk høyde for. Nestegenerasjons chatboter (nederst) tar alle slags spørsmål på strak arm – og gir ofte (men ikke alltid!) brukbare svar, spesielt på generelle/overordnede problemstillinger.
Det største paradigmeskiftet siden «googling»?
En kunne nok, med litt innsats, lest seg frem til et tilsvarende godt svar på spørsmålet om konas manglende vilje til kontodeling. Men dette ville tatt tid: En måtte prøvd forskjellige søkeord, lest nettsidene som søket frembrakte, vurdert kvaliteten på informasjonen på de forskjellige sidene, og samlet de forskjellige kildene og argumentene til en helhetlig konklusjon. At ChatGPT gjør hele denne jobben, innebærer en radikalt forbedret brukeropplevelse – vi kan stå overfor det største paradigmeskiftet innen hvordan vi innhenter informasjon siden Google revolusjonerte nettsøk – «googling» – på begynnelsen av 2000-tallet.
Nå er både Google og Microsoft i full gang med å bygge nestegenerasjons chatbot-teknologi inn i sine produkter og tjenester, men som store etablerte aktører må de trå varsomt – tillitstapet kan bli stort om en AI-løsning skulle løpe løpsk.*Adferden til tidlige versjoner av Microsofts Bing Chat skapte stor fornøyelse, men førte også raskt til innstramminger: https://www.theverge.com/2023/2/15/23599072/microsoft-ai-bing-personality-conversations-spy-employees-webcams De mest spennende AI-tjenestene fremover kan fort komme fra utfordrere som har lite å tape, og tør å utfordre grensene for AI-tjenesters form og innhold.
Hvem eier dataene?
Den kommersielle suksessen til generativ AI har aktualisert spørsmål rundt eierskap til – og verdsetting av data, og om (og i så fall – hvordan) en skal gjøre grensedragningen mellom læring av mennesker og læring av maskiner: Hvis en kunststudent betrakter åpent tilgjengelige verker fra etablerte kunstnere for å lære seg en ny teknikk eller stilart, er det få som vil hevde at nye arbeider fra studenten skal følges av advarsler eller opphavsrettkrav fra inspirasjonskildene – skal det være annerledes om en maskinlæringsingeniør analyserer de samme åpent tilgjengelige verkene for å bygge en generativ AI som skaper nye verker med tilsvarende teknikk og stilart?
Skal eierne av treningsdataene belønnes?
Nå går disse spørsmålene sin gang gjennom det amerikanske rettssystemet.* https://www.reuters.com/legal/transactional/lawsuits-accuse-ai-content-creators-misusing-copyrighted-work-2023-01-17/ Utfallene av søksmål knyttet til treningsdata for bildegenererende AI-modeller kan få store konsekvenser for andre AI-anvendelser: Dersom utfallet blir at skaperne/eierne av treningsdata for bildegenererende AI skal krediteres/belønnes, vil det i så fall skape presedens for andre typer data og AI-modeller?
Hva med ChatGPT og skaperne av alle tekstene den har «lest» for å lære å generere sine svar? Hva med forsikringsselskapet som bruker dine og mine skadehistorikk-data i byggingen av sine prismodeller, nettbutikker som bruker data om våre shoppingmønstre for å bygge sine produktanbefalingsmodeller, eller musikkstrømmetjenester som bygger låtanbefalingsmodeller basert på data om våre lyttemønstre?
AI-risikoer
Ved siden av de store mulighetene ved nestegenerasjons chatboter står de nye og gamle AI-risikoene i kø:
Uforsiktige brukere kan stole på AI-assistentene i spørsmål de ikke er egnet for å svare på. Denne risikoen er særlig stor for nestegenerasjons chatboter, som har en tendens til å «hallusinere» og svare selvsikkert også på ting de egentlig ikke har peiling på
Verdien av bilder og lyd som bevis forringes – det være seg fakturabilag, eller en telefonsvarermelding fra sjefen – når AI-løsninger enkelt og billig kan generere overbevisende gode forfalskninger
Det er enklere og større økonomiske incentiver å bygge gode AI-tjenester for majoriteter – der det er mye data tilgjengelig og store skaleringsgevinster – enn for minoriteter, som dermed kan få tilgang på færre og dårligere AI-tjenester1
Eksamineringer og sertifiseringer basert på hjemmeoppgaver med «alle hjelpemidler tillatt» må hensynta at AI-assistenter nå kan generere ofte utmerkede svar på tradisjonelt utformede spørsmål og oppgaver
Det er fremdeles et åpent spørsmål hvor AI-assistenter vil brukes til å gjøre menneskelig arbeidskraft bedre, og hvor de vil brukes til å erstatte menneskelig arbeidskraft.
I en fremtid der «spør AI-en hva den tenker» er første (og i en hektisk hverdag kanskje eneste) steg for å ta en beslutning, vil det ligge enorm makt hos teknologiselskapene som bygger og eier modellene til å påvirke brukernes kildekritikk og kritiske tenkning
1 Det er f.eks. mange som har fått erfare at brukeropplevelsen får seg en knekk om de forsøker å snakke til sitt stemmestyrte smarthjem på en dialekt forskjellig fra normert bokmål/nynorsk…
Leveranser i jobbsammenheng?
Innholdsgenerering og svar på dagligdagse lavterskel spørsmål og gjøremål er en ting – kan generativ AI også brukes i skarpe leveranser i jobbsammenheng, der feil kan få potensielt store konsekvenser? Svaret ser ut til å være ja – med noen forbehold: I et eksperiment*Noy, Zang: «Experimental Evidence on the Productivity Effects of Generative Artificial Intelligence» (2003) https://economics.mit.edu/sites/default/files/inline-files/Noy_Zhang_1.pdf samlet forskere ved MIT to grupper universitetsutdannede kontorarbeidere med et bredt spekter roller, som mellomledere, konsulenter, analytikere, HR-ansatte, og markedsførere. Deltagerne fikk i oppdrag å løse domenerelevante skriveoppgaver, som å utforme eposter med forskjellige budskap, søknader og pressemeldinger. Den ene gruppen fikk bruke ChatGPT i arbeidet, den andre ikke.
Signifikant bedre med ChatGPT
Forfatterne fant en signifikant økning i effektivitet og i kvaliteten på leveransene i gruppen som fikk benytte ChatGPT: Med AI-støtte halverte deltagerne tiden brukt på å få opp førsteutkast, og kunne bruke mer tid på kvalitetssikring og finpuss. Et interessant – og oppløftende – funn i MIT-undersøkelsen var at ChatGPT hjalp de svakeste brukerne mest, slik at bruken av løsningen gav en utjevnende effekt på gruppen som helhet. På den annen side var det kun en tredjedel av brukerne i ChatGPT-gruppen som – to uker etter at eksperimentet ble gjennomført – opplyste at de brukte ChatGPT aktivt i jobbsammenheng: I sammensatte spørsmål og problemstillinger knyttet til spesifikke individ-, kunde-, og produktdetaljer kommer AI-assistenter fremdeles til kort – i alle fall for en stund til.
ChatGPT og revisjon?
Imran Vanker ved Sør-Afrikas Independent Regulatory Board for Auditors har testet ut ChatGPT på noen enkle revisjonsoppgaver. Basert på sine anekdotiske erfaringer er han optimistisk for ChatGPTs langsiktige potensial innen revisjon, spesielt om løsningen videreutvikles og spisses til å ta utgangspunkt i revisjonsstandarder og «tenke som en revisor».* https://www.accountingweekly.com/audit-accounting/how-chatgpt-may-disrupt-auditing I mellomtiden ville det være en naturlig videreføring av MIT-eksperimentet å gjøre tilsvarende eksperimenter spisset inn mot forskjellige enkeltdomener – som revisjon: Alt som behøves er en gjeng revisorer som vil være med på å løse og/eller bedømme revisjons-skriveoppgaver med og uten ChatGPT. Kanskje kan Revisorforeningen komme på banen her?