KI – på godt eller vondt for sikkerheten?

Når man hører begrepet kunstig intelligens (KI), tenker man kanskje på mye forskjellig: selvkjørende biler, chatbots, «deepfakes», truede arbeidsplasser, dommedag. Men hva er egentlig kunstig intelligens og hvilke konsekvenser vil den få for sikkerheten?

«Sophia», roboten fra Hanson Robotics Ltd., som snakker ved «AI for GOOD Global Summit» i Geneve, Sveits, juni 2017. Foto: AI for GOOD Global Summit/ Wikimedia Commons (CC BY 2.0).

I november 2022 endret verden seg brått. Da slapp organisasjonen OpenAI sin kunstige intelligens ChatGPT løs på verden. Teknologien tok plutselig et kvantesprang fremover som mange hadde forutsett, men få var forberedt på. Det som en gang var et nær-dystopisk tema, har nå blitt en normal del av vår hverdag.

Denne revolusjonerende maskinhjernen er likevel bare et sandkorn i forhold til hva som venter oss. Utviklingen av kunstig intelligens vil komme til å påvirke nesten alle deler av vår verden slik vi kjenner den i dag. Men blir dette på godt eller vondt?

Her er meningene ganske splittet. For noen er utviklingen av kunstig intelligens starten på en mer effektiv, trygg og innovativ verden. Andre frykter at dette kan bety starten på slutten for menneskeheten. Frykten er at teknologien kan komme til å utvikle seg såpass at den etter hvert vil bli smartere enn menneskene som skapte den. Dette kan føre til at at vi mister kontrollen. Stephen Hawking var blant dem som målbar denne bekymringen. Ifølge Hawking vil det etterhvert bli umulig for mennesker å konkurrere med KI-baserte systemer, gitt at de kan oppdatere seg selv mye raskere enn det mennesker kan.

La oss se litt nærmere på hva kunstig intelligens egentlig er, og hvilke konsekvenser dens utvikling kan få for noen sentrale deler av staters sikkerhetspolitikk.

Hva er egentlig kunstig intelligens?

Kunstig intelligens (KI), eller Artifical Intelligence (AI) på engelsk, defineres av SNL som «informasjonsteknologi som justerer sin egen aktivitet og derfor tilsynelatende framstår som intelligent».

ChatGPT. Foto: Ehécatl Cabrera/ Wikimedia Commons (CC BY-SA 4.0)

Med andre ord, systemer som benytter seg av kunstig intelligens er autonome, altså selvstyrte, og klarer derfor å løse oppgaver selv uten å få instruksjoner utenfra (fra mennesker). Det sies ofte at slike systemer etterligner menneskelig intelligens.

Et slikt system bygges på én av to mulige modeller. Den første modellen, en regelbasert modell, gjør den kunstige intelligensen mulig ved å programmere systemet på forhånd. Den andre modellen, kalt for en datadrevet modell (eller «maskinlæring»), går ut på å trene/lære opp maskinen under utviklingen. Resultatet blir uansett et system som klarer seg selv med den opplæringen den har fått, og ikke behøver noe videre input. Det vil fortsette med selvlæring.

Det som imidlertid gjør denne teknologien så revolusjonerende, er at den klarer å utføre disse menneskelige oppgavene på en ikke-menneskelig måte. KI-systemer kan håndtere gigantiske datamengder, plukke ut svært nøyaktig informasjon ut ifra disse, og gjøre alt dette lynraskt.

Fremveksten

Historien til denne teknologien strekker seg flere tiår tilbake. Det har vært et stadig voksende felt, preget av banebrytende fremskritt og utfordringer. Det var Alan Turing, en britisk matematiker og logiker, som i 1950 utviklet en test kjent som Turing-testen. Denne testen var ment å vurdere om en maskin kunne vise intelligens tilsvarende et menneskes, og ikke kunne la seg skille fra en menneskelig samtalepartner.

Alan Turing på 1930-tallet. Foto: Wikimedia Commons (offentlig eie).

På 1950- og 1960-tallet ble det gjort betydelige fremskritt innen KI. Dette var særlig innenfor systemer som kunne utføre spesifikke oppgaver basert på forhåndsdefinerte regler (regelbaserte modeller). Men på den tiden ble fremgangen overskygget av prosessorenes begrensninger og mangelen på tilstrekkelig datakraft. Utviklingen av kunstig intelligens har av den grunn vært avhengig av annen teknologisk utvikling gjennom årene, noe som gjorde at vi ikke så noen store fremskritt igjen på feltet før på 2000-tallet.

Med stor fremgang innenfor maskinlæring, der store datasett og mer avanserte algoritmer kan bli brukt for å lære opp KI-systemer, har kunstig intelligens utviklet seg voldsomt de siste årene. I dag er den en del av dagliglivet til enkeltpersoner, bedrifter, stater og internasjonale institusjoner. Enten det er gjennom ansiktsgjenkjenning og ChatGPT, eller droner og kampfly.

Finnes det noen juridiske begrensninger?

Foreløpig finnes det ingen vedtatt lovgivning i verden, som er utformet spesifikt for å kontrollere bruken av KI. Dette er noe av det som skaper mest bekymring.

EU har imidlertid vært første ute med å foreslå et regelverk, den såkalte Artificial Intelligence Act. Dette regelverket tar sikte på å regulere utviklingen og bruken av KI for å sikre at den er i tråd med EUs grunnleggende rettigheter og verdier. Regelverket vil øke bruken av menneskesentrisk og pålitelig kunstig intelligens, samtidig som den beskytter helse, sikkerhet, fundamentale rettigheter, demokrati, miljø og rettssikkerhet.

Ursula von der Leyen står på en talerstol med EU-flagget ved siden av seg
Ursula von der Leyen, president for Europakommisjonen. Foto: European Union 2020 – Source: EP, CC-BY-4.0.

Ansvarliggjøring blir et viktig tema å diskutere. Gitt at KI er en selvstyrt form for teknologi, er det foreløpig uavklart hvor ansvaret ligger skulle det skje en feil eller uhell med teknologien. Denne uklarheten gjør det juridiske svært utfordrende.

Det er imidlertid ikke sikkert når lovgivningen vil tre i kraft. Det er antatt at det vil komme flere revisjoner i årene fremover før dette skjer, gitt den raske utviklingen av teknologien. Det kom flere innstramninger senest i juli 2023.

En ny tid for sikkerhetspolitikken – på godt eller vondt?

Sikkerhetspolitikken er ingen unntak når det kommer til implikasjonene av kunstig intelligens. La oss se litt nærmere på hvordan to sentrale deler av staters sikkerhetspolitikk, nemlig samfunnssikkerhet og forsvarsteknologi, vil bli påvirket.

Samfunnssikkerhet

Kunstig intelligens byr først og fremst på økt effektivitet. Det er derfor mange fordeler å dra fra denne teknologien når det gjelder offentlige tjenester og institusjoner.

KI-baserte systemer kan for eksempel effektivisere helsevesenet ved å bidra til behandlingen av store datamengder. De kan til og med hjelpe til med diagnostisering, behandling og medisinsk forskning.

Teknologien kan også bidra til kriminalitetsbekjempelse. Den har evnen til å identifisere mistenkelige aktiviteter på en mye større skala, slik at flere kriminelle handlinger kan stoppes før de finner sted. Dette gjelder også for cyberkriminalitet, der kunstig intelligens kan bidra til å etablere systemer som er betydelig vanskeligere å hacke eller angripe.

Eksempler på fordeler ved KI er det mange av, men de kommer alle med sine mer problematiske sider. Den autonome effektiviteten kan for eksempel gå så langt at det ikke er behov for mennesker lenger. Med omfattende tap av arbeidsplasser kommer flere sosiale utfordringer. Og med disse utfordringene kan demokratiske institusjoner og de sosiale modellene som mange demokratier bygges på, komme i fare. Videre kan KI også true demokratiske institusjoner knyttet til personvern og føre til overdrevet verifisering og overvåking.

Cybersikkerhetssenteret på Jørstadmoen. Cybersikkerhetssenteret (CSS).
Cybersikkerhetssenteret (CSS) jobber med viktige oppgaver. Foto: Forsvaret/Anette Ask.

Noe lignende kan man se på cyberfeltet. Mens KI kan bidra til forbedret cybersikkerhet for noen, kan den også bidra til bedre hacking hos andre. KI gir cyberkriminelle muligheten til å utføre sofistikerte og ugjenkjennelige cyberangrep som gjør at de kan unngå oppdagelse under angrep. Hackere kan forvirre KI-baserte systemer med forfalsket informasjon som gjør at de blir forsvarsløse. Det samme gjelder desinformasjon. KI kan utvikle svært gode verifiseringsmekanismer for forfalsket informasjon, samtidig som den kan bli brukt til nettopp å spre dette. Såkalte «deepfakes», ekstremt realistiske forfalskninger, er et eksempel på hva KI kan skape.

Forsvarsteknologi

Utviklingen av kunstig intelligens har allerede satt sine spor på forsvarsfeltet. Teknologien har muligheten til å påvirke alle krigsdomener som forsvaret opererer innenfor – fra luft og land, til cyberdomenet og verdensrommet.

Teknologien har revolusjonert staters etterretnings- og overvåkingssystemer. Den raske og nøyaktige analysekapasiteten til KI gjør at stater nå kan identifisere og reagere på ulike trusler svært raskt. KI-baserte systemer har også blitt brukt til å utvikle komplekse militære ressurser, som har endret slagmarken betydelig.

Bilde tatt fra en F-35 av en annen Norsk F-35 under Iceland Air Policing 2021.

Blant disse ressursene finner vi autonome våpensystemer, som droner og kampfly. Det blir i skrivende stund utført et nytt KI-sentrert eksperiment med kampflyet, F-35, som Finland har valgt å ta del i. Eksperimentet går ut på å verne disse kampflyene med autonome droner, styrt fra hvert enkelt fly. Ideen ble lansert våren 2022, men produksjonen ble startet først i 2023 da det amerikanske forsvarsdepartementet la inn en større bestilling. Det er også teoretisk mulig at kunstig intelligens kan gi oss robotsoldater i nær fremtid. Robot-hunder har for eksempel allerede blitt utviklet og testes nå for oppklaringsoppdrag. Firmaet Boston Dynamics jobber også med en menneskelignende robot som kan gjøre atletiske øvelser.

Hvis slike innovasjoner fortsetter, kan krig komme til å se helt annerledes ut i fremtiden. Autonome våpensystemer, og etter hvert kanskje soldater, kan ha mange fordeler. De kan minimere menneskelige feil og unøyaktighet under angrep, og redusere antall liv som settes i fare og går tapt på slagmarken. Samtidig kan nettopp det at mennesker ikke er involvert i operasjonen av slike systemer, true sikkerheten ytterligere. Mangelen på menneskelig beslutningstaking kan, som tidligere nevnt, gjøre det vanskelig å holde noen ansvarlig i det en feil eller uhell skjer. Risikoen for tap av kontroll over slike teknologier blir også enda farligere i militære- og krigskontekster.

Konklusjon

Gitt KIs store potensiale, på godt og vondt, har det å beherske denne nye teknologien blitt essensielt for staters sikkerhet. Av den grunn er utviklingen av KI nå det nye kappløpet mellom stater i det internasjonale samfunnet. Akkurat som med atomvåpen, satellitter og kampfly, er det slik at når én stat har behersket KI, må alle andre stater også beherske den. Stormaktene Kina og USA har for eksempel allerede investert milliarder i KI-baserte forskningsprosjekter, for å utvikle nye, avanserte militære teknologier.

Joe Biden og Xi Jinping møttes i 2013, da Biden var visepresident. Foto: REUTERS/Lintao Zhang/Pool//File Photo

Det er uten tvil mye nytte å dra fra kunstig intelligens innenfor sikkerhetsfeltet. Med bedret cybersikkerhet, mer avanserte menneskeløse våpensystemer og svært detaljert overvåking, kan verden på mange måter bli et tryggere sted. Likevel er det vanskelig å tro at man kan klare å unngå alt det negative knyttet til KI. Med lite kontroll og forståelse for teknologien, i tillegg til manglende juridiske begrensninger på den, kan det negative fort overstige det positive i det vi går inn i denne nye epoken.

Meld deg på nyhetsbrev

Vil du få med deg siste nytt fra oss? Meld deg på vårt nyhetsbrev.