Kunstig intelligens til militære formål

Foto: Kunstig intelligens

Kunstig intelligens brukes i dag til alt fra å redde liv i medisinsk forskning og utvikling, til å avkle kvinner mot deres vilje. Det er kun fantasien som begrenser hva kunstig intelligens kan brukes til.
Det er derfor naturlig å stille spørsmålet: Hva skjer når kunstig intelligens tas i bruk i militære operasjoner?

Flere bekymrer seg over at en militarisert kunstig intelligens kan føre til et dommedagsscenario slik som vi ofte ser i mørke science fiction filmer. Men kunstig intelligens kan faktisk gjøre krig mindre farlig ved at maskiner overtar de mest risikofylte oppgavene. Kunstig intelligens vil nok ikke erstatte soldater, men den vil endre hvordan militære operasjoner planlegges, gjennomføres og vurderes. Samtidig må etikk og moral være en viktig del av utviklingen.

Kunstig intelligens i militær praksis

I militær sammenheng handler kunstig intelligens først og fremst om systemer som kan håndtere store mengder informasjon raskt. Det kan være analyse av bilder og video, sortering av rapporter eller varsling om endringer som kan være viktige. Kunstig intelligens er spesielt god til å finne mønstre som mennesker lett overser.

Moderne militære operasjoner produserer enorme mengder data. Droner, sensorer, radarer og satellitter samler kontinuerlig inn informasjon. For mennesker er det umulig å få full oversikt i sanntid. For kunstig intelligens derimot, er det en enkel oppgave å filtrere bort støy og finne det som er relevant.

Informasjon hentes inn og analyser av dette kan utføres av KI. Foto: Foto: Sigrid Vormeland / Forsvaret

I stedet for at mennesker må sitte i timevis foran skjermer, kan KI-systemer gi varsler når noe endrer seg. De kan også sammenligne nye data med tidligere observasjoner og oppdage små, men viktige endringer – for eksempel om noe er flyttet eller bygget.

Dette gir militære styrker raskere situasjonsforståelse og reduserer risikoen for å overse kritisk informasjon.

Tenk at du skal dra et sted som du aldri har vært før. Sannsynligheten er stor for at du bruker Google Maps eller lignende til å finne frem. Appen foreslår ruter basert på store mengder data, men det er fortsatt du som velger om rådet skal følges. På samme måte gir kunstig intelligens militære ledere forslag – ikke fasitsvar.

Autonome systemer – mer verktøy enn roboter

Begrepet «autonome systemer» skaper ofte sterke reaksjoner. Mange ser for seg fullt selvstyrte roboter som tar egne beslutninger. I praksis er virkeligheten langt mer nyansert.

De fleste systemene som brukes i dag, er delvis autonome. Det betyr at de kan utføre bestemte oppgaver selv, som å navigere, følge ruter eller unngå hindringer. Samtidig er det mennesker som setter rammene, bestemmer oppdragene og i de fleste tilfeller godkjenner kritiske handlinger.

Eksempler på praktisk bruk er mange. Ubemannede kjøretøy kan frakte forsyninger gjennom farlige områder og hente ut skadde soldater, slik de blant annet er brukt i krigen i Ukraina. Autonome fartøy kan patruljere store havområder over lang tid. Droner kan overvåke uten at piloter må være fysisk til stede. Felles for disse løsningene er at de reduserer risikoen for egne soldater.

Menneske og maskin – sammen

Slike fjernstyrte kjøretøy kan kombineres med kunstig intelligens. Foto: Torbjørn Kjosvold / Forsvaret

Fremtidens militære operasjoner vil i stor grad handle om samarbeid mellom mennesker og kunstig intelligens. KI er svært rask og presis i analyser, men mangler evne til å forstå helhet, moral og politiske konsekvenser. Det er derfor mennesker som må ta de endelige beslutningene.

I praksis fungerer kunstig intelligens som en avansert rådgiver. Den kan foreslå handlingsalternativer basert på simuleringer og analyser, men det er fortsatt militært personell som vurderer konsekvenser og tar ansvar.

Samtidig finnes det en risiko for at mennesker stoler for mye på teknologien. Når et KI-system ofte har rett, kan det være fristende å følge anbefalingene ukritisk. Dette kalles automatisert bias og er en kjent utfordring innen både militær og sivil bruk av kunstig intelligens.

I tillegg kan enkelte KI-systemer, særlig språkbaserte modeller, presentere feil eller usikker informasjon på en overbevisende måte. Selv uten intensjon om å villede kan dette gjøre det vanskelig for brukere å oppdage feil, og understreker behovet for menneskelig kontroll og kritisk vurdering.

Et norsk perspektiv: mennesket i sentrum

Også i Norge forskes det aktivt på hvordan kunstig intelligens kan brukes i militære operasjoner. Et sentralt poeng i dette arbeidet er at teknologien skal støtte mennesker – ikke erstatte dem. En av dem som har bidratt til dette perspektivet, er oberstløytnant og doktogradstipendiat Roy Severeide Bendiksen, som har forsket på kunstig intelligens, beslutningstaking og militær ledelse.

Oblt. Roy Severeide Bendiksen

Bendiksen har vært opptatt av hvordan KI kan bidra til bedre situasjonsforståelse i komplekse og stressende situasjoner. Samtidig har han pekt på faren ved at mennesker overlater for mye ansvar til teknologien. Kunstig intelligens kan analysere data, men den kan ikke forstå verdier, intensjoner eller politiske konsekvenser på samme måte som mennesker.

«– Vi nærmer oss et punkt der tempo og kompleksitet i strid gjør at enkelte beslutningsprosesser må håndteres maskinelt. Det betyr ikke at mennesket forsvinner, men at rollen endres. Menneskelig dømmekraft flyttes opp på et mer overordnet nivå, mens KI håndterer hastighet og datamengde.» Aftenposten 21.12.2025

Dette norske perspektivet legger vekt på kontroll, ansvar og bevisst bruk av teknologi. I stedet for å spørre hva KI kan gjøre, stilles spørsmålet om hva den bør brukes til – og hvilke grenser som må settes.

Etiske spørsmål uten enkle svar

Bruken av kunstig intelligens i militæret reiser alvorlige etiske spørsmål. Det viktigste handler om ansvar. Hvis et KI-basert system gjør en feil og uskyldige blir rammet, hvem har skylden? Utvikleren, operatøren eller staten?

Et annet spørsmål er hvor mye makt som kan overlates til maskiner. Mange mener at beslutninger om liv og død alltid må tas av mennesker. Samtidig kan KI bidra til mer presise operasjoner og redusere tilfeldige skader.

Det finnes ingen enkle svar, men nettopp derfor er debatten viktig.

Internasjonale rammer og regulering

Spørsmålet om kunstig intelligens i militær sammenheng diskuteres også på internasjonalt nivå. FN har gjennom sitt kontor for nedrustning, UNODA, løftet fram behovet for ansvarlig bruk av kunstig intelligens i det militære domenet. I 2023 vedtok FNs generalforsamling sin første resolusjon om kunstig intelligens og militær bruk. Resolusjonen slår fast at stater bør sikre menneskelig kontroll, ansvarlighet og respekt for internasjonal humanitærrett når slike teknologier tas i bruk. Selv om resolusjonen ikke er juridisk bindende, viser den at det finnes en bred internasjonal erkjennelse av at kunstig intelligens i krigføring krever klare rammer og politisk oppmerksomhet.

Mindre farlig – eller bare annerledes?

Vil kunstig intelligens gjøre krig mindre dødelig? På noen områder, ja. KI kan overta farlige oppgaver som overvåking, transport og rydding av eksplosiver. Samtidig vil krig fortsatt være brutal og uforutsigbar, særlig for sivile.

Det mest realistiske fremtidsbildet er ikke en verden der maskiner tar over, men en der kunstig intelligens blir et stadig viktigere verktøy. Teknologien vil gjøre krig raskere, mer teknologisk og mer kompleks.

Til syvende og sist handler det ikke bare om teknologi, men om menneskelige valg. Kunstig intelligens endrer krig – men ansvaret for hvordan den brukes, forblir menneskelig.

Meld deg på nyhetsbrev

Vil du få med deg siste nytt fra oss? Meld deg på vårt nyhetsbrev.