
|
|
Utmaningar med konstgjord intelligens måste hanteras i
framtida ansträngningar för att minska kärnkraftsrisken.
|
|
SIPRI
Artificiell
intelligens
Bidrar
till kärnkraftsrisk
Nya framsteg inom
artificiell intelligens (AI) bidrar till kärnkraftsrisk enligt en
ny rapport från Stockholms internationella fredsforskningsinstitut
(SIPRI).
Michael
Dziedzic: |2020-06-20|
Författarna varnar för att kärnvapenbeväpnade staters konkurrens
i militär AI och för tidigt antagande av AI i kärnvapen och
relaterade kapaciteter kan ha en negativ inverkan på strategisk
stabilitet och öka sannolikheten för användning av kärnvapen. Rapporten
föreslår AI-specifika kärnriskåtgärder och är nu tillgängliga.
De
senaste framstegen inom artificiell intelligens kommer att påverka
kärnvapen och relaterade kapaciteter.
I rapporten visar att
de senaste framstegen inom AI, särskilt lärande maskin och
autonomi, kan låsa upp nya och varierade möjligheter i ett brett
spektrum av kärnvapen-relaterade funktioner, från tidig varning
till styrning och kontroll och vapenleverans.
Automatiserade
system
Maskininlärning
och autonomi är inte ny, men den senaste utvecklingen inom dessa
områden har möjliggjort utvecklingen av automatiserade system som
kan lösa komplexa problem eller uppgifter som tidigare bara hade
gett mänsklig kognition eller krävt mänsklig intervention.
"Den
viktigaste frågan är inte om, utan när, hur och av vem de senaste
framstegen i AI kommer att antas för kärnkraftsrelaterade ändamål,"
säger Dr Vincent Boulanin, seniorforskare, SIPRI och huvudförfattare
till rapporten. Men i detta skede kan svaren på dessa frågor
bara vara spekulativa. Kärnvapenstater har inte varit
transparenta om AI: s nuvarande och framtida roll i sina kärnkrafter.
Forskning
visar ändå att alla kärnvapenstater har gjort den militära strävan
efter AI till en prioritet, med många fast beslutna att vara världsledare
på området. Rapporten varnar för att detta kan påverka
strategiska relationer negativt, även innan kärnvapenrelaterade
applikationer utvecklas eller distribueras.
För
tidig användning av militär AI kan öka kärnkraftsrisken
Författarna
hävdar att det skulle vara uppåtriktat av kärnvapenstater att
skynda sig på att anta AI-teknik för militära ändamål i allmänhet
och kärnkraftsrelaterade syften i synnerhet. För tidigt
antagande av AI kan öka risken för att kärnvapen och relaterade
kapaciteter kan misslyckas eller missbrukas på sätt som kan utlösa
en oavsiktlig eller oavsiktlig upptrappning av en kris eller
konflikt till en kärnkraftkonflikt.
"Det
är emellertid osannolikt att AI-teknik – som är möjliggörare
– kommer att vara utlösaren för kärnvapenanvändning." säger
Dr Lora Saalman, associerad seniorkamrat om beväpning och
nedrustning, SIPRI. "Regionala trender, geopolitiska spänningar
och felaktig tolkad signalering måste också beaktas för att förstå
hur AI-teknologier kan bidra till en upptrappning av en kris till kärnkraftsnivån."
Förtroendeskapande
åtgärder
Rapporten
rekommenderar att insyn och förtroendeskapande åtgärder för
nationell AI-utveckling skulle bidra till att mildra sådana risker.
Utmaningar med konstgjord intelligens måste hanteras i framtida
ansträngningar för att minska kärnkraftsrisken.
Enligt rapportens författare måste AI: s utmaningar på kärnkraftsarenan
prioriteras i framtida diskussioner om kärnriskreduktion.
”Det
är viktigt att vi inte överskattar den risk som AI utgör för
strategisk stabilitet och kärnkraftsrisk. Men vi får inte
heller underskatta risken för att inte göra någonting, säger Dr
Petr Topychkanov, seniorforskare, kärnvapenavveckling,
vapenkontroll och icke-spridningsprogram, SIPRI.
Åtgärder
för kärnvapenstater
"Samtidigt
som konversationen om AI-relaterade risker fortfarande är ny och
spekulativ, är det inte för tidigt för kärnvapenstater och det
internationella säkerhetssamhället att utforska lösningar för
att mildra de risker som tillämpning av AI på kärnvapensystem
skulle innebära fred och stabilitet, säger Topychkanov.
I
rapporten föreslås ett antal åtgärder för kärnvapenstater,
till exempel samarbete för att lösa grundläggande säkerhets- och
säkerhetsproblem i AI, tillsammans undersöka användningen av AI för
vapenkontroll och enas om konkreta gränser för användningen av AI
i kärnkrafter.
Slutkommentar
Denna
rapport är den slutliga publiceringen av ett tvåårigt
forskningsprojekt som stöds av ett forskningsstipendium från
Carnegie Corporation i New York. Den föregicks av en trilogi
av redigerade volymer som sammanställer uppsatser från experter från
olika regioner.
Läs
rapporten Artificiell intelligens bidrar till kärnkraftsrisk!
Rapporten
|