Një luftë shkatërruese bërthamore, shkatërruese për njerëzimin mund të shkaktohet nga inteligjenca artificiale, madje edhe para vitit 2040, ka paralajmëruar përmes një hulumtimi, një institut i sigurisë. Po sipas këtij hulumtimi, avancimet që çojnë në “makinat shkatërruese” mund të inkurajojnë vendet të marrin rreziqe apokaliptike me arsenalet e tyre bërthamore.
Gjatë Luftës së Ftohtë, një kusht i quajtur “Shkatërrim i Siguruar Reciprokisht” (Mad) mbajti një paqe të paqëndrueshme midis superfuqive. Të dyja palët e konfliktit kishin pak nxitje për të nisur një sulm bërthamor, pasi do të ishte i përballur nga një hakmarrje shkatërruese.
Megjithatë, përparimet në Inteligjencën Artificiale mund të nënkuptojnë se kjo nuk është më e garantuar, duke pas parasysh potencialin e hakmarrjes – dhe nuk mund të ketë asnjë mënyrë për të parandaluar një të ardhme të tillë. Pretendimet u bënë nga Korporata Rand, një organizatë jofitimprurëse në Santa Monica, Kaliforni, që ofron hulumtime dhe analiza për forcat e armatosura të Shteteve të Bashkuara në çështjet e politikave globale.
Ajo thotë se, në dekadat e ardhshme, përparimet në IA mund të dëmtojnë aftësinë e Mad për të mbajtur nën kontroll vendet bërthamore. Ashtu si në Luftën e Ftohtë të viteve 1940 dhe 1950, secila palë e konflikteve të ardhshme bërthamore ka arsye të frikësohet nga kundërshtari i saj që të ketë rritje të kapaciteteve teknologjike.
Siç thuhet më tej, agjentët e përmirësuar të IA-së, të kombinuar me më shumë sensorë dhe të dhëna me burime të hapura, mund t’i bindnin vendet se aftësitë e tyre bërthamore janë të pambrojtura. Kjo, thotë raporti, mund të bëjë që ata të ndërmarrin hapa më drastikë për të vazhduar me avancimet.
“Disa ekspertë kanë frikë se një mbështetje më e madhe në inteligjencën artificiale mund të çojë në lloje të reja të gabimeve katastrofike”, tha Andrew Lohn, bashkautor në letër dhe inxhinier i asociuar në Rand, shkruan Telegrafi.
“Mund të ketë presion për të përdorur IA para se të jetë teknologjikisht e pjekur. Prandaj, ruajtja e stabilitetit strategjik në dekadat e ardhshme mund të jetë shumë e vështirë”.
Një tjetër skenar shqetësues, thotë raporti, është që komandantët mund të marrin vendime për të filluar sulme bazuar në këshillat e ndihmësve të IA-së që mund të jenë të ushqyer me informacione të gabuara. Përveç ofrimit të këshillave të dobëta, sisteme të tilla mund të jenë gjithashtu të prekshme ndaj hakerave, duke hapur mundësinë që palët e treta me qëllim të keq që të shkaktojnë një – megjithëse të shkurtër – Luftë të Tretë Botërore.
Sipas mediave, hulumtuesit e Rand bazuan përfundimet e tyre mbi informacionin e mbledhur gjatë një sërë seminaresh me ekspertë në çështjet bërthamore, degët e qeverisë, hulumtimet e IA, politikën e IA dhe sigurinë kombëtare. Studimi thuhet se është pjesë e një përpjekjeje më të gjerë për të parashikuar sfidat kritike të sigurisë në botën e vitit 2040, duke marrë parasysh efektet e tendencave politike, teknologjike, sociale dhe demografike që do t’i formësojnë këto sfida të sigurisë.