Szakértők: Az egyetlen gyilkos elleni védekezés AI nem fejleszti tovább

Kérjük, ossza meg ezt a történetet!
Az ellenőrzésen kívüli gyilkos AI a hadviselésben elkerülhetetlen, mert túl bonyolultá válik az emberi irányítás és ellenőrzés szempontjából. Az egyetlen igazi válasz az, hogy előbb nem fejleszti ki. ⁃ TN szerkesztő

A hadviselés jövőjéről szóló közelmúltbeli elemzés rámutat arra, hogy azok az országok, amelyek továbbra is fejlesztették a katonai felhasználásra szánt AI-t, kockázatot veszítenek a csatatéren. Azokat, amelyek nem veszélyeztetik a felszámolást. Függetlenül attól, hogy az AI fegyverkezési versenyt támogatja, vagy ellene: történik. Egy szakértői trió szerint ez mit jelent.

A kutatók a ASRC Federalegy magánvállalat, amely támogatást nyújt a hírszerző és védelmi közösségek számára, és a Marylandi Egyetem nemrégiben kiadott egy papírt a nyomtatás előtti szerverről arXivaz AI rendszerek modern hadviselésbe történő integrálásának lehetséges következményeinek megvitatása.

A papír - olvassa el itt - az AI fegyverkezési versenyének a közeljövőre gyakorolt ​​következményeire összpontosít, azzal a feltételezéssel, hogy AI fog nem valahogy fuss vagy átvételt. Lényegében ez egy rövid, józan és félelmetes pillantás arra, hogy miként fog működni ez a különféle gépi tanulási technológia, a jelenlegi csúcstechnikai katonai AI technológiák elemzése és az előre jelzett integráció alapján.

A cikk a közelgő katasztrófa figyelmeztetésével kezdődik, és elmagyarázza, hogy szinte biztosan „normális baleset” lesz az AI vonatkozásában - olyan várható esemény, amelynek természetét és hatókörét nem tudjuk megjósolni. Alapvetően a világ katonasága néhány polgári tojást megtör, így az AI fegyverkezési-omlettjévé válik:

E terület tanulmányozása olyan balesetekkel kezdődött, mint például a Three Mile Island, de az AI technológiák hasonló kockázatokat jelentenek. Ezeknek a gyengeségeknek a felfedezése és kiaknázása a hibás viselkedés kiváltására a katonai stratégia állandó elemét képezi.

Ha azt gondolod, hogy gyilkosrobotok bocsátják ki városunkban, miközben a civilek menedéket sikítanak, akkor nem tévedsz - de a robotok, mint katonák meghatalmazása, nem az emberiség legnagyobb aggodalma az AI hadviselésről. Ez a cikk azt tárgyalja, hogy mi történik, miután elértük azt a pontot, amikor nyilvánvalóvá vált, hogy az emberek visszatartják a gépeket a hadviselésben.

A kutatók szerint a probléma nem olyan, amellyel a jót és a gonoszt meg tudjuk határozni. Persze, hogy könnyű azt mondani, hogy nem szabad megengedni, hogy a robotok öngyilkossággal gyilkolják meg az embereket, de a jövő döntéshozatali folyamata nem így fog működni.

A kutatók ezt csúszós lejtőként írják le:

Ha az AI rendszerek hatékonyak, akkor elkerülhetetlen a harcosoknak nyújtott segítség fokozására irányuló nyomás. A folyamatos siker azt jelentené, hogy az embert fokozatosan kiszorítják a hurokból, először egy felügyeleti szerepre, majd végül a folyamatosan működő törvényeket ellenőrző „gyilkos kapcsoló” szerepére.

A TÖRVÉNYEK vagy halálos autonóm fegyverrendszerek szinte azonnal meghaladják az ember számítógépen és gépen való munkaképességét - és valószínűleg hamarabb, mint azt az emberek többsége gondolja. A gépek közötti harc például szükség esetén teljesen önálló lesz:

Az idő múlásával, amint az AI képes jobban tükrözni és integrálni a gondolkodást, az emberi összetevőt teljesen meg kell szüntetni, mivel a sebesség és a dimenzió érthetetlenné válik, még a kognitív segítségnyújtás miatt is.

És végül az AI-vel történő kereskedelemhez szükséges taktika és reagálás teljes mértékben meghaladja az emberek kedvét:

Tekintettel arra a csatatérre, amelyben az emberek nem tudnak manuálisan bekapcsolódni a rendszerbe, az emberi szerep a poszt-hoc kriminalisztikai elemzésre korlátozódik, mihelyt az ellenségeskedés megszűnik vagy szerződéseket aláírtak.

Ha ez kissé komornak hangzik, az az oka. Mint Importáljon AI-kat Jack Clark rámutat: "Ez egy gyors cikk, amely felvázolja az AI + háború aggodalmait egy olyan közösségben, amelyről gyakran nem hallunk: az emberek, akik a kormányzati technológiák közvetlen szállítói."

Lehet, hogy mindenkinek érdeke nagy figyelmet fordítani arra, hogy a tudósok és a kormány továbbra is a jövőbeli problémát keretezzék.

Olvassa el a teljes történetet itt ...

Feliratkozás
Értesítés
vendég

2 Hozzászólások
Legrégebbi
legújabb A legtöbb szavazatot kapott
Inline visszajelzések
Az összes hozzászólás megtekintése
Elle

Mindig csodálkozik, hogy hogyan kell „tanulmányt” végezni a nagyon nyilvánvaló cselekvés (ek) valószínűségének „meghatározására”. Nos, DUH! az AI fronton, fiúk. Emlékeztet arra, hogy egy marketingcég vezérigazgatójának felesége hívott vacsorára. Azért definiálom őt, mert csak erről beszélt. Az étkezés során folytatta társaságát, ad nauseum mindannyiunk számára. Amikor végül elérte a kifizetést. Az asztalnak elmondta, hogy „elképesztő” cégének 4 millió dollárt kapott, hogy megtudja, miért választottak egyet az emberek... Olvass tovább "