Ex-Google mérnök: A „Gyilkos robotok” háborút kezdhetnek

Kérjük, ossza meg ezt a történetet!
Ahogy a kormányok felrobbantják az AI fegyverkezési versenyét az öngyilkos robotok irányítására, „engedéllyel rendelkeznek a gyilkolásra”, felmerül a szörnyű kockázatok kockázata, beleértve a robotháború megindításának lehetőségét is. ⁃ TN szerkesztő

Az autonóm fegyverek vagy a „gyilkos robotok” új generációja véletlenül háborút indíthat vagy tömeges atrocitásokhoz vezethet, egy korábbi csúcs Google a szoftvermérnök figyelmeztette.

Laura Nolan, aki tavaly lemondott a Google-tól azzal a tiltakozással, hogy drámaian fokozni kell egy projekten dolgozni Amerikai hadsereg drone technológia, felszólította az összes nem ember által üzemeltetett AI-gyilkos gép betiltását.

Nolan szerint a nem emberi távirányító által vezetett gyilkosrobotokat ugyanolyan típusú nemzetközi szerződés írja elő, amely tiltja a vegyi fegyvereket.

No a drónoktól eltérően, amelyeket gyakran a katonai csapatok irányítanak több ezer mérföldre attól a ponttól, ahonnan a repülő fegyvert alkalmazzák, Nolan szerint a gyilkosrobotok potenciálisan olyan bajtársakat képesek megtenni, amelyekre eredetileg nem voltak programozva.

Semmi nem utal arra, hogy a Google részt vesz az autonóm fegyverrendszerek fejlesztésében. A múlt hónapban az ENSZ kormányzati szakértői testülete megvitatta az önálló fegyvereket, és úgy találta, hogy a Google elkerüli az AI-t fegyverrendszerekben való felhasználásra és a legjobb gyakorlatok bevonására.

Nolan, aki csatlakozott a Kampány megállítani a gyilkos robotokat és tájékoztatta az ENSZ New York-i és genfi ​​diplomatáit az autonóm fegyverek veszélyeiről: „A katasztrófa valószínűsége arányos azzal, hogy ezeknek a gépeknek hányan lennének egy adott területen egyszerre. Ön a lehetséges atrocitásokra és jogellenes gyilkosságokra vonatkozik még a hadviselés törvényei alapján is, különösen, ha ezeket a gépeket százaik vagy ezrek telepítik.

„Nagyon súlyos balesetek történhetnek, mert ezek a dolgok váratlan módon kezdnek viselkedni. Ezért kell a fejlett fegyverrendszereket értelmes emberi ellenőrzés alá vonni, különben meg kell tiltani őket, mert túlságosan kiszámíthatatlanok és veszélyesek. "

A Google toborozta Nolanot, a számítógépes tudomány végzőjét a dublini Trinity College-ból, hogy a Project Mavennél dolgozzon az 2017-en, miután négy évig alkalmazott volt a műszaki óriásban, és Írország egyik vezető szoftvermérnökévé vált.

Azt állította, hogy „egyre inkább etikusan aggódik” a Maven programban betöltött szerepe miatt, amelyet arra terveztek, hogy az Egyesült Államok Védelmi Minisztériuma drasztikusan felgyorsítsa a drónos videofelismerési technológiát.

Ahelyett, hogy nagyszámú katonai dolgozót használt volna órákig tartó drón videofelvételek készítéséhez az esetleges ellenséges célokról, Nolan-t és másokot felkérték, hogy hozzanak létre egy rendszert, ahol az AI gépek végtelenül gyorsabban tudják megkülönböztetni az embereket és tárgyakat.

A Google engedte, hogy a Project Maven szerződése ez év márciusában megszűnjön, miután több mint 3,000 alkalmazottal dolgozott petíciót írt alá a társaság bevonása ellen.

„Mint webhelybiztonsági mérnök, a Google szakértelemnek az volt a feladata, hogy biztosítsa rendszereink és infrastruktúráink működését, és ezt kellett segítenem Mavennek. Bár nem vettem részt közvetlenül a videofelvétel felismerésének felgyorsításában, rájöttem, hogy továbbra is része vagyok a gyilkos láncnak; hogy ez végül azt eredményezné, hogy az amerikai hadsereg több embert célozna meg és öl meg olyan helyeken, mint Afganisztán. "

Nolan, noha lemondott a Project Maven felett, Nolan azt jósolta, hogy a kifejlesztett autonóm fegyverek sokkal nagyobb kockázatot jelentenek az emberiségre, mint a távirányítású drónok.

Felvázolta, hogy a változó időjárási viszonyoktól kezdve a gépekig, amelyek nem képesek kidolgozni az összetett emberi viselkedést, a külső erők elmozdíthatják a gyilkosrobotokat, esetleg halálos következményekkel.

„Lehet egy olyan forgatókönyv, amikor az önálló fegyverek, amelyeket munkára küldtek, váratlan radarjelekkel szembesülnek egy keresett területen; Előfordulhat olyan időjárás, amelyet nem vettek figyelembe a szoftverében, vagy olyan fegyveres férfiak csoportjával találkoznak, akik látszólag lázadó ellenségek, de valójában élelmet keresnek fegyverekkel. A gépen nincs megértés vagy józan ész, amit az emberi érintés mutat.

„A másik félelmetes helyzet ezekben az autonóm háborús rendszerekben az, hogy csak akkor valósíthatja meg őket, ha valódi harci övezetben telepítik őket. Talán ez történik a jelenleg Szíriában élő oroszokkal, ki tudja? Amit tudunk, az az, hogy az ENSZ-nél Oroszország ellenezte minden olyan szerződést, amely egyébként nem említi ezeket a fegyvereket.

„Ha olyan gépet tesztel, amely meghozza saját döntését a körülötte lévő világgal kapcsolatban, akkor annak valós időben kell lennie. Ezen felül, hogyan képzel egy olyan rendszert, amely kizárólag a szoftvert futtatja, hogyan lehet észlelni a finom emberi viselkedést vagy felismerni a vadászok és a lázadók közötti különbséget? Hogyan különbözteti meg az ottani gyilkos gépet az 18 éves harcos és az 18 éves, aki nyulakat vadász?

Olvassa el a teljes történetet itt ...

Feliratkozás
Értesítés
vendég

1 Megjegyzés
Legrégebbi
legújabb A legtöbb szavazatot kapott
Inline visszajelzések
Az összes hozzászólás megtekintése
Steve

Erről a Háborús játékok jelenete jut eszembe - egy kicsit régimódi nézésre -, de nagyon releváns. https://www.youtube.com/watch?v=NHWjlCaIrQo