Megjelent a hivatalos robot etika: Do Do Harm, Engey Orders

Kérjük, ossza meg ezt a történetet!

Az angliai robotika professzora szerint „Az AI-rendszer problémája jelenleg, különösen ezek a mély tanulási rendszerek, ez az lehetetlen tudni, hogy miért hozzák meg döntéseiket.”Ha ez igaz, akkor a robotok már nincsenek kézben.  TN szerkesztő

Isaac Asimov megadta nekünk a jó robot viselkedésének alapvető szabályait: ne sértse meg az embereket, tartsa be a parancsokat és védje meg magát. Most a Brit Szabványügyi Intézet kiadta a hivatalosabb verzió amelynek célja, hogy segítsen a tervezőknek etikusan megalapozott robotok létrehozásában.

A dokumentum, BS8611 Robotok és a robotikus eszközök, az egészségvédelmi és biztonsági kézikönyv száraz nyelven íródnak, de az általa kiemelt nemkívánatos forgatókönyvek közvetlenül a fikcióból származhatnak. A robotok megtévesztése, a robotfüggőség és az önálló tanulási rendszerek lehetősége, hogy meghaladják a hatáskörüket, mind veszélyeknek számít, amelyeket a gyártóknak figyelembe kell venniük.

Üdvözli az irányelveket a Társadalmi robotika és AI Az Oxford konferencián Alan Winfield, a Nyugat-Anglia Egyetem robotika professzora azt mondta, hogy „az első lépés az etikai értékeknek a robotikába és az AI-be való beágyazása felé”.

"Amennyire tudom, ez a robotok etikai tervezésének első közzétett szabványa" - mondta Winfield az esemény után. "Kicsit kifinomultabb, mint az Asimov törvényei - alapvetően meghatározza, hogyan kell elvégezni a robot etikai kockázatértékelését."

A BSI dokumentum néhány általános etikai elvvel kezdődik: „A robotokat nem szabad kizárólag vagy elsősorban az emberek megölésére vagy sérülésére tervezni; az emberek, nem a robotok, a felelősek; Lehetővé kell tenni, hogy megtudja, ki felelős minden robotért és annak viselkedéséért. ”

Ezután kiemeli egy sor vitatott kérdést, például azt, hogy kívánatos-e az érzelmi kötelék egy robotmal, különösen akkor, ha a robotot gyermekekkel vagy idős emberekkel való interakcióra tervezték.

Noel Sharkey, a robotika emeritus professzora és a Sheffieldi Egyetem AI-je elmondta, hogy ez egy példa arra, ahol a robotok véletlenül becsaphatnak bennünket. "Nemrégiben volt egy tanulmány, ahol kis robotokat ágyaztak be az óvodába" - mondta. „A gyerekek imádták, és valójában kötődtek a robotokhoz. De amikor utólag megkérdezték, a gyerekek egyértelműen azt hitték, hogy a robotok inkább kognitív jellegűek, mint a családi háziállatuk. ”

Olvassa el a teljes történetet itt ...

Feliratkozás
Értesítés
vendég

1 Megjegyzés
Legrégebbi
legújabb A legtöbb szavazatot kapott
Inline visszajelzések
Az összes hozzászólás megtekintése
Jerry Day

A robotoknak tudniuk kell, hogy mit csinál az ember „ártalomnak” annak érdekében. Ez bármi lehet, a munkahelyünk megszüntetésétől a mikro-agresszív megjegyzésekig. A rendőrség már robotokkal használta a „gyanúsított” darabokra fújását, így, mint minden más, a kormány és robotjaik is figyelmen kívül hagyják a szabályokat, miközben nekünk és robotjainknak be kell tartani őket.