Az AI-etikáról szóló EU: "A pozitív társadalmi változásokat elő kell mozdítania"

Kép: Európai Bizottság
Kérjük, ossza meg ezt a történetet!
Az EU technokratái meghatározzák az AI etikáját: „Környezeti és társadalmi jólét - Az AI-rendszernek fenntarthatónak kell lennie, és „fokoznia kell a pozitív társadalmi változásokat”. Ez az áhított „Társadalmi mérnöki tudomány”, amely visszanyúlik az 1930-as évek eredeti Technokrácia mozgalmába. ⁃ TN szerkesztő
 

Az Európai Unió ma közzétette a iránymutatások arról, hogy a vállalatoknak és a kormányoknak miként kell kidolgozniuk a mesterséges intelligencia etikai alkalmazását.

Ezek a szabályok nem olyanok, mint Isaac Asimov „A robotika három törvénye” című cikke. Nem kínálnak egy mohó, erkölcsi keretet, amely segít nekünk a gyilkos robotok irányításában. Ehelyett a zavaros és diffúz problémákkal foglalkoznak, amelyek hatással vannak a társadalomra, amikor integráljuk az AI-t olyan ágazatokba, mint az egészségügy, az oktatás és a fogyasztói technológia.

Tehát például, ha egy AI rendszer valamikor a jövőben diagnosztizálja Önt rákkal, az EU iránymutatásai azt szeretnék biztosítani, hogy számos dolog megtörténjen: hogy a szoftvert nem torzítják-e a faj vagy a nemek, hogy nem Nem utasíthatja el az emberi orvos kifogásait, és ez lehetővé tette a beteg számára a diagnózis magyarázatát nekik.

Szóval, igen, ezek az irányelvek az AI megakadályozásának megakadályozásáról szólnak, de a rendszergazda és a bürokrácia szintjén, nem pedig az Asimov stílusú gyilkosság rejtélyein.

Ennek a célnak az elősegítése érdekében az EU összehívta az 52 szakértők csoportját, akik hét követelményt fogalmaztak meg, amelyek véleménye szerint a jövőbeli AI rendszereknek teljesíteniük kell. Ezek a következők:

  • Emberi ügynökség és felügyelet - AI nem szabad becsapni az emberi autonómiát. Az embereket nem szabad manipulálni vagy kényszeríteni az AI rendszerek által, és az embereknek képesnek kell lenni arra, hogy beavatkozzanak vagy felügyeljék a szoftver által hozott minden döntést.
  • Műszaki robusztus és biztonság - Az AI-nek biztonságosnak és pontosnak kell lennie. Nem szabad, hogy külső támadások (pl kontradiktórius példák), és ésszerűen megbízhatónak kell lennie.
  • Adatvédelem és az adatkezelés - Az AI-rendszerek által összegyűjtött személyes adatoknak biztonságosnak és magántulajdonnak kell lenniük. Nem szabad, hogy csak bárki számára hozzáférhessen, és nem szabad könnyen ellopni.
  • Átláthatóság - Az AI-rendszer létrehozásához használt adatoknak és algoritmusoknak hozzáférhetőnek kell lenniük, és a szoftver által meghozott döntéseknek „meg kell érteniük és követniük kell az embereket.” Más szavakkal, az üzemeltetőknek tudniuk kell tudniuk magyarázni az AI-rendszerek által hozott döntéseket.
  • Sokszínűség, megkülönböztetésmentesség és igazságosság - Az AI által nyújtott szolgáltatásoknak mindenkinek rendelkezésre kell állniuk, életkorától, nemétől, fajtájától vagy más jellemzőitől függetlenül. Hasonlóképpen, a rendszereket nem szabad elferdíteni ezen a vonalon.
  • Környezeti és társadalmi jólét - Az AI rendszereknek fenntarthatóaknak kell lenniük (azaz ökológiailag felelőseknek kell lenniük) és „elő kell mozdítaniuk a pozitív társadalmi változásokat”
  • Felelősségre vonhatóság - Az AI rendszereknek auditálhatónak kell lenniük, és azokat a vállalati bejelentőkre vonatkozó hatályos védelemnek ki kell terjednie. A rendszerek negatív hatásait előzetesen fel kell ismerni és be kell jelenteni.

Észre fogja venni, hogy ezeknek a követelményeknek néhány meglehetősen elvont, és objektív szempontból nehéz lenne értékelni. (Például a „pozitív társadalmi változások” meghatározásai személyenként és országonként nagymértékben eltérnek.) De mások egyértelműbbek és kormányzati felügyelet útján tesztelhetők. Például a kormányzati AI-rendszerek kiképzéséhez felhasznált adatok megosztása jó módszer lehet a küzdelemre elfogult algoritmusok.

Ezek az iránymutatások nem jogilag kötelező erejűek, de formálhatják az Európai Unió által kidolgozott jövőbeli jogszabályokat. Az EU már többször kijelentette, hogy vezető szerepet törekszik az etikus AI területén, és ezzel megmutatta GDPR hogy hajlandó nagyszabású törvényeket létrehozni, amelyek védik a digitális jogokat.

Ezt a szerepet azonban körülmények részben kényszerítették az EU-ra. Nem tud versenyezni Amerikával és Kínával - az AI világ vezető vezetõivel - a beruházások és az élvonalbeli kutatás terén, tehát az etikát választották a legjobb megoldásként a technológia jövõjének alakításához.

Olvassa el a teljes történetet itt ...

Feliratkozás
Értesítés
vendég

2 Hozzászólások
Legrégebbi
legújabb A legtöbb szavazatot kapott
Inline visszajelzések
Az összes hozzászólás megtekintése
RL

A probléma… Az EU-t ma irányító emberek elképzelése arról, hogy mi lehet a „pozitív társadalmi változás”, minden valószínűség szerint nagyon különbözik attól, amit a lakosság általában „pozitív társadalmi változásnak” tekint. Például a nemzetállamok megszüntetését támogatják a globalizmus és a korlátlan illegális bevándorlás mellett, mi nem. Trükkös dolog, amikor szemantikával játszanak ...