Szakértők: Az Európai Nemzeteknek meg kell tiltaniuk a szociális hitelpontozást

Európa
Kérjük, ossza meg ezt a történetet!
Az EU-ban a technokraták hajlandóak a teljes felügyeletre és az emberek ellenőrzésére, de egy magas szintű, független tanácsadó csoport figyelmeztetett arra, hogy ne alkalmazzanak mesterséges intelligenciát tömeges felügyelethez és szociális hitelbírálatokhoz. ⁃ TN szerkesztő

Független szakértői csoport, amelynek feladata a Európai Bizottság hogy tájékoztassa a mesterséges intelligenciára vonatkozó szabályozási válaszáról - hogy támogassa az uniós jogalkotók kijelentett célját, melynek célja az AI fejlesztésének „emberközpontúságának” biztosítása - közzétette politikáját és befektetési ajánlásait.

Ez követi a „megbízható AI” korábbi etikai irányelveit, amelyeket a magas szintű szakértői csoport (HLEG) dolgozott ki az AI számára április, amikor a Bizottság felhívta a résztvevőket a szabálytervezet tesztelésére.

Az AI HLEG teljes irányelvjavaslatai tartalmaznak egy nagyon részletes 50 oldalas dokumentumot - amely letölthető innen weboldal Az csoportot, amelyet az 2018 júniusban hoztak létre, felállítják Az iparágban működő madárinfluenza-szakértők, a civil társadalom képviselői, a politikai tanácsadók és a politikai szellemek, az akadémikusok és a jogi szakértők keveréke.

A dokumentum figyelmeztetéseket tartalmaz az AI használatáról az EU polgárainak tömeges megfigyelésére és pontozására, például Kína szociális hitelrendszere, a csoport pedig az „AI-kompatibilis egyének tömeges pontozásának” egyértelmű tilalmára szólít fel. Arra is sürgeti a kormányokat, hogy vállalják, hogy nemzetbiztonsági célokból ne vegyenek részt a lakosság általános megfigyelésében. (Tehát talán éppen olyan jól szavazott az Egyesült Királyság, hogy kilép az EU - ból az államfelügyeleti hatáskörök fokozódása törvénybe került az 2016 végén.)

"Noha a kormányoknak erős kísértés lehet, hogy" biztonságossá tegyék a társadalmat "egy átfogó megfigyelő rendszer kiépítésével, amely AI rendszereken alapszik, ez rendkívül veszélyes lenne, ha szélsőséges szintre állítanák" - írja a HLEG. "A kormányok vállalják, hogy nem vesznek részt az egyének tömeges megfigyelésében, és csak megbízható, a törvényt és az alapvető jogokat tiszteletben tartó, etikai alapelvekkel összeegyeztethető és társadalmi-technikailag megbízható AI-rendszereket telepítenek és szerezhetnek be."

A csoport emellett felszólít az egyének és a társadalmak kereskedelmi megfigyelésének „ellensúlyozására” - annak javaslatára, hogy az EU reagáljon az AI-technológiák hatékonyságára és visszaélésszerű felhasználására, biztosítani kell, hogy az emberek online nyomon követése „szigorúan összhangban álljon az olyan alapvető jogokkal, mint a magánélet ”, Beleértve (a csoport meghatározza), amikor az„ ingyenes ”szolgáltatásokra vonatkozik (bár enyhe figyelmeztetéssel kell megfontolni az üzleti modellek befolyásának szükségességét).

A múlt héten az Egyesült Királyság adatvédelmi felügyelője még egy konkrétabb lövést lőtt az online viselkedésbeli hirdetőiparban - figyelmeztetve, hogy az Adtech tömegesen feldolgozza az internetes felhasználók személyes adatait a hirdetések célzása érdekében nem felel meg az EU adatvédelmi előírásainak. Az iparágnak azt mondták, hogy a jogokat sértő gyakorlatának meg kell változnia, még akkor is, ha az információs biztos hivatala még nem készül le a kalapácsról. A reform figyelmeztetése azonban egyértelmű volt.

Miközben az EU döntéshozói a mesterséges intelligencia jogait tiszteletben tartó szabályozási keret kialakításán dolgoznak, és igyekeznek a következő tíz évet + a régió élvonalbeli technológiai fejlesztéseire irányítani, a digitális gyakorlatokra és üzleti modellekre felhívó szélesebb körű figyelem és ellenőrzés meghúzódhat. azoknak a problémás digitális gyakorlatoknak a megtisztítása, amelyek eddig nem, vagy nagyon könnyű érintéses szabályozás mellett szaporodni tudtak.

A HLEG felszólít a személyes adatok védelmére szolgáló mechanizmusok kidolgozásának támogatására, valamint arra, hogy az egyének „ellenőrizhessék és meghatalmazhassák adataikkal” - amelyek állításuk szerint „foglalkoznának a megbízható AI követelményeinek bizonyos szempontjaival”.

„Eszközöket kell kifejleszteni a GDPR technológiai megvalósításához, valamint a magánélet megóvását / a magánélet megóvását olyan technikai módszerek kidolgozása révén, amelyek megmagyarázzák a kritériumokat, az AI rendszerek személyes adatainak feldolgozásában levő ok-okozati összefüggéseket (például az egyesített gépi tanulást)” - írják.

„Támogassa az anonimizáló és titkosítási technikák technológiai fejlesztését, és dolgozzon ki szabványokat a személyes adatok ellenőrzésén alapuló biztonságos adatcserére. Elősegíti a nyilvánosság oktatását a személyes adatok kezelésében, ideértve az egyének tudatosságát és felhatalmazását az AI személyes adatokra alapozott döntéshozatali folyamatain. Készítsen technológiai megoldásokat az egyének számára az információk és az adatok felhasználásának ellenőrzése céljából, például az engedélyek kezelése és az európai határokon átnyúló átláthatóság kutatása során, valamint az ebből származó esetleges fejlesztések és eredmények, valamint dolgozzon ki szabványokat a biztonságos adatcsere a személyes adatok ellenőrzése alapján. ”

Olvassa el a teljes történetet itt ...

Feliratkozás
Értesítés
vendég

1 Megjegyzés
Legrégebbi
legújabb A legtöbb szavazatot kapott
Inline visszajelzések
Az összes hozzászólás megtekintése