A professzorok figyelmeztetnek azokra a veszélyekre, amelyek miatt az emberek döntéshozatalra késztetik az embereket

Kérjük, ossza meg ezt a történetet!

Nem kell egy professzornak intuitív megértése, hogy az ember által létrehozott programok nem emelkedhetnek felül az alkotóik elfogultságán. A technokraták ezt a pontot elmulasztják, hisz minden automatizált döntés hatékonyabb és következetesebb, mint egy emberi megítélés.  TN szerkesztő

A jövőben a jövője egy alaposan kiszámított nullától és egytől függhet.

A technológia fejlődésével az emberek kevésbé vesznek részt életünket érintő döntésekben - és ez nem egészen jó dolog.

Ahogy a mesterséges intelligencia növekszik, a Massachusetts-Amherst Egyetem főiskolai tanárai kifejlesztettek egy programot a szoftverek torzulásának és diszkriminációjának tesztelésére.

Igen, faji megkülönböztetés. De ennél több. Egészségügyi döntések. Hitel-határozatok. Hé, akár az Amazon dönti el a csomagküldési díjakat.

"Ma a szoftver meghatározza, hogy ki kap hitelt vagy felvételt, kiszámítja a kockázatértékelési pontszámokat, amelyek segítenek eldönteni, ki kerül börtönbe és ki szabad, és segít az orvosi betegek diagnosztizálásában és kezelésében." szerint a program fejlesztõinek.

Ezzel kritikus jelentőségű, hogy a „szoftver nem diszkriminatív csoportokat vagy egyéneket” - állítják kutatók, hozzátéve, hogy kutatási területük „alulértékelt” és „számtalan példa mutatkozik meg a tisztességtelen szoftverekre”.

Tudományos szempontból cikk megjelent egy közelgő szoftverfejlesztés számára konferencia, Alexandra Meliou és Jurij Brun számítógépes tudósok, akik Sainyam Galhotra doktorandusz mellett készítették a programot, részletesen ismertetik a szoftver diszkrimináció „növekvő aggodalmát”.

A cikkben a két professzor előrejelzi, hogy a szoftvereknek a jövőben egyre növekvő hatása lesz az emberi életre, és azzal érvelnek, hogy a szoftverek jelenleg túlméretezett szerepet játszanak a társadalomban.

"Ha tovább megyünk, akkor a szoftverek méltányosságának biztosítása csak növekszik" - állítja a cikk.

A tudósok példákat alkalmaztak, amelyek szemléltetik a gazdagok és az alulmaradók elleni elfogultságot.

A Brun és Meliou által nyújtott szoftvermegkülönböztetés egyik példája az Amazon.com által alkalmazott programozás annak meghatározására, hogy mely földrajzi területeken részesülnek ingyenes kiszállítások ugyanazon a napon. A program tavalyi bevezetését követően az volt állítólagos hogy a kisebbségi környékek sokkal alacsonyabban részesültek a megvásárlásban, mint a túlnyomórészt fehér környékek.

A szerzők azt is kiemelik, hogy az állami szektorban használt szoftverek hogyan torzíthatják az elfogultságot, és számos államban használhatják a reflektorfény technológiáját, amely kiszámítja annak valószínűségét, hogy egy bűncselekmény további bűncselekményeket követ el. A kutatók szerint azt találták, hogy a szoftver „hamisan megjelöli a fekete vádlottakat jövőbeli bűnözőkként, így tévesen jelöli őket a fehér vádlottak szinte kétszeresének megfelelő arányban”.

Olvassa el a teljes történetet itt ...

Feliratkozás
Értesítés
vendég

1 Megjegyzés
Legrégebbi
legújabb A legtöbb szavazatot kapott
Inline visszajelzések
Az összes hozzászólás megtekintése
M11S

A „szabad” piacokon alapuló kapitalizmus gazdasági rendszerünkben a piaci rész már 90% -ban mesterséges (HFT)