A jövőben a jövője egy alaposan kiszámított nullától és egytől függhet.
A technológia fejlődésével az emberek kevésbé vesznek részt életünket érintő döntésekben - és ez nem egészen jó dolog.
Ahogy a mesterséges intelligencia növekszik, a Massachusetts-Amherst Egyetem főiskolai tanárai kifejlesztettek egy programot a szoftverek torzulásának és diszkriminációjának tesztelésére.
Igen, faji megkülönböztetés. De ennél több. Egészségügyi döntések. Hitel-határozatok. Hé, akár az Amazon dönti el a csomagküldési díjakat.
"Ma a szoftver meghatározza, hogy ki kap hitelt vagy felvételt, kiszámítja a kockázatértékelési pontszámokat, amelyek segítenek eldönteni, ki kerül börtönbe és ki szabad, és segít az orvosi betegek diagnosztizálásában és kezelésében." szerint a program fejlesztõinek.
Ezzel kritikus jelentőségű, hogy a „szoftver nem diszkriminatív csoportokat vagy egyéneket” - állítják kutatók, hozzátéve, hogy kutatási területük „alulértékelt” és „számtalan példa mutatkozik meg a tisztességtelen szoftverekre”.
Tudományos szempontból cikk megjelent egy közelgő szoftverfejlesztés számára konferencia, Alexandra Meliou és Jurij Brun számítógépes tudósok, akik Sainyam Galhotra doktorandusz mellett készítették a programot, részletesen ismertetik a szoftver diszkrimináció „növekvő aggodalmát”.
A cikkben a két professzor előrejelzi, hogy a szoftvereknek a jövőben egyre növekvő hatása lesz az emberi életre, és azzal érvelnek, hogy a szoftverek jelenleg túlméretezett szerepet játszanak a társadalomban.
"Ha tovább megyünk, akkor a szoftverek méltányosságának biztosítása csak növekszik" - állítja a cikk.
A tudósok példákat alkalmaztak, amelyek szemléltetik a gazdagok és az alulmaradók elleni elfogultságot.
A Brun és Meliou által nyújtott szoftvermegkülönböztetés egyik példája az Amazon.com által alkalmazott programozás annak meghatározására, hogy mely földrajzi területeken részesülnek ingyenes kiszállítások ugyanazon a napon. A program tavalyi bevezetését követően az volt állítólagos hogy a kisebbségi környékek sokkal alacsonyabban részesültek a megvásárlásban, mint a túlnyomórészt fehér környékek.
A szerzők azt is kiemelik, hogy az állami szektorban használt szoftverek hogyan torzíthatják az elfogultságot, és számos államban használhatják a reflektorfény technológiáját, amely kiszámítja annak valószínűségét, hogy egy bűncselekmény további bűncselekményeket követ el. A kutatók szerint azt találták, hogy a szoftver „hamisan megjelöli a fekete vádlottakat jövőbeli bűnözőkként, így tévesen jelöli őket a fehér vádlottak szinte kétszeresének megfelelő arányban”.
A „szabad” piacokon alapuló kapitalizmus gazdasági rendszerünkben a piaci rész már 90% -ban mesterséges (HFT)