Az LGBTQ csoportok kutatói szembenéznek az AI tanulmányával

Kérjük, ossza meg ezt a történetet!

A legerőszakosabb tiltakozás a melegek AI általi azonosítása ellen maga az LMBTQ közösség részéről származik, és ezt „ócska tudománynak” és hamisnak minősíti. Feltételezem, hogy azok a nemzetek, amelyekbe a saría törvény beágyazódik, szeretnék használni ezt a technológiát.  TN szerkesztő

Egy vírusos vizsgálat feltárta A mesterséges intelligencia pontosan kitalálhatja, hogy egy ember meleg vagy egyenes arccal szemben - kemény visszajelzést kap-e az LGBTQ jogcsoportoktól.

A Stanford Egyetem kutatói készített tanulmány szerint az AI helyesen különböztette meg a melegeket az egyenes férfiaktól az idő 81 százaléka, míg a nők 74 százaléka.

Az ügyvédek a kutatást „szemtan tudománynak” nevezték, azt állítva, hogy nemcsak a technológia kivetheti az embereket, hanem veszélyeztetheti az életüket - különösen a brutális rendszerekben, amelyek a homoszexualitást büntetendő cselekménynek tekintik.

„Abban az időben, amikor a kisebbségi csoportokat célozzák meg, ezek a gondatlan megállapítások fegyverként szolgálhatnak mind a pontatlanul túlméretezett heteroszexuális emberek, mind a homoszexuális és leszbikus emberek számára, akik veszélyes helyzetbe kerülnek” - mondta Jim Halloran, a GLAAD vezérigazgatója Digitális tisztviselő, írta a GLAAD és az Emberi Jogi Kampány közös nyilatkozatában.

A tanulmány szerzője azonban nem ért egyet a kritikával, kijelentve, hogy ez a fajta technológia már létezik, és kutatásának célja a biztonsági hiányosságok feltárása és a védelem kifejlesztése volt, hogy valaki nem használhassa azt rosszindulatú akaratra.

„Tudósként az egyik kötelezettségem az, hogy ha tudok valamit, amely potenciálisan megvédi az embereket az ilyen kockázatok áldozataitól, akkor ezt közzé kell tennem” - mondta Michal Kosinksi, a tanulmány társszerzője. - mondta a Gárda. Hozzátette, hogy kutatásainak diskreditálása nem segít megvédeni az LGBTQ embereket az ilyen technológiák potenciálisan életveszélyes következményeitől.

A támogatók azt is felhívták a tanulmányra, hogy ne vizsgálják meg a biszexuális és transznemű vagy a színû embereket. A kutatók összegyűjtötték a férfiak és nők 130,741 képeit nyilvános profilokból egy randevú oldalon az AI elemzésére, amelyek kaukázusi. Miközben Kosinksi és társszerzője felismerte, hogy a tanulmányban a diverzitás hiánya problémát jelent, nem mondták el, melyik randevú-webhelyet vizsgálták, és azt állították, hogy nem találnak elegendő nem fehér fehér homoszexuális embert.

Olvassa el a teljes történetet itt ...

Feliratkozás
Értesítés
vendég

0 Hozzászólások
Inline visszajelzések
Az összes hozzászólás megtekintése