A Facebook különleges etikai csoportot hoz létre az AI szoftver torzulásának vizsgálatára

Kérjük, ossza meg ezt a történetet!
Az AI programok öröklik az alkotóik torzítását. Így a Facebook által létrehozott cenzúra-programok már tartalmazzák a technokrata gondolkodás és az etika magjait. Ugyanazok az emberek képesek-e megvizsgálni saját alkotásaikat? ⁃ TN szerkesztő

Jobban, mint valaha, Facebook Nyomás alatt áll annak bizonyítása, hogy algoritmusait felelősségteljesen telepítik.

Szerdán, az F8 fejlesztői konferencián a vállalat kiderült, hogy speciális csoportot alakított ki és diszkrét szoftvert fejlesztett ki annak biztosítása érdekében, hogy mesterséges intelligencia rendszerei a lehető leg etikusabban, elfogultság nélkül hozzanak döntéseket.

Facebook, mint például más nagy tech cégek olyan termékekkel, amelyeket nagy és változatos embercsoportok használnak, az mélyebben beépítve AI a szolgáltatásaiba. A Facebook közölte a héten, hogy felajánlja azoknak az üzeneteknek a fordítását, amelyeket az emberek a Messenger alkalmazáson keresztül kapnak. A fordítási rendszereket előbb ki kell képezni az adatokra, és az etikai nyomás segíthet abban, hogy a Facebook rendszereit megtanítsák korrekt fordításokra.

 "Visszatekintünk, és azt mondjuk:" Fantasztikus, hogy proaktívan tudtunk előbbre jutni ezeknek a kérdéseknek, és megértettük, mielőtt elindítanánk a dolgokat, mi az igazságosság egy adott termék számára egy demográfiai csoport számára " - mondta a CNBC-nek a Facebook egyik kutatója. Nem volt hajlandó megmondani, hogy hány ember van a csapatban.

A Facebook szerint ezek az erőfeszítések nem azoknak a változásoknak a következményei, amelyek a hét héten belül történtek, mióta kiderült, hogy az adatelemző cég Cambridge Analytica visszaéltek a közösségi hálózat felhasználói személyes adataival a 2016-os választások előtt. De nyilvánvaló, hogy a Facebook iránti közvélemény drámai negatívvá vált későhöz képest, olyannyira, hogy a vezérigazgató Mark Zuckerberg órákig kellett részt vennie a múlt hónapban tartott kongresszusi kihallgatásokon.

Minden bejelentés mikroszkóp alatt van.

A Facebook elmulasztotta az AI etikára összpontosító testület létrehozását Axon (korábban Taser) a múlt héten. De a lépések összehangolódnak azzal a szélesebb körű iparági felismeréssel, hogy az AI kutatóknak azon kell dolgozniuk, hogy rendszereik befogadóvá váljanak. Az Alphabet DeepMind AI csoportja egy etikai és társadalmi csapat tavaly. Azelőtt, Microsoft a kutatószervezet létrehozta a tisztességes elszámoltathatóság átláthatósági és etikai csoportját.

Az AI területén megvan a maga részéről a zavarok, mint amikor a Google Fotókat három évvel ezelőtt észlelték a fekete embereket gorillákba sorolva.

Tavaly Kloumann csapata kifejlesztett egy szoftvert a Fairness Flow néven, amelyet azóta integráltak a Facebook által széles körben használt FBLearner Flow belső szoftver az AI rendszerek könnyebb kiképzéséhez és futtatásához. A szoftver elemzi az adatokat, figyelembe véve azok formátumát, majd összefoglaló jelentést készít.

Kloumann elmondta, hogy a méltányosság témáján dolgozik, mióta 2016-ban csatlakozott a Facebookhoz, éppen akkor, amikor a techipar emberei nyíltabban kezdtek erről beszélni, és amikor társadalmi aggályok merültek fel az AI erejével kapcsolatban.

Olvassa el a teljes történetet itt ...

 

Feliratkozás
Értesítés
vendég

0 Hozzászólások
Inline visszajelzések
Az összes hozzászólás megtekintése