Jobban, mint valaha, Facebook Nyomás alatt áll annak bizonyítása, hogy algoritmusait felelősségteljesen telepítik.
Szerdán, az F8 fejlesztői konferencián a vállalat kiderült, hogy speciális csoportot alakított ki és diszkrét szoftvert fejlesztett ki annak biztosítása érdekében, hogy mesterséges intelligencia rendszerei a lehető leg etikusabban, elfogultság nélkül hozzanak döntéseket.
Facebook, mint például más nagy tech cégek olyan termékekkel, amelyeket nagy és változatos embercsoportok használnak, az mélyebben beépítve AI a szolgáltatásaiba. A Facebook közölte a héten, hogy felajánlja azoknak az üzeneteknek a fordítását, amelyeket az emberek a Messenger alkalmazáson keresztül kapnak. A fordítási rendszereket előbb ki kell képezni az adatokra, és az etikai nyomás segíthet abban, hogy a Facebook rendszereit megtanítsák korrekt fordításokra.
A Facebook szerint ezek az erőfeszítések nem azoknak a változásoknak a következményei, amelyek a hét héten belül történtek, mióta kiderült, hogy az adatelemző cég Cambridge Analytica visszaéltek a közösségi hálózat felhasználói személyes adataival a 2016-os választások előtt. De nyilvánvaló, hogy a Facebook iránti közvélemény drámai negatívvá vált későhöz képest, olyannyira, hogy a vezérigazgató Mark Zuckerberg órákig kellett részt vennie a múlt hónapban tartott kongresszusi kihallgatásokon.
Minden bejelentés mikroszkóp alatt van.
A Facebook elmulasztotta az AI etikára összpontosító testület létrehozását Axon (korábban Taser) a múlt héten. De a lépések összehangolódnak azzal a szélesebb körű iparági felismeréssel, hogy az AI kutatóknak azon kell dolgozniuk, hogy rendszereik befogadóvá váljanak. Az Alphabet DeepMind AI csoportja egy etikai és társadalmi csapat tavaly. Azelőtt, Microsoft a kutatószervezet létrehozta a tisztességes elszámoltathatóság átláthatósági és etikai csoportját.
Az AI területén megvan a maga részéről a zavarok, mint amikor a Google Fotókat három évvel ezelőtt észlelték a fekete embereket gorillákba sorolva.
Tavaly Kloumann csapata kifejlesztett egy szoftvert a Fairness Flow néven, amelyet azóta integráltak a Facebook által széles körben használt FBLearner Flow belső szoftver az AI rendszerek könnyebb kiképzéséhez és futtatásához. A szoftver elemzi az adatokat, figyelembe véve azok formátumát, majd összefoglaló jelentést készít.
Kloumann elmondta, hogy a méltányosság témáján dolgozik, mióta 2016-ban csatlakozott a Facebookhoz, éppen akkor, amikor a techipar emberei nyíltabban kezdtek erről beszélni, és amikor társadalmi aggályok merültek fel az AI erejével kapcsolatban.
Olvassa el a teljes történetet itt ...