Ez egy szoftver életmentésre. A Facebook új „proaktív észlelési” mesterséges intelligencia technológiája minden bejegyzést megvizsgál az öngyilkossági gondolatok mintáira, és szükség esetén mentális egészségügyi forrásokat küld a veszélyeztetett felhasználónak vagy barátainak, vagy kapcsolatba lép a helyi elsősegélyezőkkel. Ha az AI segítségével aggasztó bejegyzéseket jelez az emberi moderátorok számára, ahelyett, hogy megvárná a felhasználói jelentéseket, a Facebook csökkentheti a segítség küldésének időtartamát.
Facebook korábban - AI segítségével tesztelték a zavaró helyek kimutatására és szembetűnőbb felszíni öngyilkossági jelentési lehetőségek barátainak az Egyesült Államokban. Most a Facebook az összes típusú tartalmat megsemmisíti a világ minden tájáról ezzel az AI-vel, kivéve az Európai Uniót, ahol Általános adatvédelmi rendelet A felhasználók érzékeny információk alapján történő profilozására vonatkozó adatvédelmi törvények bonyolítják ennek a technológiának a használatát.
A Facebook az AI-t is felhasználja a különösen kockázatos vagy sürgõs felhasználói jelentések rangsorolására, így a moderátorok gyorsabban reagálnak rájuk, és olyan eszközöket kínálnak, amelyek a helyi nyelvi erõforrások és az elsõ válaszadó elérhetõségének azonnali megjelenítésére szolgálnak. Ezenkívül több moderátort szentel az öngyilkosság megelőzéséhez, kiképzi őket az 24 / 7 esetek kezelésére, és most már rendelkezik az 80 helyi partnerekkel, mint például a Save.org, a National Suicide Prevention Lifeline és Forefront, ahonnan erőforrásokat biztosít a veszélyeztetett felhasználók és hálózataik számára. .
"Arról van szó, hogy perceket borotváljon le a folyamat minden egyes lépcsőjén, különösen a Facebook Live-ban" - mondja Guy Rosen, a termékmenedzsment alelnöke. Az elmúlt egy hónapos tesztelés során a Facebook több mint 100 „wellness-ellenőrzést” kezdeményezett az első válaszadókkal, akik felkeresték az érintett felhasználókat. "Volt olyan eset, amikor az első válaszadó megérkezett, és az illető még mindig sugároz."
Az a gondolat, hogy a Facebook proaktív módon átvizsgálja az emberek üzenetét, bizonyos disztopómiás félelmeket válthat ki a technológia egyéb alkalmazását illetően. A Facebook nem adott válaszokat arról, hogy hogyan kerülheti el a politikai nézeteltérés vagy a kismértékű bűncselekmények keresését, Rosen pedig csak azt mondta: „Itt van lehetőségünk segítségre, tehát befektetni fogunk ebbe.” Bizonyára hatalmas előnyös vonatkozások vannak a technológia, de ez egy másik hely, ahol kevés választásunk van, de reméljük, hogy a Facebook nem megy túl messzire.
Mark Zuckerberg, a Facebook vezérigazgatója ma egy bejegyzésében dicsérte a termékfrissítést, ezt írva "A jövőben az AI képes lesz megérteni a nyelv finomabb árnyalatait, és képes lesz az öngyilkosságon kívüli különféle kérdéseket is azonosítani, ideértve többféle zaklatás és gyűlölet gyors észlelését."
Sajnos, miután a TechCrunch megkérdezte, van-e mód a felhasználók számára a lemondásra, a Facebook-szóvivő azt válaszolta, hogy a felhasználók nem tudnak kijelentkezni, amikor a hozzászólásukat közzétették. Megjegyezték, hogy a szolgáltatás célja a felhasználói biztonság fokozása, és hogy a Facebook által kínált támogatási erőforrások gyorsan elhagyhatók, ha a felhasználó nem akarja látni őket.]
A Facebook kiképezte az AI-t azáltal, hogy mintákat talált azokban a szavakban és képekben, amelyeket a múltban manuálisan jelentett öngyilkossági kockázat miatt jelentettek. Olyan megjegyzéseket is keres, mint például: „jól vagy?” És „Szüksége van segítségre?”