Guy Rosen, a Facebook integritásért felelős alelnöke vasárnapi blogbejegyzésében azt írta, hogy a gyűlöletbeszéd elterjedtsége a platformon az elmúlt három évben 50 százalékkal csökkent.
Emellett hozzátette, hogy hamis az a narratíva, hogy a gyűlöletbeszéd elleni küzdelemben használt technológiájuk nem megfelelő, és hogy szándékosan félremagyarázzák a fejlődésüket.
A poszt látszólag válasz volt a Wall Street Journal vasárnapi cikkére, amely szerint a Facebook azon munkatársai, akiknek feladata a sértő tartalmak távol tartása a platformtól, nem hiszik, hogy a vállalat képes megbízhatóan kiszűrni azokat.
A WSJ beszámolója szerint belső dokumentumokból kiderül, hogy két évvel ezelőtt a Facebook csökkentette azt az időt, amelyet az emberi moderátorok a gyűlöletbeszéddel kapcsolatos panaszokra fordítottak, és más kiigazításokat is eszközölt, amelyek csökkentették a panaszok számát.
Ez viszont a WSJ szerint hozzájárult annak a látszatának a kialakulásához, hogy a Facebook mesterséges intelligenciája sikeresebb volt a vállalat szabályainak érvényesítésében, mint amilyen valójában volt.