Nem rég derült ki, hogy nem elég hatékony a Facebook tartalomtörlő algoritmusa, mert nem ismeri fel jól a vitatható felvételeket és nem is törli azok mindegyikét. A használt mesterséges intelligencia csak minimális sikert ért el a gyűlöletbeszédek, az erőszakot megjelenítő és más problémás videók eltávolításának a területén - írja az SG.hu.
A portál szerint The Wall Street Journal írt arról, hogy a Facebook valószínűleg elmulasztotta az indiai közösségi platformjáról törölni az álhíreket és a gyűlölettartalmakat. Ugyanis, 2019 decembere után az erőszakos pletykák és felhívások jelentős mértékű növekedését figyelték meg Indiában a Facebook elemzői.
Az országban akkoriban számos vallási zavargás történt, a korábbi szinthez képest 300 százalékkal nőtt a gyűlöletbeszédek száma. A hinduk és a muszlimok közötti összecsapásokban nagyon sokan meghaltak. A Facebook erre kutatókat küldött Indiába, hogy a helyi felhasználókkal beszéljenek a tapasztalataikról. Az egyre súlyosbodó helyzetet jól példázta, hogy amikor a szakemberek 2019 februárjában egy 21 éves észak-indiai nő fiktív profilját hozták létre, akkor azt rövid időn belül elárasztották Narendra Modi miniszterelnök propagandaanyagai és a muszlimok elleni gyűlöletbeszédek.
A regisztrált tagok mennyisége alapján India a Facebook legerősebb bázisa, ennek ellenére a vállalat költségvetésében a legnagyobb dezinformációs büdzsét az Amerikai Egyesült Államokra számították, pedig ott csak a regisztrált tagok 10 százaléka található. A cég szóvivője szerint a cég már szigorított a nem angol nyelvű gyűlölettartalmak elleni kampányukon. Azt a vádat pedig visszautasították, hogy nem tettek meg mindent az álhírek és a gyűlöletbeszéd visszaszorításáért.