Jak snadné je manipulovat s informacemi na sociálních sítích
Během šesti týdnů v květnu a červnu 2019, v čase konání voleb do Evropského parlamentu – a tedy velmi exponované době s ohledem na potenciál šíření dezinformačního a manipulovaného obsahu na internetu – provedlo Centrum excelence pro strategickou komunikaci NATO v Rize (NATO StratCom CoE) nenápadný experiment. Jeho cílem bylo zjistit, jak efektivní jsou sociální platformy (konkrétně Facebook, Instagram, Twitter a YouTube) v identifikaci a odstraňování neautentického obsahu online.
Výsledky experimentu byly zveřejněny začátkem prosince 2019 ve zprávě „Falling Behind: How Social Media Companies Are Failing to Combat Inauthentic Behaviour Online“ a bilance pro všechny čtyři zmíněné platformy je tristní. Níže je shrnutí nejdůležitějších výstupů zprávy.
Fungování trhu s manipulací zapojení na sociálních sítích je podrobněji popsáno ve zprávě NATO StratCom CoE „The Black Market for Social Media Manipulation“. Jedná se o zcela otevřené, relativně efektivní a významně výdělečné odvětví, kterému z hlediska poskytovaného softwaru i infrastruktury dominují ruští aktéři.
NATO StratCom CoE nakoupilo prostřednictvím tzv. poskytovatelů manipulativních služeb (ang. Manipulation Service Providers) zapojení (ang. engagement) pro 105 příspěvků na předem vytvořených falešných účtech na Facebooku, Instagramu, Twitteru a YouTube. Šlo o přibližně 54 000 zapojení (tj. komentářů, lajků, zhlédnutí a sledování) od 16 poskytovatelů manipulativních služeb za celkovou cenu 300 EUR. Poté sledovalo reakce jednotlivých sociálních platforem, přičemž se zaměřilo na sedm kritérií:
- úspěšnost zamezit vytvoření nových neautentických účtů;
- schopnost detekovat a odstranit neautentické účty;
- schopnost detekovat a odstranit neautentickou aktivitu;
- schopnost odstranit stopy odstraněných neautentických účtů (komentářů apod.);
- pořizovací cena manipulativních služeb (vyšší cena indikuje složitější manipulaci obsahu);
- rychlost doručení manipulativních služeb (tj. prodleva mezi objednáním a zobrazením manipulativního obsahu – komentářů, lajků apod., kde pomalejší doručení indikuje složitější manipulaci obsahu);
- rychlost a efektivita odezvy platforem na hlášení o neautentické aktivitě.
Ačkoliv si různé platformy vedly rozdílně podle jednotlivých kritérií, v souhrnu se všechny potýkaly s obtížemi. Čtyři týdny po nákupu manipulativních služeb bylo 83 % neautentického obsahu stále online a i tři týdny poté, co byly neautentické účty platformám nahlášeny, bylo 95 % z nich stále aktivních.
Nejhůře si napříč kategoriemi vedl Instagram. Platforma sice s 50% úspěšností blokuje vytváření falešných účtů, nicméně manipulace na ní vychází nejlevněji. Doručení manipulativního obsahu je velmi rychlé (i do 5 minut od objednání služby), zatímco jeho odstraňování zdlouhavé a neefektivní. Instagram odstranil nejnižší počet (14 %) neautentických účtů do doby, než začaly být nahlašovány.
O něco málo lépe vyšel z experimentu Facebook. Tato platforma byla nejúspěšnější v blokování vytváření falešných účtů a relativně dobře si vedla v blokaci neautentického chování díky vlastním systémům na jeho detekci. Nicméně ti poskytovatelé manipulativních služeb, kteří byli schopni tyto mechanismy obejít, byli na platformě velice úspěšní a Facebook již zdaleka nebyl tak úspěšný ve zpětném odstraňování neautentického obsahu. Platforma tak připomíná pevnost, která úspěšně odrazuje nebezpečí zvenčí, ale uvnitř zůstává zranitelná.
YouTube byl nejhorší v odstraňování neautentických účtů, ale nejlepší v odstraňování neautentických lajků a zhlédnutí. Zároveň se jedná o platformu, na níž manipulace vychází nejdráž (studie neuvádí konkrétní ceny). To ovšem může být jak odrazem složitosti její manipulace, tak lukrativity platformy generující obrovský zájem i zisky.
Twitter je v současné době nejefektivnější v boji proti zneužívání jeho služeb. Manipulovaný obsah se zobrazuje se zpožděním a samotná platforma je v jeho odstraňování úspěšnější než ostatní. Twitter blokoval nejvyšší počet (35 %) účtů do doby, než začaly být nahlašovány. I zde je ovšem významný prostor pro zlepšení.
Obrázek níže shrnuje výsledky jednotlivých platforem podle daných kritérií.
Ačkoliv zpráva uvádí, že 90 % manipulovaného obsahu na sociálních sítích je (zatím) používáno ke komerčním účelům, objevují se i případy politické manipulace a nelze vyloučit, že se jejich výskyt v budoucnu rozšíří. (Nehledě na to, že i manipulativní obsah sloužící ke komerčním účelům je nelegitimní z hlediska spotřebitelů.) V neposlední řadě, jak tvrdí zpráva, v situaci, kdy jsou protivníci schopni manipulovat informační prostředí, bude schopnost Aliance (ale i jakéhokoliv dalšího aktéra) komunikovat v období krizí nebo konfliktů značně neefektivní.
Výsledky experimentu jsou znepokojující a ilustrují, jak velkému problému čelíme. Jak uzavírá samotná zpráva – samoregulace sociálních platforem nefunguje. Na závěr doporučuje několik opatření:
- Stanovit nové standardy a vyžadovat podávání zpráv od sociálních platforem na základě smysluplnějších kritérií.
- Zřídit nezávislý a dobře zajištěný dohledový orgán nad sociálními platformami.
- Zvýšit transparentnost sociálních platforem.
- Regulovat trh pro manipulaci na sociálních sítích.
- Vyžadovat, aby sociální platformy dělaly víc v boji proti manipulacím.
- Zajistit multisektorový přístup zapojením firem poskytujících telekomunikační nebo platební služby.
Komentář:
Zpráva odkazuje na Kodex zásad boje proti dezinformacím, který byl v říjnu 2018 podepsán firmami Google (vč. YouTube), Facebook (vč. Instagramu), Twitter a Mozilla a později společností Microsoft, a taktéž na zprávu o aplikaci Kodexu, kterou v říjnu 2019 vydala Skupina evropských regulačních orgánů pro audiovizuální mediální služby (ERGA) a která vychází ze sebehodnotících reportů zmíněných firem. Právě se zprávou o aplikaci Kodexu je popisovaná zpráva NATO StratCom CoE ve velmi ostrém kontrastu.