Originalen prispevek na BBC.com: ‘It stains your brain’: How social media algorithms show violence to boys
Bilo je leto 2022 in takrat 16-letni Cai je na svojem telefonu gledal posnetke. Eni prvih videoposnetkov, ki jih je videl na družbenih omrežjih, so bili posnetki ljubkega psa. Potem pa se je vse spremenilo.
Pravi, da so mu “od nikoder” priporočili videoposnetke nekoga, ki ga je zbil avto, monolog vplivneža, ki deli mizogine poglede in posnetke nasilnih pretepov. Cai se je spraševal, zakaj mu družbena omrežja ponujajo takšne vsebine?
Družbena omrežja otrokom priporočajo škodljive vsebine, četudi nenamerno. Vir slike: Canva
V Dublinu je Andrew Kaung od decembra 2020 do junija 2022 delal kot analitik za varnost uporabnikov pri družbeni aplikaciji TikTok in preučeval, katere vsebine priporočajo algoritmi aplikacije, ki ciljajo tudi na 16-letnike. Postal je zaskrbljen, ko je ugotovil, kako so nekaterim najstnikom prikazane objave, ki prikazujejo nasilje in pornografijo ter spodbujajo mizogine poglede, medtem ko so najstnicam na splošno priporočali zelo različne vsebine glede na njihove interese.
TikTok in druga podjetja družbenih medijev uporabljajo orodja umetne inteligence, da odstranijo veliko večino škodljive vsebine, ostalo pa označijo za pregled s strani moderatorjev. Toda orodja AI ne morejo prepoznati vsega. Andrew Kaung pravi, da so bili v času, ko je delal pri TikToku, vse vsebine (predvsem videoposnetki), ki jih umetna inteligenca ni odstranila ali označila človeškim moderatorjem – ali jih drugi uporabniki niso prijavili moderatorjem – ponovno ročno pregledani le, če so dosegli določen prag ogledov. To je bilo nastavljeno na 10.000 ogledov ali več, kar pomeni, da so škodljivim vsebinam bili izpostavljeni tudi mlajši uporabniki. Večina večjih družbenih medijev omogoča prijavo osebam, starim 13 let ali več.
Medtem ko TikTok pravi, da 99 % vsebine, ki jo odstrani zaradi kršenja svojih pravil, odstrani bodisi UI (ang. AI) ali človeški moderatorji, preden doseže 10.000 ogledov. Algoritmi vseh večjih družbenih medijev otrokom priporočajo škodljive vsebine, čeprav nenamerno, je za BBC povedal britanski regulator Ofcom. Almudena Lara, Ofcomova direktorica za razvoj politike spletne varnosti pravi: »Podjetja so si zatiskala oči in otroke obravnavala tako kot odrasle«.
Po drugi strani je TikTok za BBC povedal, da ima napredne varnostne nastavitve za najstnike in zaposluje več kot 40.000 ljudi, ki skrbijo za varnost uporabnikov. Samo letos bo vložil več kot 2 milijardi dolarjev (1,5 milijarde funtov) v varnost, 98 % vsebine, ki jo odstrani zaradi kršenja svojih pravil, pa najde proaktivno. Meta, ki ima v lasti Instagram in Facebook, pa pravi, da ima več kot 50 različnih orodij, virov in funkcij, ki najstnikom omogočajo pozitivno in starosti primerno izkušnjo na družbenem omrežju.
Cai je poskušal uporabiti eno od Instagramovih in TikTokovih orodij za »odjavo« od nasilnih vsebin (»takšna vsebina me ne zanima«), vendar sta mu obe aplikaciji te vsebine še vedno priporočali. Kot je najstnik izrazil:
»V glavo dobiš sliko in je ne moreš izbrisati. To umaže vaše možgane. In tako razmišljaš o tem do konca dneva.«
Dekletom, ki jih pozna in so iste starosti, so bili priporočeni videoposnetki o temah, kot sta glasba in ličenje, in ne o nasilju. Prav tako pravi, da je enega od njegovih prijateljev pritegnila vsebina kontroverznega vplivneža in njegovih mizoginih pogledov.
Kako torej TikTokovi algoritmi dejansko delujejo?
Po besedah Andrewa Kaunga je gorivo algoritmov sodelovanje oziroma odziv, ne glede na to, ali je sodelovanje pozitivno ali negativno. To bi lahko delno pojasnilo, zakaj Caijeva prizadevanja za manipulacijo algoritmov niso delovala. Nekdanji zaposleni v TikToku pravi, da bi lahko bili nekateri 16-letni fantje “takoj” izpostavljeni nasilni vsebini, ker so drugi najstniški uporabniki s podobnimi preferencami ali zgolj podobo geografsko lokacijo izrazili zanimanje za to vrsto vsebine.
Algoritmi uporabljajo »okrepitveno učenje« – metodo, pri kateri se sistemi umetne inteligence učijo s poskusi in napakami – in se urijo za odkrivanje vedenja do različnih vsebin. Andrew Kaung pravi, da so zasnovani tako, da povečajo sodelovanje s prikazovanjem vsebin, za katere pričakujejo, da jih boste dlje gledali, komentirali ali všečkali – vse zato, da se boste vračali po več, pri tem pa ne razlikujejo vedno med škodljivo in neškodljivo vsebino. Kot pravi Andrew, je bila ena od težav, ki jih je odkril, ko je delal v TikToku, ta, da ekipe, ki so sodelovale pri usposabljanju in kodiranju tega algoritma, niso vedno poznale natančne narave videoposnetkov, ki jih algoritem priporoča.
Zaradi pomanjkljivosti v varnosti je Andrew Kaung TikToku predlagal, naj posodobi svoj sistem moderiranja. Želel je, da TikTok jasno označi videoposnetke, tako da lahko vsi, ki tam delajo, vidijo, zakaj so škodljivi, hkrati pa naj najame več moderatorjev, specializiranih za ta različna področja. Njegovi predlogi so takrat bili zavrnjeni.
Prositi tigra, naj te ne poje
Andrew Kaung pravi, da se mu je znotraj TikTok-a in Mete zdelo zelo težko izvesti potrebne spremembe. »Zasebno podjetje, katerega interes je promocija njihovih izdelkov, prosimo, naj postanejo zmerni, kar je tako, kot če bi tigra prosili, naj vas ne poje,« pravi. Prepričan je, da bi bilo življenje otrok in najstnikov boljše, če bi prenehali uporabljati svoje pametne telefone.
Toda za Caija prepoved telefonov ali družbenih medijev ni rešitev. Njegov telefon je sestavni del njegovega življenja – zelo pomemben način klepetanja s prijatelji, navigacije, ko je zunaj in na poti, plačevanja idr. Namesto tega želi, da podjetja družbenih medijev najstnikom ne ponujajo nasilnih in spornih vsebin. Želi, da bi podjetja naredila učinkovitejša orodja, ki uporabnikom omogočajo, da navedejo področja in vsebine, ki jih zanimajo. Vendar »podjetja, ki imajo v lasti družbene medije ne spoštujejo našega mnenja, dokler jim mediji prinašajo denar,« pravi Cai.
V Združenem kraljestvu bo nov zakon družbene medije prisilil, da preverijo starost otrok in ustavijo spletna mesta, ki mladim priporočajo pornografijo ali drugo škodljivo vsebino. Za njegovo izvajanje je zadolžen britanski medijski regulator Ofcom.
Almudena Lara, Ofcomova direktorica za razvoj politike varnosti na spletu, pravi, da so bile škodljive vsebine, ki prizadenejo predvsem mlade ženske – kot so videoposnetki, ki promovirajo motnje hranjenja in samopoškodovanje – upravičeno v središču pozornosti, algoritemske poti, ki spodbujajo sovraštvo in nasilje predvsem do najstnikov in mlajših moških pa so bili deležni manj pozornosti.
»Najbolj škodljivi vsebini je običajno izpostavljena manjšina (otrok). Vemo pa, da ko ste enkrat izpostavljeni tej škodljivi vsebini, postane neizogibna,« pravi Lara.
Ofcom pravi, da lahko kaznuje podjetja in lahko sproži kazenski pregon, če ne storijo dovolj, vendar ukrepi ne bodo začeli veljati do leta 2025.
Preberite še: