Že nekaj časa je jasno, da algoritmi niso nevtralni, saj med drugim nanje vplivajo predsodki ljudi, ki jih programirajo. Na družbenih omrežjih pa obstaja še drug razlog, ki prispeva k njihovi nevarnosti: želja po dobičku.

Poslovni model Mete (sedanje poimenovanje za podjetje, ki ima v lasti tudi Facebook) pomeni, da podjetje s ciljnim oglaševanjem zasluži več, če se ljudje dlje časa zadržujejo na njihovih platformah.

Žal se pokaže, da je zelo učinkovito sredstvo za zadrževanje ljudi na Facebooku sovraštvo.

To je tragično izkusila etnična skupina Rohing v Mjanmarju, ki je leta 2017 doživela etnično čiščenje v rokah mjanmarskih varnostih sil: uboji, tudi otrok, posilstva in drugo spolno nasilje, mučenje v centrih za pridržanje, stradanje ljudi, namerno požiganje stotin rohinških vasi. 80 odstotkov Rohing, to je več kot 702.000 ljudi, je moralo zbežati iz države.

V letih pred temi grozotami so se na Facebooku bohotile vsebine, ki so promovirale sovraštvo, nasilje, diskriminacijo Rohing. Algoritmi Mete so aktivno krepili in promovirali vsebine, ki so ljudi razdeljevale in spodbujale napetosti.

 

Kliknite tukaj in podpišite PETICIJO za izvršnega direktorja Mete Marka Zuckerberga, s katero boste zahtevali povračilo škode Rohingam.
Kaj je problematično pri algoritmih?
  • Viralnost. Algoritem promovira določeno vsebino tako, da doseže več ljudi, kot bi jih organsko. Gre za vsebine, za katere Facebook meni, da je večja verjetnost, da jih boste delili naprej. Žal se pri tem posebej dobro »odrežeta« ogorčenje in napačne informacije.
  • Razporejanje vsebin na FB. Algoritem določa, katero vsebino bo kdo videl na FB.
  • Priporočila za ogled posnetkov. Zgovoren je recimo podatek o primeru iz Mjanmarja iz leta 2020, ko je bilo več kot 70 odstotkov ogledov videa znanega razpihovalca sovraštva U Wirathe doseženih tako, da se je video začel predvajati zaradi Metinega algoritma (Up next).
  • Priporočila za vključitev v skupine ali sledenje stranem. Kot je pokazalo interno Metino poročilo za 2016, je bilo 64 odstotkov vseh pridružitev ekstremističnim skupinam v Nemčiji na podlagi priporočil algoritma.

 

Večkratna opozorila Meti

Meta je vedela ali pa bi morala vedeti, kaj tvega s svojim ravnanjem v Mjanmarju. To so kazale njene lastne notranje študije in številna neposredna opozorila aktivistov_tk, ki jih je skrbelo, ker so znane povezave med hujskanjem k sovraštvu in dehumaniziranjem ljudi ter dejanji množičnega nasilja.*

Kljub temu pri Meti niso sprejeli učinkovitih ukrepov za odpravo škodljivih učinkov.

Žal to ni osamljen primer, Meta ne ukrepa učinkovito tudi glede Etiopije. Pred dvema tednoma smo Amnesty in šest drugih organizacij za človekove pravice in pravo v zvezi s tem podprle vložitev tožbe zoper Meto na kenijskem sodišču (več v angleščini tu).

 

Hvala za vaš podpis peticije. Zelo bom vesela, če boste k podpisu povabili tudi v svojem krogu ljudi.

Prijazen pozdrav.

Metka Naglič,
direktorica za kampanje in komunikacije

Foto: Tanja Ristič

Avtorica uvodne ilustracije: Tamara-Jade Kaz

 

* Na primer: študija o posledicah sovražne propagande radia RTLM v kontekstu genocida v Ruandi kaže na to, da je bilo v tistih ruandskih vaseh, ki so sprejemale signal te radijske postaje, ubojev od 65 do 77 odstotkov več v primerjavi s tistimi, ki ga niso.

Hvala za vaše donacije Amnesty Slovenije, s katerimi omogočate našo borbo za boljši svet. Kliknite za različne možnosti podpore.

 

Amnesty International Slovenia

Dunajska cesta 5

Ljubljana 1000

Slovenia