Obrazy, których nie widać. Kilka uwag o moderowaniu treści w internecie

Czyściciele intenetu, reż. Hans Block, Moritz Riesewieck, 2018.
Gdy jesienią 2010 roku Safiya Umoja Noble chciała wyszukać w internecie coś, co mogłoby zainteresować jej pasierbicę, nie wiedziała jeszcze, że jest o krok od otwarcia puszki Pandory. Jak wspomina: „W ciągu zaledwie kilku minut internetowych poszukiwań doświadczyłam nawałnicy zniewag i obelg, od których nie mogłam się odwrócić”1. Pierwszym wynikiem, który podpowiedziała wyszukiwarka Google na wpisaną frazę „black girls”, była strona pornograficzna HotBlackPussy.com. Skłoniło to badaczkę do bliższego przyjrzenia się temu, jak działają algorytmy najpopularniejszej wyszukiwarki internetowej na świecie i dlaczego sposoby reprezentacji dostarczane przez korporację z Doliny Krzemowej nie zapewniają rzetelnych informacji o osobach „kolorowych”2. Gdy po niemal dwóch latach badań okazało się, że wyniki wyszukiwania dla „black girls” nie uległy zmianie, Noble opublikowała głośny artykuł w magazynie „Bitch”3. Dopiero wtedy przestrzeń internetu związana z wynikami wyszukiwania powoli zaczęła się zmieniać – nie był to zapewne bezpośredni efekt tekstu badaczki, trudno jednak zaprzeczyć, że udało jej się zwrócić społeczną uwagę na pewien problem, wobec którego korporacja nie mogła już dłużej pozostać obojętna. Aktualizacja algorytmów wyszukiwarki Google o nazwie „Panda” sprawiła, że strony pornograficzne przestały wyświetlać się jako pierwsze wyniki poszukiwań dla frazy „black girls”. Zmiana ta była jednak powierzchowna
– podobne strony pojawiały się wówczas przy „Latina girls” czy „Asian girls”. Co więcej, wyszukiwania haseł takich jak na przykład „gorillas” wyświetlały wśród rezultatów zdjęcia czarnoskórych osób. Noble stwierdziła, że „w internecie, podobnie jak w naszych codziennych kontaktach z technologią, dyskryminacja jest wbudowana w komputerowy kod i coraz częściej staje się widoczna w działaniach sztucznej inteligencji, od których jesteśmy zależni, czy tego chcemy, czy nie”4. Okazało się bowiem, że aplikacja firmy Google odpowiedzialna za rozpoznawanie twarzy na zdjęciach automatycznie oznacza fotografie, na których znajdują się Afroamerykanie, tagami „apes” czy „animals”. Przykłady można mnożyć – jeden z najgłośniejszych pochodzi z 2015 roku, kiedy prezydentem Stanów Zjednoczonych był Barack Obama. Mapy Google wskazywały na Biały Dom, gdy jako wyszukiwane miejsce podawano „nigga house” czy „nigger king” („dom czarnucha” czy „król czarnuchów”)5.
W swojej ostatniej książce, Algorithms of Oppression: How Search Engines Reinforce Racism, Noble postuluje większą kontrolę nad funkcjonowaniem internetu6. Przywołuje wiele przykładów, które ujawniają rasizm, seksizm i wszelkie formy dyskryminacji głęboko osadzone w algorytmach wyszukiwania. Brak świadomości ich istnienia połączony z naszą predylekcją do zbyt łatwego poddawania się interfejsowi internetowych wyszukiwarek może przyczynić się do pogłębiania społecznych podziałów. Można tu przywołać używaną między innymi przez Reni Eddo-Lodge kategorię rasizmu strukturalnego – w dużym uproszczeniu chodzi w nim o „strategię przetrwania władzy systemowej”7. Ta zaś podporządkowana jest figurze białego mężczyzny, która im bardziej jest niewidoczna, tym większą ma siłę oddziaływania. Zarówno Noble, jak i Eddo-Lodge zajmują się intersekcjonalnością – szukają powiązań pomiędzy różnorodnymi formami dyskryminacji i wykluczenia, a następnie je ujawniają, by zwrócić uwagę na opresyjność systemu, w którym funkcjonujemy. Obie wierzą w siłę oddolnych działań i społecznych inicjatyw. Stąd właśnie w książce Noble pojawia się postulat społecznej kontroli nad internetem oraz propozycja zwrotu w kierunku wyszukiwarek niekomercyjnych, które mają być wolne od wyników zależnych od finansowej kontroli zainteresowanych podmiotów. Tym jednak, co wydaje mi się interesujące w kontekście opisywanych przez Noble algorytmów opresji, jest nie tylko postulat kontroli internetowych treści, ale także przywoływana przez autorkę wypowiedź decydentów Google’a związana z „aferą” wokół Białego Domu: „Nasze zespoły już pracują nad tym, by jak najszybciej naprawić ten problem”8. Pytanie, jakie w tym kontekście powinniśmy sobie zadać, brzmi: kto odpowiada za „sprzątanie brudów” w internecie?
Trudno nie zgodzić się ze stwierdzeniem Scotta Gallowaya, że „cyfrowa przestrzeń potrzebuje zasad”9. Jej szeroka dostępność powinna wiązać się z poczuciem bezpieczeństwa osób przebywających w sieci. W utopijnej wizji przestrzeni wirtualnej nie ma więc miejsca na przemoc czy rasizm. „Chcielibyśmy, by platformy internetowe potrafiły wyrugować to, co obraźliwe czy okrutne”10 – dodaje z kolei Tarleton Gillespie. Czy mamy jednak na myśli cenzurę? Czy potrafilibyśmy wziąć odpowiedzialność za kontrolę internetowych treści? Kto miałby decydować o pozostawieniu lub usunięciu danego materiału? I wreszcie: kto miałby pilnować tych, którzy strzegą „internetowej czystości”? Ludzie mają przecież różne poglądy, wyznają określone wartości, pochodzą z konkretnych kontekstów społeczno-kulturowych. Trudno więc liczyć na obiektywizm w ocenie moderowanych cyfrowych treści, pojawia się natomiast widmo trudnych do przewidzenia politycznych skutków takiego działania:
Moderowanie treści jest trudne. Z jednej strony to oczywiste, a jednak łatwo o tym zapomnieć. To trudne zadanie, ponieważ jest niezwykle zasobochłonne i nie zna litości, wymaga dokonywania skomplikowanych i niełatwych do [późniejszej] obrony rozróżnień, a nie istnieją konkretne standardy, których należy się trzymać; jest trudne przede wszystkim dlatego, że jeden błąd może spowodować wystarczająco dużo publicznego oburzenia, aby przyćmić milion cichych sukcesów11.
Tymczasem algorytmy, na których opiera się funkcjonowanie internetu, nie wezmą odpowiedzialności za swoje działania. Nie można ich ukarać – można jedynie próbować je modyfikować, jak to miało miejsce we wspomnianej aktualizacji „Panda”. Każda kolejna opierać się będzie na wdrażaniu nowych zasad i poprawianiu procesów uczenia maszynowego, dzięki czemu algorytmy (których efektów działania doświadczamy, choć niekoniecznie zdajemy sobie z tego sprawę) usprawniają swoje funkcjonowanie według zaprojektowanych schematów. Algorytmy uczą się nas, siebie samych i siebie nawzajem – rozpoznają niewidoczne dla ludzkiego oka wzory zachowań i decyzji, analizują ich schematy, śledzą drzewa decyzyjne i odczytują zbiory reguł, na których opiera się obserwowana przez nie rzeczywistość12. Wydają się więc znacznie lepiej przystosowane do kontroli niezmierzonej przestrzeni internetu. Mogą przetwarzać miriady danych i komunikować się ze sobą, a przede wszystkim mają jasno określone cele i nie rozpraszają się przy ich osiąganiu. Ich funkcjonowanie opiera się bowiem na tak zwanym słabym AI (weak AI) czy też ograniczonej sztucznej inteligencji (narrow AI). Oznacza to, że ich perspektywa zredukowana jest do precyzyjnie wyznaczonego zadania i skupiają się na jak najlepszym jego wykonaniu, oczywiście w miarę swoich zaprojektowanych możliwości (nawet jeśli korzystają z uczenia maszynowego, jest ono ograniczone przez nałożone ramy)13. Jak zauważył Yuval Noah Harari, „źródłowy algorytm może być początkowo opracowany przez ludzi, ale w miarę rozwoju idzie już własną ścieżką, trafiając tam, gdzie wcześniej nie zaszedł żaden człowiek – i gdzie żaden człowiek pójść za nim nie potrafi”14.
Nietrudno dostrzec pułapki, w jakie wpadają „wszechobecne algorytmy”15. Są one zapewne związane z ludzką niedoskonałością, na którą z założenia brak miejsca w cyfrowym kodzie – ten ostatni powinien bowiem dążyć do ideału, na przykład dzięki wspomnianemu uczeniu maszynowemu. Nasze postępowanie jest jednak na tyle chaotyczne, że trudno przewidzieć wszystkie jego aspekty. Skoro zaś algorytmy zaprojektowane są tak, by uczyć się ludzkich zachowań, to uczą się również tych, które mogą być wątpliwe moralnie. Wyłapując wzory i powielając je, nie oceniają, tylko „po prostu” działają. Chociażby dlatego właśnie te, które odpowiadają za treści wyświetlające się w mediach społecznościowych, zamykają nas w bańkach informacyjnych lub rozprzestrzeniają fałszywe informacje. Jak dowodzi Siva Vaidhyanathan, algorytmy Facebooka są zaprojektowane tak, by materiały wyświetlane w naszym news feedzie wywoływały pozytywne reakcje
– polubienia czy udostępnienia:
Każdy aspekt serwisu powstał po to, by skupić naszą uwagę […]. Firma opracowała techniki, które mają zmierzyć poziom relatywnego szczęścia użytkowników lub zadowolenia z tego, co im podsuwa. Zatrudnieni przez nią badacze starają się rozpoznać rzeczy, które sprawiają, że jesteśmy szczęśliwsi, i zwiększyć nasz kontakt z nimi, a także zminimalizować kontakt z tym wszystkim, co powoduje nasz niepokój lub niezadowolenie16.
Postulowana przez Noble społeczna odpowiedzialność za przestrzeń cyfrową wiązałaby się więc poniekąd z obecnym już w algorytmach mediów społecznościowych zadaniem ukrywania treści, na które nie ma społecznego przyzwolenia. Niewątpliwie w przestrzeni internetu nie powinno się pokazywać tego, co objęte jest zakazem w pozostałych przestrzeniach publicznych. Należy jednak pamiętać, że mamy do czynienia ze „słabym AI”, co oznacza, że algorytmy mogą dokonywać wyborów, które dla ludzi pozostają niezrozumiałe. Tak było na przykład wówczas, gdy z Facebooka usunięto zdjęcie statuetki tak zwanej Wenus z Willendorfu17 czy obrazy Petera Paula Rubensa18. W obu sytuacjach mieliśmy do czynienia z usuwaniem ilustracji przedstawiających nagość. Gdybyśmy spojrzeli na nie bez zwracania uwagi na kontekst ich powstania, zapominając, iż mamy do czynienia ze sztuką, a kierując się ogólną zasadą zakazu publikowania wizerunków nagich ciał, to usunięcie takich treści wydawałoby się nam być może mniej kontrowersyjne. Spojrzenie maszynowe nie sprawdza jednak kontekstu tego, na co patrzy. Wyszukuje konkretne wzorce, skupia się na punktach, plamach, poszczególnych elementach obrazu i porównuje je z dostępnymi bazami danych treści uznawanych za niepożądane19. Jeśli więc algorytm dostrzega nagość, zobligowany jest do jej usunięcia. Podobnym przykładem jest usunięcie z serwisu społecznościowego wręcz ikonicznego dla wojny w Wietnamie zdjęcia Nicka Uta The Terror of War, na którym dziewięcioletnia Phan Thi Kim Phuc ucieka po ataku napalmem. Fotografia zniknęła z fanpage’u magazynu „Aftenposten”, ponieważ dziewczynka jest na nim naga20. Jak twierdzi Scott Galloway, „człowiek-redaktor odczytałby zdjęcie jako symboliczny obraz wojny. Sztuczna inteligencja nie odczytała”21. Może więc obiektywne spojrzenie algorytmów moderujących treść nie jest tak doskonałe? I czy w takim razie istnieje jakieś alternatywne rozwiązanie dla niewątpliwie ważnego zadania, jakim jest strzeżenie internetu?
***
Nicholas Mirzoeff pisał, że „Google, Apple, Microsoft – i jakikolwiek inny gigant cyfrowy […] – ustawiają się pomiędzy nami a światem, starannie filtrując to, co możemy zobaczyć i poznać za pomocą ekranów”22. Potrzeba tego rodzaju filtrowania jest zrozumiała. Jak sugeruje przywołana powyżej wypowiedź Gallowaya, nie zawsze jednak zdajemy sobie sprawę z tego, w jaki sposób tego typu działania są realizowane. Do kontroli internetowych treści służą bowiem nie tylko algorytmy. Także Safiya Umoja Noble, choć jest świadoma tego, iż opresyjne algorytmy są dziełem człowieka, zdaje się nie zauważać ludzkiego czynnika w operacji „sprzątania” internetowej przestrzeni. Tymczasem, oprócz opisanych już algorytmów, za tę czynność odpowiedzialni są także ludzie zatrudnieni jako „moderatorzy treści”. Tysiące osób, głównie na Filipinach, każdego dnia pracuje, przeglądając obrazy (zdjęcia, filmiki, memy, grafiki itd.) i podejmuje decyzje, czy powinny one zostać usunięte.

Czyściciele intenetu, reż. Hans Block, Moritz Riesewieck, 2018.
O ich pracy – na co dzień niewidocznej, choć jej efektów trudno nie zauważyć
– opowiada instalacja Dark Content, której autorami są Eva i Franco Mattes23. Przeprowadzili oni wywiady z setką moderatorów treści – ich anonimowe wypowiedzi odtwarzane są przez cyfrowe awatary (komputerowo generowany jest zarówno ich głos, jak i wygląd). W przestrzeni instalacji były one odtwarzane na monitorach umieszczonych na meblach biurowych marki Ikea, ustawionych jednak w takich miejscach, by oglądanie „nagrań” było dla odbiorców doświadczeniem niekomfortowym nie tylko psychicznie, ale i somatycznie24. O pracy moderatorów treści opowiada także film dokumentalny Czyściciele internetu w reżyserii Hansa Blocka i Moritza Riesewiecka25. Zadaniem tysięcy osób jest podejmowanie decyzji o tym, jakie materiały publikowane przez użytkowników mogą pojawić się w mediach społecznościowych – na Facebooku czy Instagramie. Film przedstawia kulisy i skutki tej pracy, które mogą dotknąć zarówno wysoko postawionych polityków, jak i artystów czy „zwykłych” użytkowników. W trakcie swojej codziennej pracy moderatorzy treści przez osiem godzin muszą obejrzeć i ocenić 25 tysięcy obrazów (to dzienna norma). Oznacza to, że poświęcają niewiele ponad sekundę na jeden kadr. Oglądają materiały, których my nigdy nie chcielibyśmy widzieć, jak choćby dziecięca pornografia, gwałty czy egzekucje dokonywane przez terrorystów. Ich praca polega więc na tym, co postulują Safiya Noble czy Tarleton Gillespie – na kontrolowaniu internetu. Jesteśmy przekonani, że tego typu obrazy są dostępne wyłącznie w sieciach zwanych deep web czy też darknet, a więc w przestrzeni w pewnym sensie ukrytej przed ogółem użytkowników, dostępnej jedynie dla „wtajemniczonych” – i rzeczywiście mamy rację. Dzieje się tak jednak dlatego, że „czyściciele internetu” na bieżąco pilnują, by tego typu treści zostały odpowiednio szybko usunięte i nie przedostały się dalej, do szerszej publiczności. Ich praca pozostaje więc jednocześnie niewidzialna (nie bez powodu są zatrudniani w ramach outsourcingu w krajach odległych od Stanów Zjednoczonych, a właścicielom firm takich jak Facebook wcale nie zależy na tym, by prostować powszechne przekonanie o algorytmach sprawujących kontrolę nad ich portalami26), jak i doskonale widoczna. Efekty ich działań oscylują bowiem wokół klasycznej aporii sprzątania – połączenia widzialności (czystej przestrzeni) z niewidocznością (tego, co zostało usunięte, czego nie chcielibyśmy oglądać)27. Internet wydaje się wizualnie przestrzenią względnie bezpieczną; nie musimy tam oglądać zdjęć zwłok czy brutalnych scen przemocy, ponieważ ktoś zrobił to już za nas i zdecydował o ich usunięciu sprzed naszych oczu.
Zarówno w instalacji Dark Content, jak i w filmie Czyściciele internetu moderatorzy treści opowiadają o szczegółach swojej pracy, przybliżają najtrudniejsze sytuacje oraz obrazy, które wywarły na nich najsilniejsze wrażenie. Słuchamy o oglądaniu nagrań zbiorowych gwałtów czy szkolnego molestowania, transmisji z samobójstw nastolatków czy egzekucji dokonywanych przez terrorystów. Dowiadujemy się również o rządach państw, które „czyszczą” internet ze zdjęć obywatelskich protestów czy domagają się usunięcia fotografii, na których znajdują się konkretne osoby. W firmach zajmujących się moderowaniem treści zamówienie może złożyć każdy – „sprzątane” są zatem niewygodne fakty, ukrywane niepożądane osoby czy usuwane poufne dokumenty, które „wyciekły”.
Czy możliwość manipulacji cyfrowym obrazem powinna nas jednak w ogóle dziwić? Czyż nie jest to immanentna cecha tego typu przedstawień? Jak pisał Piotr Zawojski, „«nowość» nowych obrazów polega na tym, że ich radykalnie odmienna od tradycyjnej ontologia każe wątpić w to, czy można je dalej uznawać za obrazy, czy raczej wyłącznie za symptomy i efekty procesów algorytmicznych”28. Jak wskazywałaby na to sama jego nazwa, obraz cyfrowy jest kodem, który przybiera wizualną formę. Niczym w słynnej scenie z filmu Matrix, w której Neo zamiast materialnych ścian pokoju dostrzega budujące jego przestrzeń zielone cyfry, spadające niczym wodospad, tak i my moglibyśmy – przy odpowiednim warsztacie technologicznym – dostrzec cyfry fundujące obraz, o którym tu mowa. A przecież „podstawową cechą informacji cyfrowej jest to, że można nią w łatwy i szybki sposób manipulować za pomocą komputera. Jest to po prostu kwestia zastąpienia starych cyfr nowymi”29 – dowodzi Mitchell. Istotą takiego obrazu byłaby więc jego zmienność, ontologiczna płynność, w efekcie której postrzegamy go raczej relacyjnie niż esencjalistycznie. Możliwość przekształcenia jest wpisana w sam fundament istnienia cyfrowego obrazu. Czy w takim razie jest weń wpisane także swego rodzaju zawieszenie pomiędzy byciem i niebyciem, a dokładniej – zniknięcie? Czy możliwość usunięcia z sieci staje się immanentną cechą tego typu przedstawień? Jaki jest status ontologiczny usuniętego, a więc tym samym niewidocznego, obrazu?
Moderatorzy treści często mówią o sobie, że „sprzątają śmieci” z internetu. Ta metafora widoczna jest zwłaszcza w historii jednej z bezimiennych bohaterek wspomnianego filmu dokumentalnego, która przyznaje, że zawsze bała się, iż będzie pracowała na wysypisku śmieci. Widzowie, którzy mają w pamięci innych bohaterów filmu, porównujących swoją pracę do sprzątania, otrzymują więc sugestię, że dziewczyna znalazła się dokładnie tam, gdzie nie chciała. Przywodzi to na myśl opisywane przez Hito Steyerl nędzne obrazy, które są niczym „współczesny «wyklęty lud ekranu», odpady produkcji audiowizualnej, śmieci wyrzucane przez fale na brzegi cyfrowych ekonomii”30. Z jednej strony możemy zapytać, czy usunięty obraz jest śmieciem. Jeśli bowiem go nie ma, to czy staje się czymkolwiek? Z drugiej strony jednak śmieci również w pewnym sensie nie ma, a dokładniej: stają się niewidoczne. Podlegają anestetyzacji, nie znikają, lecz zostają przesunięte w obszar ślepej plamki31. Sytuacja cyfrowego obrazu jest w tym kontekście nieco inna – nie tyle zostaje on uniewidoczniony, ile po prostu znika. Niewątpliwie jednak, podobnie jak przywoływane przez Steyerl przykłady, podlega „alternatywnej ekonomii obrazów”32.
Czy aby na pewno usunięty z sieci obraz możemy określić jako nieistniejący? Nie da się go przecież całkowicie wymazać
– nawet jeśli oczyścimy z niego cyfrowy nośnik, usuniemy kod, zastąpimy stare cyfry nowymi i przeprogramujemy internetowe źródło, to w przypadku tego typu treści, które znikają wskutek pracy „czyścicieli internetu”, istnieje miejsce magazynowania, którego nie jesteśmy w stanie „posprzątać”. Hans Belting pisze:
Naturalnie to człowiek jest miejscem obrazów […], niejako żywym organem dla obrazów. Mimo istnienia rozmaitych aparatów, za pomocą których wysyłamy i magazynujemy dzisiaj obrazy, wyłącznie człowiek jest miejscem, w którym obrazy są odbierane i interpretowane w sposób żywy (a więc efemeryczny, trudno kontrolowany, etc.)33.
Praca moderatorów treści, choć polega przede wszystkim na usuwaniu danych, jest jednocześnie pracą ich zapamiętywania – to właśnie dlatego w Dark Content czy Czyścicielach internetu filipińscy pracownicy mogą opowiadać o tym, co zobaczyli, a czego my nigdy nie ujrzymy. Ujawnia się w ten sposób materialny – a wręcz ucieleśniony – wymiar cyfrowego obrazu. Pomimo jego usunięcia z przestrzeni internetu jest on wciąż pamiętany. Jak wspominają reżyserzy filmu:
Ich profesja to jeden z najważniejszych zawodów w erze cyfrowej. Zdziwiło nas, że zamiast narzekać na warunki pracy, eksploatację emocjonalną, oni powtarzali, że są dumni z tego, co robią. Jeden z bohaterów prosił, byśmy wyobrazili sobie, jak wyglądałby internet, gdyby na dwie godziny porzucił stanowisko pracy. Zobaczylibyście rzeczy, na które nigdy nie chcielibyście patrzeć. Ja was przed tym chronię – przekonywał. I to jest prawda. Gdy moderator usunie wideo z pornografią dziecięcą, kilka tygodni później dostaje informację zwrotną, że udało się złapać osobę, która nagranie umieściła w sieci. Przychodzi szef i mówi: to dzięki tobie na drugim końcu świata złapano przestępcę. Właśnie ta narracja, zgodnie z którą twoja praca – nawet jeśli jest ekstremalnie wyczerpująca – ma głęboki sens, pozwala im przetrwać. Ale i tak średni czas pracy w firmach moderujących treść to jedynie pół roku34.
Praca moderatorów polega na weryfikacji, czy to, co oglądają, jest przeznaczone dla ludzkich oczu. Jeśli uznają, że nie, oznaczają obraz jako nadający się do usunięcia. Tego, co zobaczyli, nie da się już jednak cofnąć – pozostają w ten sposób ostatnimi ludzkimi odbiorcami „zakazanych” treści, przechowują je pod swoimi powiekami, są w stanie przywołać ich obraz, wyobrazić go sobie, ale przekazać komuś mogą jedynie za pomocą słów (a i tego tak naprawdę nie wolno im robić, jako że ich działania chronione są klauzulą poufności35). Gdy przywoływany przez reżyserów bohater mówi: „Ja was przed tym chronię”, powinniśmy traktować to sformułowanie wręcz dosłownie. Moderator treści jest niczym ochroniarz, który własnym ciałem zasłania osobę, przyjmując na siebie cios lub pocisk. Nigdy nie zobaczymy usuniętego obrazu, jednak człowiek pozostaje „ranny”. Jego ciało nosić już będzie ślad obejrzanych treści.

Czyściciele intenetu, reż. Hans Block, Moritz Riesewieck, 2018.
Jeden z bohaterów Czyścicieli internetu opowiada o koledze z pracy, który popełnił samobójstwo, ponieważ nie mógł już znieść psychicznego ciężaru związanego z oglądanymi codziennie obrazami. W tym kontekście ludzcy moderatorzy treści są słabsi niż ich algorytmiczne odpowiedniki. Ucieleśnienie okazuje się przekleństwem. Pod tym względem człowiek stanowi istotny element w ontologii usuniętego cyfrowego obrazu. Zatrzymuje go bowiem, nie pozwala mu ostatecznie zniknąć. Jednocześnie zaś ciało udowadnia w ten sposób, że obraz nigdy nie istnieje wyłącznie w sposób wirtualny. Jest raczej elementem wirtualno-materialnej sieci relacji. Usunięcie go z jednej przestrzeni nie sprawi, że przestanie on istnieć, ponieważ będzie wciąż obecny w drugiej. Jego istnienie i nieistnienie są nierozerwalnie połączone. Ontologia usuniętego cyfrowego obrazu przekracza dualizmy, do których jesteśmy przyzwyczajeni, gdy myślimy o sieci, algorytmach oraz o tym, co materialne i wirtualne. Znane nam dotychczas granice okazują się niepewne, niekonkretne. Jak pisze Karen Barad, taka „nieokreśloność jest kluczem nie tylko w kwestii istnienia materii, lecz także jej nieistnienia lub raczej – jest kluczem do gry nie/istnienia”36.
Warto w tym kontekście zwrócić uwagę na fakt, o którym pisze Siva Vaidhyanathan, analizując sytuację usuniętego zdjęcia The Terror of War: „W całym tym oburzeniu zagubił się fakt, że Facebook nie usunął przecież zdjęcia ze świata. Nadal jest ono obecne w książkach, na setkach stron, które można odnaleźć przez Google’a, w gazetach i czasopismach”37. Przyzwyczailiśmy się do patrzenia na ontologię cyfrowego obrazu – a właściwie na każdą ontologię – w sposób jednowymiarowy, z perspektywy bytu i jego istnienia, podczas gdy jego usunięcie ujawnia złożoność relacji, które
się za nim kryją38.
Zdaniem Lamberta Wiesinga okno monitora ma „wytwarzać i prezentować rzeczy obecne”39. Co jednak dzieje się w sytuacji, gdy obraz, o którym tu mowa, jest nieobecny? Wydaje się, że samo pojęcie nieobecności jest tu niewystarczające. Usunięte obrazy są raczej nie-obecne. Ich obecność fundowana jest przez wizualną nieobecność
– i jednocześnie sama ją funduje. To właśnie dzięki temu, że zostały usunięte, przestrzeń internetu wygląda tak, jak widzimy ją na co dzień. Choć jako obrazy spełniają funkcję prezentowania rzeczywistości, właśnie z tego powodu muszą zostać zneutralizowane. Okazuje się bowiem, że nie wszystko, co nas otacza, powinno być oglądane. Usunięte obrazy ujawniają aporie ontologii cyfrowego obrazu. To, co usunięte, nie przestaje bowiem istnieć – funkcjonuje wciąż na wiele sposobów: zarówno w pamięci moderatorów treści, jak i samych wytwórców owych obrazów, nie mówiąc już o pamięci komputera czy smartfona. Przede wszystkim jednak są obecne swoją nieobecnością – już samo ich istnienie wymusza takie działanie, jakim jest moderowanie treści. Usunięte obrazy funkcjonują zatem poprzez brak. Ich istnienie znajduje się na przecięciu przeszłości, teraźniejszości i przyszłości. Zostają bowiem wytworzone, a następnie umieszczone w internecie, by zostać z niego usunięte przez moderatorów (przeszłość) – są więc nieobecne w przestrzeni sieci (teraźniejszość), w efekcie czego nie mogą rozprzestrzeniać zawartych w nich treści, propagować brutalności i przemocy czy innych przejawów społecznego funkcjonowania definiowanych jako negatywne; ich nieobecność odgrywa wobec tego znaczącą rolę w kształtowaniu postaw (przyszłość). Należałoby zatem przyznać rację Wiesingowi, ponieważ nawet nieobecny obraz sprawia, że okno monitora – prezentując brak owego obrazu – pokazuje rzeczy obecne.
„Znikanie” obrazu cyfrowego w internecie byłoby jedną z jego fundamentalnych cech, związanych zarówno z kompresją niezbędną do publikacji w sieci, przekształcaniem związanym z wybranym formatem pliku, jak i kwestią przesyłania danych – wszystko to bowiem powoduje jego degradację40. W tym kontekście praca moderatorów treści, polegająca na usuwaniu owych obrazów, nie stałaby w sprzeczności z ich podstawowym sposobem istnienia w sieci. Nie zaburzałaby ontologii cyfrowego obrazu, w której jest miejsce na szumy, błędy i degradację, a wreszcie i na znikanie.
Czy zatem w płynnej ontologii cyfrowego obrazu, opierającej się na zapisie binarnym i algorytmicznym procesie, możemy uwzględnić pracę moderatorów treści? Skoro ich działalność nie zaburza rzeczonej ontologii (jest z nią wręcz zgodna), a jednocześnie polega na ingerencji w samo istnienie opisywanych tu obrazów, działania „czyścicieli internetu” także powinny znaleźć należne im miejsce, gdy mowa o cyfrowej ontologii wizualności. Ich praca ujawnia bowiem relację władzy związaną z widocznością w przestrzeni internetu41 – anonimowi pracownicy z Manili, posiłkujący się jedynie podręcznikiem, który otrzymali od pracodawcy, nie są bynajmniej podmiotami wspomnianej władzy, a jedynie jej przedmiotami
– wykonawcami systemowych działań prewencyjnych. To właśnie za pomocą ich pracy „władza zyskuje coraz większą anonimowość i funkcjonalność”42, co zostało podkreślone w instalacji Dark Content poprzez umieszczenie wypowiedzi moderatorów treści w ustach cyfrowych awatarów. Osoby, których obrazy zostały usunięte z sieci, nie mają możliwości odwołania się od tej decyzji – muszą pogodzić się z faktem cenzury. Przykładem może być historia Illmy Gore, artystki pochodzącej z Los Angeles, która umieściła na swoim profilu na Facebooku ilustrację zatytułowaną Make America Great Again, przedstawiającą nagiego Donalda Trumpa z małym penisem. Użytkownicy portalu oznaczyli zdjęcie jako obraźliwe i trafiło ono do moderatorki treści, która musiała zdecydować, czy zdjęcie może pozostać na stronie. Kobieta nie miała czasu na rozważanie zagadnienia wolności słowa w Stanach Zjednoczonych, a jednocześnie wiedziała, jakie kary grożą za obrażanie prezydenta Filipin – zdecydowała więc o usunięciu ilustracji, w efekcie czego całe konto Gore zostało zamknięte.
Takie sytuacje są nieuniknione, gdy tysiące pracowników przeglądają przez osiem godzin dziennie 25 tysięcy obrazów, pracując w systemie zmianowym, który pozwala funkcjonować firmom zatrudniającym moderatorów treści przez całą dobę. Nadzorujących nie da się w żaden sposób nadzorować, nie byłoby to nawet mile widziane. Zgodnie z umową pracownik może się bowiem pomylić jedynie trzy razy w miesiącu zanim straci pracę, a rotacja pracowników, związana
z ich psychicznym wyczerpaniem, jest tak duża, że pracodawcy nie mogą pozwolić sobie na dodatkowe zwolnienia.
Działania moderatorów treści służą więc poniekąd dyscyplinowaniu użytkowników internetu. Pokazują, że nieodłącznym elementem ontologii cyfrowego obrazu – zwłaszcza tego umieszczanego w sieci – jest relacja władzy, nieustanny anonimowy nadzór. Cenzura stanowi dyscyplinującą karę, która uczy nas tego, jakie treści są akceptowalne. Za Royem Ascottem możemy powiedzieć, że internet to „miejsce interaktywności i konektywności, dzięki któremu odbiorca może odgrywać aktywną rolę w przekształcaniu lub aprobowaniu obrazów”43. Problem w tym, że pomiędzy nadawcą treści
a ich projektowanym odbiorcą znajduje się czynnik filtrujący w postaci „nadzorującego odbiorcy”, do którego zadań należy właśnie aprobowanie obrazów.
Praca „czyścicieli internetu” pozostaje jednak niewidoczna dla większości użytkowników. Dzieje się tak zapewne dlatego, że przezroczystość ich działań jest elementem przezroczystości interfejsu, o którym pisał chociażby Lev Manovich44. To dodatkowy wymiar anonimowości sprawowanego przez nich nadzoru. Nie tylko nie wiemy, kim są, ale także nie powinniśmy wiedzieć, że w ogóle istnieją. To właśnie dlatego nikt nie spieszy, by prostować informacje o algorytmach moderujących internetowe treści i właśnie dlatego – oczywiście obok względów ekonomicznych – praca „czyścicieli” wykonywana jest w dużej mierze przez mieszkańców Filipin. Mają pozostać nie tylko anonimowi, ale również niewidzialni. Tym samym społeczeństwo ma pozostać nieświadome ukrytych mechanizmów działających w sieci (zarówno opisywanych przez Noble opresyjnych algorytmów wyszukiwania, jak i pracy moderatorów treści). Gdy korzystamy z internetu, nie dostrzegamy interfejsu, kodu czy ustrukturyzowania, które dyscyplinują nasze poruszanie się oraz przebywanie w jego przestrzeni. Jak pisał Lambert Wiesing, patrzymy „poprzez medium, nie czyniąc tego medium tematem” naszego postrzegania45. Powinniśmy się więc nauczyć, że każdy obraz umieszczony w sieci zawiera znacznie więcej informacji, niż tylko te widoczne dla naszego oka – najwięcej mają zaś do przekazania te obrazy, których nie możemy zobaczyć.
***
Co to znaczy „sprzątać internet”? W jakiej sytuacji możemy uznać, że jakaś treść jest brudna, a inna czysta? Systemy wartości różnicują się w zależności od kontekstów, choć przecież wydaje się oczywiste, że treści zawierające przemoc i brutalność, obraźliwe czy nawołujące do agresji powinny być jednoznacznie postrzegane jako negatywne. Czy z internetu możemy coś wypreparować? Jeśli tak, to kto ma decydować o tym, co w nim pozostaje? Anonimowość i systemowa funkcjonalność relacji władzy, z jaką mamy do czynienia w przypadku pracy moderatorów treści, pozwalają nam odsunąć od siebie refleksję nad demokratycznością internetu. Pozwala nam to funkcjonować we względnie bezpiecznym środowisku, wyczyszczonym z obrazów przemocy. Czy jednak kontrola treści, którą postuluje Safiya Noble, a którą realizują „czyściciele internetu” na usługach korporacji z Doliny Krzemowej, nie wiąże się z fałszowaniem obrazu rzeczywistości?
Czy nie jest tak, że manipulacja, charakterystyczna dla obrazu cyfrowego, przenosi się ze świata wirtualnego do materialnego? Usunięcie niechcianych obrazów z pola widzenia nie sprawi, że one – a także reprezentowane przez nie zjawiska – przestaną istnieć. Staną się raczej nie-obecne, zyskując tym samym większą siłę oddziaływania niż wtedy, gdy pozostają „na widoku”.
Jednocześnie zbyt duża wiara w możliwość kontroli internetowych treści – która sama w sobie pozostaje poza kontrolą
– wiązać się musi z szeregiem mechanizmów samodyscyplinujących, polegających na podporządkowywaniu się aktualnie obowiązującej polityce wizualności. Skąd bowiem pewność, że umieszczane przez nas w internecie obrazy nie trafią kiedyś do moderatorów treści? Kontrola jest wszechobecna i każdy obraz może zostać poddany oceniającemu spojrzeniu nadzorcy. Internet nie jawi się więc jako przestrzeń demokratyczna, w której mogą wybrzmieć zróżnicowane głosy. To miejsce, gdzie władza należy do tych, którzy mają dostęp do przycisku delete.
1 Safiya Umoja Noble, Algorithms of Oppression. How Search Engines Reinforce Racism, New York University Press, New York 2018, s. 25.
2 Za Reni Eddo-Lodge używam określenia „kolorowy”, które „odnosi się do osób o innym kolorze skóry niż biały”.
Zob. eadem, Dlaczego nie rozmawiam już z białymi o kolorze skóry, przeł. A. Sak, Karakter, Kraków 2018, wydanie elektroniczne, loc. 96.
3 Zob. Safiya Umoja Noble, Missed Connections. What Search Engines Say about Women, „Bitch magazine” 2012, t. 12, nr 4, s. 37–41.
4 Eadem, Algorithms of Oppression…, s. 21.
5 Zob. Andrew Griffin, Google Apologises for Racist ‘N*gga House’ Search That Takes Users to White House, „Independent” z 21 maja 2015, www.independent.co.uk/life-style/gadgets-and-tech/news/nigga-house-racist-search-term-forces-google-to-apologise-for-taking-users-to-white-house-10266388.html, dostęp 7 marca 2019.
6 Zob. Safiya Umoja Noble, Algorithms of Oppression…
7 Reni Eddo-Lodge, Dlaczego nie rozmawiam…, loc. 886.
8 Safiya Umoja Noble, Algorithms of Oppression…, s. 31.
9 Scott Galloway, Wielka czwórka. Ukryte DNA: Amazon, Apple, Facebook i Google, przeł. J. Kubiak, Dom Wydawniczy REBIS, Poznań 2018, loc. 1906.
10 Tarleton Gillespie, Custodians of the Internet. Platforms, Content Moderation, and the Hidden Decisions That Shape Social Media, Yale University Press, New Haven–London 2018, s. 212.
11 Ibidem, s. 9–10.
12 Por. John D. Kelleher, Brian Mac Namee, Aoife D’Arcy, Fundamentals of Machine Learning for Predictive Data Analytics, MIT Press, Cambridge–London 2015.
13 Por. Malcolm Frank, Paul Roehrig, Ben Pring, What To Do When Machines Do Everything. How to Get Ahead in a World of AI, Algorithms, Bots, and Big Data, Wiley, New Jersey 2017, s. 92–95.
14 Yuval Noah Harari, Homo Deus. Krótka historia jutra, przeł. M. Romanek, Wydawnictwo Literackie, Kraków 2018,
loc. 7161.
15 Terrence J. Sejnowski, The Deep Learning Revolution, MIT Press, Cambridge–London 2018, s. 207.
16 Siva Vaidhyanathan, Antisocial Media, przeł. W. Mincer i K. Sosnowska, W.A.B., Warszawa 2018, s. 58.
17 Por. Alexandra Ma, Facebook banned a user from posting a photo of a 30,000-year-old statue of a naked woman – and people are furious, „Business Insider”, 1 marca 2018, www.businessinsider.com/facebook-bans-venus-of-willendorf-photos-over-nudity-policy-2018-3?IR=T
18 PAP, Facebook usuwa obrazy Rubensa z powodu odsłoniętych piersi. Muzea protestują, www.polskieradio.pl/5/3/Artykul/2170631,Facebook-usuwa-obrazy-Rubensa-z-powodu-odslonietych-piersi-Muzea-protestuja, dostęp 7 marca 2019.
19 Warto zauważyć, że ludzkie spojrzenie działa w podobny sposób. My również poszukujemy wzorców czy znajomych kształtów, porównujemy to, co widzimy, ze znanymi już obrazami. Różnicą jest natomiast – w miarę społeczno-kulturowych możliwości – znajomość kontekstu. Por. Władysław Strzemiński, Teoria widzenia, Muzeum Sztuki, Łódź 2016.
20The Story Behind the ‘Napalm Girl’ Photo Censored by Facebook, http://time.com/4485344/napalm-girl-war-photo-facebook/, dostęp 7 marca 2019.
21 Scott Galloway, Wielka czwórka…, loc. 1908.
22 Nicholas Mirzoeff, Jak zobaczyć świat,przeł. Ł. Zaremba, Karakter – Muzeum Sztuki Nowoczesnej,
Kraków–Warszawa 2016, s. 170.
23 Instalacja była pokazywana między innymi na wystawie First Person Plural: Empathy, Intimacy, Irony, and Angerw Centrum Sztuki Współczesnej BAK w Utrechcie (Holandia), trwającej od 12 maja do 22 lipca 2018 roku.
24 Uniwersalizacja pracy biurowej, której symbolem stają się tu meble sieci Ikea, ma podkreślać anonimowość moderatorów treści (którzy stają się tym samym everymanami), a jednocześnie ich niewolnicze wręcz zaprzęgnięcie w tryby kapitalistycznej maszyny korporacyjnej. Tak jak kontrola internetu opiera się na pewnym katalogu schematów, tak i meble biurowe, przy których pracujemy, ograniczają naszą swobodę ruchów do tych wymodelowanych przez projektantów. Dlatego też nagrania umieszczone w instalacji Dark Content wymuszają na odbiorcach wyjście poza wzorcowe i wyuczone korzystanie ze wspomnianych mebli. Por. Artur Szarecki, Kapitalizm somatyczny. Ciało i władza w kulturze korporacyjnej, Wydawnictwa Drugie, Warszawa 2017.
25 Tytuł oryginalny: The Cleaners. Film miał premierę w 2018 roku, w Polsce pokazywany był w ramach festiwalu Millenium Docs Against Gravity. Chciałbym podziękować organizatorom festiwalu za dostęp do materiału filmowego.
26 O swoim przekonaniu, iż to właśnie algorytmy odpowiadają za kontrolę internetowych treści, opowiadali również reżyserzy filmu Czyściciele internetu: „W 2013 roku na Facebooku pojawiło się wideo rejestrujące przemoc kobiety wobec dziecka. Nim zniknęło z sieci, udostępniono je 60 000 razy. Mnie i Moritza zainteresowała nie tyle prędkość, z jaką docierało do coraz szerszego grona odbiorców, ile fakt, że równie szybko zostało usunięte. Z pytaniem o to, jaki algorytm za to odpowiada i jak często się myli, zwróciliśmy się do Sary T. Roberts, badaczki sieci społecznościowych z Uniwersytetu Kalifornijskiego w Los Angeles. Szybko wyprowadziła nas z błędu, sugerując, że za moderowanie treści w internecie odpowiadają nie maszyny, ale ludzie zatrudnieni w krajach Globalnego Południa”; Magda Roszkowska, Czyściciele internetu kontrolują to, co trafia do sieci. „Oglądają wszelkiego rodzaju przemoc”, „Gazeta.pl”, http://weekend.gazeta.pl/weekend/1,152121,23538263,czysciciele-internetu-kontroluja-to-co-trafia-do-sieci-ogladaja.html, dostęp 7 marca 2019. Praca moderatorów treści zatrudnionych na Filipinach została ujawniona po raz pierwszy przez Adriana Chena w 2012 roku: por. Adrian Chen, Inside Facebook’s Outsourced Anti-Porn and Gore Brigade, where ‘Camel Toes’ are More Offensive than ‘Crushed Heads’, „Gawker”, 16 lutego 2012, https://gawker.com/5885714/inside-facebooks-outsourced-anti-porn-and-gore-brigade-where-camel-toes-are-more-offensive-than-crushed-heads, dostęp 7 marca 2019. Zob. także: Tarleton Gillespie, Custodians of the Internet…
27 Opowiadała o tym chociażby wystawa Goście autorstwa Krzysztofa Wodiczki prezentowana w Pawilonie Polskim na 53. Biennale Sztuki w Wenecji w 2009 roku.
28 Piotr Zawojski, Paradoksy obrazów w epoce nowych mediów, w: idem, Sztuka obrazu i obrazowania w epoce nowych mediów, Oficyna Naukowa, Warszawa 2012, s. 11.
29 William John Mitchell, Oko zrekonfigurowane. Prawda wizualna w epoce post-fotograficznej, w: Teoria i estetyka fotografii cyfrowej, red. P. Zawojski, przeł. J. Kucharska, K. Stanisz, Narodowe Centrum Kultury, Warszawa 2017, s. 101.
30 Hito Steyerl, W obronie nędznego obrazu, przeł. Ł. Zaremba, „Konteksty” 2013, t. 302, nr 3, s. 101.
31 Por. Wolfgang Welsch, Estetyka i anestetyka, przeł. M. Łukasiewicz, w: Postmodernizm. Antologia przekładów,
red. R. Nycz, Wydawnictwo Baran i Suszczyński,Kraków 1996, s. 520–547.
32 Hito Steyerl, W obronie…, s. 104.
33 Hans Belting, Antropologia obrazu. Szkice do nauki o obrazie, przeł. M. Bryl, Universitas, Kraków 2007, s. 70.
34 Magda Roszkowska, Czyściciele internetu…
35 Owa anonimowość czyni z nich postacie o charakterze świadków koronnych czy tajnych agentów. Ta pierwsza narracja widoczna jest w instalacji Dark Content, w której moderatorzy otrzymują swoje wirtualne awatary, za którymi mogą się skryć, by chronić także samych siebie przed szkodliwym działaniem usuniętych obrazów. Film Czyściciele internetuprzywołuje na myśl raczej skojarzenia z tajnymi agentami ratującymi świat czy tajnym bractwem, które stoi na straży porządku. Duszny i tajemniczy klimat narracji, rozmyte obrazy czy zaciemnione kadry mogą kojarzyć się z opowieściami o ludziach, którzy muszą się ukrywać. Także pojawiające się na ekranie fragmenty wiadomości mailowych mogą wywoływać skojarzenia z kinem szpiegowskim.
36 Karen Barad, Co jest miarą nicości? Nieskończoność, wirtualność, sprawiedliwość, przeł. M. Rogowska-Stangret,
w: Feministyczne nowe materializmy. Usytuowane kartografie, red. O. Cielemęcka, M. Rogowska-Stangret, Lublin 2018, s. 68.
37 Siva Vaidhyanathan, Antisocial Media…, s. 77–78.
38 Zdjęcie Nicka Uta pojawia się również w filmie Czyściciele internetu. Jeden z bohaterów ogląda je i mówi, że zdaje sobie sprawę z tego, co to za fotografia, jednak zgodnie z wytycznymi, według których pracuje, nadaje się ona do usunięcia i on również podjąłby taką właśnie decyzję.
39 Lambert Wiesing, Sztuczna obecność. Studia z filozofii obrazu, przeł. K. Krzemieniowa, Oficyna Naukowa, Warszawa 2012, s. 121.
40 Jak pisał Jakub Dziewit: „format plików graficznych JPEG […] zmniejszał «ciężar» zdjęcia, kompresując je, co równocześnie powodowało spadek jego jakości. Przy tworzeniu tego formatu wykorzystano to, że zdjęcia wyświetlane na monitorze nie muszą mieć dużego «zagęszczenia» punktów je tworzących”. Jakub Dziewit, Aparaty i obrazy. W stronę kulturowej historii fotografii, grupakulturalna.pl, Katowice 2014, s. 212. Por. Lev Manovich, Paradoksy fotografii cyfrowej,
w: Teoria i estetyka fotografii cyfrowej…
41 Takie obrazy zawsze są kolektywnie konstytuowane, nigdy nie istnieją „same w sobie”. Ich istnienie, a w takim wypadku nie-obecność, jest efektem splotu sieci rynkowych, estetycznych, ale też politycznych, społecznych czy wspólnotowych (jak chociażby wspólna odpowiedzialność za przestrzeń internetu). Choć w tym artykule brak już miejsca na rozwinięcie tych rozważań, warto zadać pytanie w duchu Brunona Latoura, czy obrazy cyfrowe (a może obrazy w ogóle?), zwłaszcza te funkcjonujące w internetowej sieci, nie istnieją o tyle, o ile odpowiadają na potrzeby – szeroko rozumianych – interesów czy też społecznego zainteresowania.
42 Michel Foucault, Nadzorować i karać. Narodziny więzienia, przeł. T. Komendant, Aletheia, Warszawa 2009, s. 188.
43 Roy Ascott, Fotografia w interfejsie, w: Teoria i estetyka fotografii cyfrowej…, s. 125.
44 Zob. Lev Manovich, Język nowych mediów, przeł. P. Cypryański, Wydawnictwa Akademickie i Profesjonalne, Warszawa 2006.
45 Lambert Wiesing, Sztuczna obecność…, s. 113.