To, co nadejdzie. Potencjalne przyszłości form dokumentalnych… z perspektywy historycznej

Historia może być wspaniałą nauczycielką, jeśli tylko zadamy jej właściwe pytania. W czasach, gdy forma dokumentalna staje się coraz bardziej zróżnicowana w równej mierze za sprawą technologicznego rozwoju, oczekiwań użytkowników oraz infrastruktury mediów, historia może stać się przedziwną sojuszniczką. Liczne nowe rozwiązania takie jak interaktywność, formy dokumentalne produkowane na żywo czy wirtualna rzeczywistość – by wymienić zaledwie trzy – generują nowe wyzwania, które nie mają jeszcze zbyt wielu precedensów. A jednak, jak proponuję w niniejszym rozdziale, możemy skorzystać na bliższym przyjrzeniu się przeszłości i sprawdzeniu, jakie nauki można z niej wynieść. Ciągłość może ujawnić obszary długoterminowej kulturowej fascynacji, może pomóc przewidzieć wzorce powszechnego odbioru, a także zrelatywizować szok nowości. Poniekąd mniej oczywistą zaletą spoglądania wstecz jest odróżnienie tego, co charakterystyczne, nawet jeśli zostało to tymczasowo ukryte w już znanych ramach. W tekście tym będę więc korzystać z przeszłości rozumianej jako sposób uprawiania refleksji nad przyszłością w celu rozważenia implikacji tych form dokumentalnych, które mają dopiero powstać.

Zacznijmy od przykładu ciągłości, a zakończmy na przypadku radykalnej nowości. Około 250 lat wysiłków, których świadectwem są panorama, stereoskop, film 3D, a także dzisiejsze Google Cardboard, yellow Bird i Oculus Rift, wskazuje na fascynację możliwościami wywoływania poczucia immersji w świecie, który nas otacza. Wskazuje to również na istnienie napięcia pomiędzy re-prezentacją (przedstawianiem czegoś, co istnieje gdzieś indziej i/lub kiedy indziej) oraz przywołaniem, czy nawet doświadczaniem (sprawieniem, że coś jest odczuwane, „jakby się było na miejscu” – by zacytować opis patentowy panoramy Roberta Barkera z 1787 roku). Ta długa historia precedensów daje perspektywę, z której można ocenić obecne zainteresowanie wirtualną rzeczywistością (VR) i przewidywać jej rozwój.

Przyjęte w połowie XIX wieku oraz w wieku XX przez autorów form dokumentalnych strategie manifestujące się poprzez użycie „nowych” technologii takich jak fotografia czy panorama filmowa wskazują na ich zainteresowanie raczej wywoływaniem doświadczeń niż jedynie ich reprezentowaniem, a także raczej eksponowaniem niż jedynie analizowaniem1. Niektóre z najnowszych (w czasie pisania tego tekstu) technologii VR można rozważać w kontekście długiej fascynacji obecnością, immersją oraz „byciem tu” – warunków łatwiejszych do zrealizowania dzięki obrazom ze świata rzeczywistego niż ze światów fikcyjnych, których reguły najpierw muszą zostać opisane i przećwiczone.

Z drugiej strony historia pozwala też odróżniać to, co odmienne, od tego, co naprawdę nowe, wyznaczając ich kontury i sugerując możliwe konsekwencje ich wdrożenia. Na przykład: coraz istotniejsza funkcja algorytmów w programach służących do rozpoznawania obrazów, generatorach narracji i systemach rekomendacji zgodnych z gustami użytkowników sugeruje fundamentalne odejście od form działania, które ustrukturyzowały systemy reprezentacji znane z przeszłości. Podczas gdy obecnie powoli przenikają one do istniejących elementów multimedialnych – od kamer po trójwymiarowe skanery– często są modernizowane tak, by sprawiały wrażenie znajomych i wykonywały swoją pracę z minimalnymi zakłóceniami. Jeśli jednak przyjrzymy się uważnie, zobaczymy, że coś takiego jak algorytmiczne przetwarzanie rozbija i zasadniczo zmienia stare dychotomie twórca–artefakt i artefakt–widz, zakłócając nasze tradycje reprezentacji, mimo że pozornie wydają się z nimi spójne.

Po przedstawieniu argumentów za wykorzystaniem historycznego precedensu jako lusterka wstecznego, które ma wspomóc proces orientacji, w tym rozdziale rozważymy możliwości algorytmicznie generowanych form dokumentalnych i pokrótce rozważymy funkcje algorytmów w wirtualnej rzeczywistości, zauważając, że wymagają one odrzucenia podziału na różne rodzaje technologii VR: jednej, jak już wspomniałem, znajomej, i jednej całkiem nowej.

Przeformułowanie form dokumentalnych

Zanim przejdziemy dalej, wypada powiedzieć kilka słów na temat pojęcia „dokumentalny” (documentary). Używane bywa jako określenie zarówno stylu, gatunku, jak i sposobu reprezentacji; w wąskim znaczeniu łatwo prześledzić genezę tego słowa do jego użycia przez Johna Griersona, który w 1926 roku jako „dokumentalny” opisał film Moana Roberta Flaherty’ego (1926)2. To twórcze odniesienie, jak się okazało, spowodowało liczne komplikacje, zepchnęło bowiem poprzednie trzy dekady produkcji filmów dokumentalnych / opartych na faktach (reality-based) do kategorii filmów „niefabularnych”, pośrednio osadzając koncepcję dokumentalności w pojęciu narracji; uzależniło także formy dokumentalne od intencji, zabiegów i skojarzeń. Nawet jeśli stosowany z zastrzeżeniami w odniesieniu do filmów wyprodukowanych między 1895 a 1925 rokiem, termin ten zostaje rozciągnięty do granic wytrzymałości w celu opisania reprezentacji opartych na faktach, które miały miejsce przed pojawieniem się samego medium filmowego. A jednak, w pewnym sensie asymetrycznie, w okresie powojennym koncept ten odnoszono do mediów innych niż film, począwszy od telewizji (początkowo pojawiały się w niej filmy dokumentalne; później produkowała własne filmy na taśmie i nawet na żywo, przyswajając możliwości ekspresji nowego medium). To samo dotyczy mediów cyfrowych, które początkowo stanowiły wygodną platformę dystrybucji filmów i nagrań, a obecnie stały się przestrzenią innowacji, gdzie twórcy form dokumentalnych eksplorują nowe sposoby interakcji oraz partycypacji użytkowników. Mamy również bogatą historię form dokumentalnych w postaci audycji radiowych, tekstów w czasopismach ilustrowanych, a nawet wydarzeń teatralnych. Te zastosowania wzbogaciły szerzej rozumianą formę dokumentalną, powołując się jednocześnie na tradycję filmową jako analogiczną. Co ciekawe, ten wzór odniesień i wątpliwości w stosunku do mediów rzadko stosuje się retrospektywnie do okresu sprzed komentarza Griersona z 1926 roku.

Moim celem nie jest zagrzebanie się w próbach dekonstrukcji pojęcia formy dokumentalnej, chociaż oxfordzki słownik języka angielskiego wymienia wiele przykładów wczesnych użyć takich jak choćby te autorstwa Jeremy’ego Benthama i Thomasa Carlyle’a (którzy przez to pojęcie rozumieją odpowiednio: „o charakterze dokumentalnym lub istniejący w dokumentach” oraz „dowodowy”3). Wystarczy stwierdzić, że w anglojęzycznym świecie filmowym swoistość medium w sensie zaproponowanym przez Griersona wpleciona jest w system odniesień bibliograficznych dzięki Film Index4 w którym termin „dokumentalny” używany jest niemal wyłącznie w kontekście filmów niefabularnych stworzonych po 1925 roku i który dla odpowiedników sprzed 1925 roku wdraża różne pokrewne pojęcia, ale nie „dokumentalny”. Dziś, gdy całkowicie analogowe produkcje filmowe są gatunkiem zagrożonym, a platformy cyfrowe rozmyły granice między mediami, nie będzie przesadą rozciągnięcie nazwy „dokumentalny” na szerokie spektrum form cyfrowych. Szukanie poza historycznym horyzontem Griersona precedensów odpowiednich dla obecnej sytuacji wydaje się jednak krokiem zbyt śmiałym. Określenie „dokumentalny” to termin, który z biegiem czasu staje się coraz bardziej elastyczny, ale im bliżej jesteśmy jego początków, tym bardziej restrykcyjne staje się jego zastosowanie.

Bez względu na to, czy formę dokumentalną rozumiemy wąsko, czy też – co wolę – szeroko, posiada ona pewną przewagę nad swoimi fikcyjnymi odpowiednikami. W przeważającej większości przypadków dotyczących fikcyjności technika spełnia dwie funkcje: musi zaznaczać swoją pozycję jako odpowiednia forma ekspresji, a jednocześnie szybko przekazuje zasady świata fikcyjnego – czy to świat, w którym czarodzieje mają nadprzyrodzone moce, czy okres, w którym ludzie i dinozaury wspólnie zamieszkują Ziemię? Świat dokumentalny jest – wręcz przeciwnie – z grubsza poznany. Może być obcy lub nieprzyjemny, ale nie ma w nim potrzeby ustalania zasad fizyki, sekwencji historii naturalnej ani mocy magicznych różdżek. Uwolnieni od ciężaru podstawowego światotworzenia, twórcy form dokumentalnych mogą się cieszyć większą stylistyczną wolnością. Ujmę to inaczej: zamiast koncentrować się na tworzeniu świata, mogą poświęcić swoją uwagę jego ujawnianiu.

Stwierdzanie faktyczności, choć jest stylistycznie wyzwalające, kieruje uwagę na to, co jest przedstawiane, i na to, czy zawarta w filmie teza okazała się przełomowa. To umacnia funkcjonalistyczną agendę dokumentów, niezależnie od tego, czy chodzi o zmianę społeczną, czy podróż z domowego fotela, sugerując, że forma ta jest interesująca przede wszystkim ze względu na to, co jest pokazywane, a nie jak jest przedstawiane. Formę i treść łączy oczywiście symbiotyczny związek, ale w świecie form dokumentalnych jest on wyraźnie hierarchiczny i forma podporządkowana zostaje treści.

A jednak to właśnie owa innowacyjna tradycja formalna dokumentów pozwoliła przyjąć radykalnie różne rzeczywistości oraz radykalnie różne podejścia, za pomocą których daje się je eksplorować. Jak już zasugerowałem, rozwój tradycji i użycie technologii oraz technik dokumentalnych wpłynęły także na szerzej rozumianą kulturę medialną. Z tej perspektywy dzisiejsze interaktywne, immersyjne i uczestniczące formy dokumentalne wskazują, że wciąż pojawiają się innowacje i eksperymenty. Dodatkowo możemy się spodziewać, iż te innowacje wykroczą poza granice dokumentu, służąc jako zwiastuny tego, co ma nadejść w dwuzadaniowym świecie fikcji dramatycznej.

Powrót do przyszłości

Hasła popularne w dzisiejszych mediach mają długą historię i praktykę. Weźmy na przykład słowo „remiks”. Dzięki obfitości materiałów źródłowych oraz przyjaznych użytkownikom narzędzi wycinania-i-wklejania tekstu cyfrowego, obrazu oraz dźwięku można uznać, że remiksowanie zrodziło się w epoce cyfrowej. To ona rzuciła wyzwanie zastanym założeniom dotyczącym autorstwa, tekstualnej integralności oraz stabilności. Znamy te pytania ze świata i-docs: jakie tekstualne aktywności podejmują użytkownicy (remikserzy) – czy to kolektywne autorstwo, tekstualne hakowanie czy raczej radykalna forma tekstualnej nawigacji? Czy istnieje jakaś hierarchia autorstwa, być może nadająca pierwszeństwo oryginalnemu twórcy interfejsu i tekstualnej bazy danych, a drugie miejsce tym, którzy dokonują wyborów w ich obrębie? Czy stworzenie sekwencji i tekstu z morza rozmaitych możliwości należy uważać za ostateczny akt kreatywności? Co sądzić o radykalnie rekonfigurowalnym zestawie tekstualnych możliwości – albo jeszcze lepiej: o tekście, który jest fundamentalnie niestabilny? I czy współdzielone doświadczenia tekstualne oraz intersubiektywność należą już do przeszłości?

O ile wyzwania te stanowią integralną część cyfrowej kondycji, historycznie stworzyły je fotograficzne kolaże, które zyskały popularność wśród członków ruchu dadaistycznego z lat 20. Oraz późniejszych (na myśl przychodzą przetworzenia znalezionych fotografii Hannah Hoch oraz Johna Heartfielda); albo wczesne sowieckie filmy kompilacyjne (Upadek dynastii Romanów Esfir Schub z 1927 roku); albo produkowane masowo albumy do zbierania wycinków z gazet, kalendarzy oraz opakowań produktów (Sears sprzedał markę Mark Twain). Praktyki fragmentacji tekstów i układania rozproszonych odłamków w celu stworzenia nowych czy też selektywny skład elementów pochodzących z metatekstualnego środowiska w nowy i unikalny tekst odsyłają do początków książki jako takiej; weźmy pod uwagę, że zbiór przysłów i popularnych powiedzeń powstał w piętnastowiecznej Florencji jako zibaldone czy też książkowy galimatias, a został skodyfikowany przez Johna Locke’a w traktacie z 1685 roku dotyczącym metod konstruowania tych zbiorów5.

Okazuje się, że pytania, jakie stawiają interaktywne formy dokumentalne oraz towarzyszące im praktyki tekstualnego przetwarzania, towarzyszą nam dłużej, niż potrafimy sięgnąć pamięcią. Mimo to wczesne praktyki przetwarzania pokojowo współistniałyz tradycyjnie tworzonymi tekstami, nie stanowiąc dla nich zagrożenia ani nie wywołując niepokoju. Ich ślady, od dawna spychane na margines, stają się obecnie widoczne dzięki wyzwaniom postawionym przez ich cyfrowe odpowiedniki i spotęgowanym przez nowe systemy ochrony praw autorskich oraz zintensyfikowaną skalę produkcji i dystrybucji tekstów. Z pewnej perspektywy wiele z tych przeszkód umożliwionych przez dzisiejsze technologie – a przynajmniej w kontekście remiksowanych systemów tekstualnych – można jednak rozumieć w kategorii precedensów. Te długoterminowe praktyki sugerują jeszcze niezapisaną historię tekstualnej produkcji, spektrum pomiędzy stałością a elastycznością, pomiędzy kanonicznymi tekstami, które utrwalamy instytucjonalnie, a innymi, znacznie bardziej różnorodnymi, eklektycznymi i dynamicznymi, które były tu od zawsze. Historia autorstwa może również skorzystać z tej tradycji, gdy historyczny precedens przywróci poczucie szacunku i kreatywności takim praktykom jak tekstualne hakowanie.

Open Documentary Lab przy MIT oraz DocLab International Documentary Festival z Amsterdamu połączyły siły, aby zmapować tę tkankę precedensów i konceptualnie związanych z nimi praktyk w sieciowym projekcie zatytułowanym Moments of Innovation (2014)6. Został on zorganizowany wokół pojęć takich jak „interaktywność”, „immersja”, „umiejscowienie” oraz „partycypacyjność”. Zajmuje się śledzeniem długiej historii zdarzeń poprzez połączenie stosowanych obecnie rozwiązań dotyczących interaktywnych dokumentów z ich osadzonymi w rzeczywistości poprzednikami sprzed czasów cyfrowych. Podobnie jak w przypadku remiksu chodzi tu nie tyle o to, że wszystko to widzieliśmy już wcześniej, ile raczej o to, że możemy odnieść korzyści z pamiętania, że wiele spośród niepewności czy nawet kryzysów spowodowanych dzisiejszymi zmianami porządków reprezentacji ma istotne konceptualne precedensy. Precedensy te wskazują alternatywy dla tekstualnego zaangażowania, zwracając uwagę na szeroką gamę technik, które możemy wykorzystać do osiągnięcia poszczególnych celów ekspresywnych. W tym sensie precedens może też wzbogacać dzisiejszy rozwój dokumentu oparty na nowym pokoleniu sieciowych cyfrowych technologii.Z przeszłości, w której odkrywamy afordancje tych nowych technologii, możemy nauczyć się większej dostępności, nowych strategii szacowania znaczenia procesu twórczego i budowania innowacyjnych więzi pomiędzy różnymi publicznościami oraz angażowania ich we współczesne problemy.

Bez precedensu

Jak pokazali badacze pokroju Briana Winstona, nawet najbardziej innowacyjne technologie i techniki można sprowadzić do wcześniejszych rozwiązań, bez względu na ich rodzaj7. Mimo to, jak zauważył Thomas Kuhn, wspominając o naukowej zmianie paradygmatu, wiemy, że ramy kulturowe i nasze wyobrażenia o przyczynowości mogą ulec diametralnym zmianom; historia technologii od epoki brązu do epoki informacji sugeruje natomiast, że również w dziedzinie produkcji i materialnych możliwości technologii od czasu do czasu zdarzają się takie dość dramatyczne zmiany8. Innymi słowy: bezprecedensowe zmiany są możliwe, nawet jeśli u ich podstaw leżą takie czy inne historyczne ciągłości. Potęga historii w takich chwilach polega nie tyle na zaznaczaniu ciągłości, ile raczej na podkreślaniu różnicy i pozwalaniu, by kontury nowego były doceniane bez upychania ich w już istniejące kategorie. Zarówno w tym, jak i w wyżej omówionych przypadkach historycy mają trudne zadanie: mogą łatwo przeoczyć precedensy, zbyt ściśle trzymając się norm obowiązujących w danym czasie. I odwrotnie, mogą próbować wpisywać to, co naprawdę nowe, w utarte kategorie, tracąc w ten sposób radykalny potencjał.

Próbując przewidzieć możliwą przyszłość form dokumentalnych, szczególnie w momencie, który charakteryzuje powszechna dostępność cyfrowych kamer, dominująca łączność i kultura audiowizualnych produkcji, algorytmy stają się istotnym czynnikiem umożliwiającym tworzenie oraz nawigację w historii, przedefiniowując tym samym interaktywność. Oczywiście algorytmy jako instrumenty kalkulacji nie są niczym nowym – takie wykorzystanie można prześledzić aż do Euklidesa, aczkolwiek ich uwarunkowania znacząco się zmieniły. Są obecnie spójne z tymi, z którymi mierzą się dokumentaliści: z coraz większą mocą przetwarzania danych (prawo Moore’a), coraz większą dostępnością sieci i coraz bogatszym środowiskiem danych. W tym kontekście, pomimo swoich związków z historyczną przeszłością, algorytmy oferują bezprecedensowe możliwości identyfikowania, porządkowania danych i przetwarzania ich w historie. Szczególnie gdy (by sięgnąć po tylko jeden ze sposobów pomiaru) na Youtube’a wrzucanych jest około czterystu godzin nagrań na minutę, a na dzień – 65,7 lat nagrań, potrzebujemy nowych systemów organizacji, które sprawią, że materiały te da się wyszukiwać, a co dopiero, że będą funkcjonalne w sensie dokumentalnym9.

Na pewnym poziomie wykorzystanie algorytmów do pomocy w tym zadaniu wydaje się powszechnie stosowanym rozwiązaniem. Rozpoczynając wyszukiwanie w przeglądarce Google’a, wykorzystujemy konfiguracje wielu setek tysięcy algorytmów, by znaleźć naszą konkretną igłę w stogu siana. Z punktu widzenia ludzkiego inicjatora to działanie wydaje się trywialne. Co więcej, pewnie ignorujemy pieczołowicie dobrane reklamy, które również pojawiają się w naszym wyszukiwaniu. Ale jeśli nie podejmiemy starannych działań w celu ukrycia naszej tożsamości, zazwyczaj nie musimy prosić, by Google przedstawił nam wyniki w naszym języku albo by odniósł je do naszej lokalizacji. Strona wyszukiwarki Google’a, włącznie z reklamami uznanymi za adekwatne, przedstawia się jako algorytmicznie wygenerowany responsywny tekst wchodzący w interakcje z jakimś wyobrażeniem profilu oraz potrzeb użytkownika z jednej strony oraz, z drugiej, ogromny zbiór danych. Poza wprowadzeniem hasła wyszukiwania oraz kliknięciem przycisku „enter” nie potrzeba ludzkiej interakcji (aczkolwiek aktywna interwencja jest potrzebna, jeśli pragnie się przechytrzyć te ustawienia).

W ciągu mikrosekund algorytmy potrafią wyszukać, przefiltrować i wywołać wyniki, jednocześnie biorąc poprawkę na język, miejsce oraz profil marketingowy. Tekst, który powstaje w rezultacie, czyli stronę wyszukiwania, można opisać jako interaktywny, nawet jeśli interakcje te są wywołane raczej przez elementy oprogramowania w imieniu użytkowników niż przez nich samych. Innymi słowy, proces wyboru elementów z oceanu danych i ich prezentowania ujawnia bardzo zawiłe interakcje (włączając mikroaukcje pomiędzy możliwymi reklamodawcami), które tworzą unikalny tekst. Choć te czynności „wchodzą w konwersacje” z uprzednimi zachowaniami użytkownika i są wynikiem działania programów zaprojektowanych przez ludzi, same interakcje odbywają się w „trzeciej” przestrzeni wykraczającej poza przestrzenie użytkownika i zbioru danych.

Podpowiedzi dotyczącej tego, co to oznacza dla ruchomych obrazów, możemy szukać w projekcie Guya Maddina, Evana Johnsona, Galena Johnsona oraz Kanadyjskiej Narodowej Rady Filmowej zatytułowanym Séances (2016). Poszczególne elementy projektu zostały zebrane algorytmicznie czy też, jak to opisano na stronie projektu:

W technicznym popisie napędzanej danymi filmowej narracji filmy zostają dynamicznie zmontowane w niemożliwych do powtórzenia konfiguracjach. Każda z nich istnieje tylko przez moment, bez możliwości zapauzowania, czyszczenia albo szerowania, dając widzom jedyną szansę, by obejrzeli ten film, zanim zniknie10.

Maddin i inni prowadzą dialog z efemerycznym klimatem wczesnego kina i jego emocjonalnymi zapisami strat. Nas jednak interesuje przede wszystkim to, że ujęcia i śródtytuły istnieją nie jako arbitralny zbiór klipów filmowych wyciętych z szerszego projektu, ale są skonfigurowane według pewnych zasad i zaprojektowane w koherentny sposób.

Algorytmiczne sortowanie i porządkowanie stosowane przez systemy wyszukiwania Google’a ze względu na istotność informacji przyjmują tutaj formę wiarygodnej narracji, mimo że w Séances brakuje takiego stopnia personalizacji i szytych na miarę właściwości, którymi szczyci się Google. Wśród ruchomych obrazów Séances stanowi więc wczesny przykład czegoś, co obecnie rozkwita w „papierowym” dziennikarstwie, gdzie firmy takie jak Narrative Science wytwarzają na bieżąco niepowtarzalne historie dla domów medialnych i indywidualnych osób, tworząc dynamicznie generowane i personalizowane teksty z obszerniejszych zespołów ustrukturyzowanych danych. Od 2012 roku Narrative Science i inne podobne firmy są coraz bardziej obecne w obszarach, takich jak sport i finanse, gdzie ich algorytmy mogą szybko przekształcić dane w historie nadające się do publikacji11. Tym samym nie tylko otworzyły drzwi do salonów prasowych, lecz także pozwoliły wejść w takie niszowe rynki jak reportaże z młodzieżowej ligi baseballu – sportu dla dzieci, który rzadko relacjonowany jest w prasie, lecz mimo to ostatnio zyskuje spory rozgłos, zrzeszając miliony dumnych rodziców chętnych do podzielenia się wiadomościami o sukcesie swoich dzieci. Autorskie algorytmy mogą wytworzyć całą masę historii, które przerabiają podstawowe informacje dotyczące konkretnego meczu w taki sposób, by pasowały do potrzeb indywidualnych czytelników. W kontekście dziennikarstwa opartego na słowie dochodzi do połączenia narratywizacji oraz personalizacji.

Z tych procesów wynika pewna możliwość dla przyszłych interaktywnych dokumentów. W tym przypadku, tak jak w omówionych już przykładach, interaktywność jest uwarunkowaniem tekstowym możliwym dzięki algorytmicznym zbiorom reguł i danych o użytkowniku, nie zaś bezpośrednią aktywnością samego użytkownika. Użytkownicy mogą zatem „siedzieć z założonymi rękami”, nawet jeśli dane doświadczenie jest stworzone specjalnie dla nich (i w pewnym sensie wraz z nimi). Wyobraźcie sobie kolejny krok, jakim jest wzbogacenie istniejących dziś algorytmów o przewidywanie smaku – wówczas historia, którą otrzymujemy, zależałaby od wyliczonej ekstrapolacji naszego profilu, naszych zachowań i przewidywań naszych pragnień. Możliwości przewidywania muzyki przez algorytmy Pandory, preferencji książkowych przez Amazona czy filmów i programów telewizyjnych przez Netflixa pokazują, że ta gra jest dziś bardzo zaawansowana, a taki krok wydaje się nieunikniony. Wyobraźcie sobie połączenie tych narratywistycznych możliwości personalizacji z oprogramowaniem rozpoznawania obrazu, który to sektor szybko się rozwinął w ciągu ostatnich dwóch lat12. To wstępny warunek konieczny do zaistnienia historii opartych na obrazie (w przeciwieństwie do dzieł bazujących na słowie z Narrative Science), a podczas gdy strategie procesowania w tej przestrzeni będą się rozwijały, pozwolą bardziej kreatywnie wykorzystać ogromne, szybko rosnące archiwa obrazu dostępne online. I na koniec wyobraźcie sobie wszystkie te procesy z oprogramowaniem weryfikującym stosowanym przez dziennikarzy pragnących odróżnić prawdę od fikcji w treściach tworzonych przez użytkowników13. Łącznie – i w rzeczy samej określenie „łącznie” dobrze opisuje sposób wykorzystania większości algorytmicznych ekosystemów – możemy zobaczyć, że warunki produkcji radykalnie nowego rodzaju (dokumentacyjnego) tekstu osiągnęły punkt zwrotny.

Powyższy scenariusz spersonalizowanej produkcji dokumentalnej stanowi względnie nowy kierunek w naszej relacji z mediami. Tekst jest skonfigurowany dla nas, na podstawie informacji o nas, ale bez naszej aktywnej interwencji (a czasem i wbrew niej). Można by to określić mianem „tekstu responsywnego”, bo zarządzanie elementami tekstualnymi z jednej strony jest dynamiczne, a z drugiej odpowiada naszym preferencjom. A jednak objawia się on użytkownikowi jako stabilny i niezmienny. Czy powinniśmy rozważyć to jako przykład interakcji? W przypadku jednoczesnego działania wielu algorytmów użytkownicy nie muszą nic robić – otrzymują tekst, który wydaje się znajomy w sensie staromodnej solidności i niezmienności (nie ma potrzeby klikania ani nawigacji). „Interaktywność” zachodzi na poziomie programu, gdzie tekst jest konstruowany z już istniejących elementów tekstualnych i organizowany na podstawie informacji zebranych na temat użytkownika oraz samych tekstualnych elementów. Proces interakcji zostaje zasłonięty i staje się poniekąd „automatyczny”.

Te rozwiązania już nam towarzyszą i podczas gdy charakteryzują je pewne afordancje takie jak oferowanie spersonalizowanych form dokumentalnych osobom, które wolą raczej „siedzieć wygodnie” niż „aktywnie uczestniczyć” w nawigacji interaktywnego dokumentu, zadają również istotne pytania dotyczące sprawczości, kontroli oraz, ostatecznie, zarządzania. Widzieć, że coś zmierza w naszą stronę, to nie to samo, co powitać to z otwartymi ramionami; naszym zadaniem jest zobaczyć te nowe możliwości i się na nie przygotować, a więc wytworzyć krytyczne strategie ich oceny i zastosowania.

Interaktywność na nowo

Jak ten potencjalny scenariusz wpasowuje się w nasze rozumienie interaktywnych form dokumentalnych? Biorąc pod uwagę, że nasza definicja nadaje priorytet tym interakcjom pomiędzy użytkownikiem i środowiskiem tekstowym sprzed momentu pojawienia się autora, które tworzą tekst – pamiętając o wspomnianych już zastosowaniach historii – historyczne przykłady mogłyby pokazać, jak stara jest to praktyka. Moglibyśmy skierować wzrok na dziewiętnastowiecznych autorów powieści w odcinkach takich jak Wilkie Collins, przyglądając się powolnym interakcjom z czytelnikami, które zaowocowały różnicami pomiędzy wydawanymi w odcinkach rozdziałami i ostatecznym kształtem powieści. Możemy również przyjrzeć się długoterminowym zmianom, jakie zaszły w różnych wersjach Biblii, śledząc interakcje pomiędzy interpretującymi tekst społecznościami i różnorodność tekstualnych komponentów, które są lub nie są w niej zawarte albo które zostały ustawione w konkretnej kolejności14. Można by argumentować, że używanie terminu „interaktywność” w tych przypadkach to zabawa semantyczna: do opisu relacji pomiędzy użytkownikami a tekstem z równym lub większym powodzeniem dałoby się zastosować także inne terminy. Użycie tego pojęcia pozwala jednak podkreślić częsty zestaw zachowań wiążący dzisiejsze podejście do interaktywności typu „wskaż i kliknij” zarówno z historycznym precedensem, jak i z algorytmicznie wytwarzanymi formami interaktywności. Ważniejsze jest to, że stabilność tekstu w żaden sposób nie wyklucza roli interaktywności jako procesu generatywnego.

W obecnej (2016) generacji gier komputerowych i interaktywnych filmów dokumentalnych interaktywność opiera się na mających miejsce w czasie rzeczywistym zachowaniach o charakterze „przyczynowo-skutkowym”. Każde użycie interfejsu sterującego powoduje zmianę tekstu. Jeśli termin ten odnosi się jednak do generowanych przez użytkowników zmian w tekstach i ich mnogości, możemy zakwestionować trafność niektórych cech zazwyczaj przypisywanych interaktywności. Rozważmy tymczasowość: sugerowane przeze mnie pojęcie „przyczynowo-skutkowego” czasu rzeczywistego może być uzupełnione o czasowości produkcji tekstu, które charakteryzuje albo powolność lodowców (Biblia) albo takie tempo, że nasze palce nie nadążają klikać (algorytmiczne generatory narracji). Rozważmy kwestię sprawczości: indywidualny podmiot wskazujący i klikający może być uzupełniony przez twórczą interwencję zbiorowości (od religijnych wspólnot interpretacyjnych po czytającą publiczność) oraz, choć jest to kontrowersyjne, przez pracę algorytmów (zasilanych przez biernie generowane lub aktywnie gromadzone dane).

Te przykłady zakładają, że w rozumieniu terminu „sprawczość” zachodzą pewne zmiany. Poprzednicy tego pojęcia wydają się dość oczywiści, niektórzy postrzegają jednak przypisywanie sprawczości nieludzkim aktorom jako przesadę. Jest to jednak dokładnie ta zmiana języka – i kondycji – którą zapowiadają dzisiejsze systemy algorytmiczne15. Przesunięcia w znaczeniu i roli sprawczości pojawiały się już w dyskursie posthumanistycznym16 oraz w teorii aktora-sieci17 w odniesieniu do nieludzkich aktorów. Przemysł komputerowy powołuje się na nieludzką sprawczość (intelligent agent) i przybiera ona formę ustawową oraz prawną, gdy mowa o autonomicznych samochodach czy dronach z autopilotem. Za tymi przejawami kryje się głębsza zmiana w nowoczesnej (od XV wieku do dziś) relacji podmiot–przedmiot, która leży u podstaw naszych systemów filozoficznych i którą symbolizuje pojęcie „światoobrazu” Martina Heideggera. W miarę jak relacja ta ustępuje miejsca algorytmicznemu pośrednikowi, który selektywnie przekształca liczne podmiotowości i dane, musimy rozszerzyć znaczenie sprawczości… lub stworzyć nowy termin. Zapośredniczenie algorytmiczne, które staje się coraz wyraźniej widoczne w naszych systemach wyszukiwania, nawigacji i finansów, a nawet w naszym rozumieniu obywatelstwa i nadzorowania, niesie ze sobą nowe niebezpieczeństwa (gdy wiąże się z dawnymi relacjami władzy) i afordancje (dzięki którym może wykorzystać zbiorowe pomysły i zachowania). Algorytmy nie są jednak z natury dyktatorskie ani nie wzmacniają jaźni: są narzędziami zwiastującymi erę radykalnej przygodności. Stają pomiędzy podmiotem a przedmiotem i wymagają ponownego przemyślenia długo utrzymywanych w epoce nowożytnej założeń dotyczących konstrukcji jaźni, pewności, sprawczości i odpowiedzialności etycznej.

W wielu środowiskach cyfrowych interaktywność prowadzi dziś do efemerycznych i ulotnych spotkań tekstowych, które chociaż mają swoje konsekwencje (punkty w grze, „ukończenie” filmu dokumentalnego), są możliwe do odzyskania i zapisania. Środowiska, z których użytkownicy czerpią swoje teksty, są jednak zwykle znacznie trwalsze; na przykład zestawy danych i projekty interfejsu, będące szczególnymi elementami tekstu dokumentalnego, stanowią własność intelektualną i charakteryzują się dużą trwałością w porównaniu z tworzącymi tekst interakcjami, w które się wchodzi w trakcie eksploracji.

Ma to istotne konsekwencje dla form dokumentalnych. Jeśli przejście od tradycyjnego linearnego dokumentu do dokumentu interaktywnego (i-doc) polega po części na przesunięciu sprawczości z kontrolującego wszystko autora na interakcję między autorem (jako twórcą zbioru danych i interfejsu) a użytkownikiem (jako nawigatorem i konstruktorem tekstu), opisane wcześniej algorytmy przesuwają tę sprawczość w zupełnie innym kierunku: do interakcji między zbiorem reguł a danymi do odczytu maszynowego18. Zbiory zasad (algorytmy) są w pewnym sensie arbitralne. Mogą być systematyczne, ale istnieją jako konstrukty dalekie od widzialnych dowodów, na których od dawna polegali twórcy form dokumentalnych. To samo można powiedzieć o zbiorach danych: to konstrukcje oparte na regułach rozszerzających się z „tamtejszego” świata na określone zachowania ludzkiego rozmówcy.

To wskazuje na diametralną zmianę, jaka zaszła od czasu naszych wcześniejszych spotkań z reprezentacją. Pomimo twierdzeń o indeksykalności znaczenia obrazu mamy bogatą kulturową i instytucjonalną tradycję „czytania” filmu i fotografii, a także tradycję prawną polegającą na uznawaniu pewnych obrazów za dowody. Z drugiej strony zbiory reguł i dane do odczytu maszynowego są znacznie bardziej abstrakcyjnymi bytami i dopiero zaczynają zyskiwać status dowodów w szeroko pojętej kulturze (co bywa problematyczne, jak wskazują choćby debaty na temat predykcyjnych systemów policyjnych19). Innymi słowy: niepokoje, jakie dzisiejsze interaktywne filmy dokumentalne typu „wskaż i kliknij” wywołały wokół tradycyjnie pojętej władzy autora, fabuły czy tekstu, rozgrywają się w zupełnie inny sposób, gdy chodzi o algorytmy i dane odczytywalne maszynowo. W tym nowym kontekście zamiast nadawać formę doświadczeniu poprzez współpracę twórcy i użytkowników, projektanci zestawów reguł oraz osoby definiujące dane ostatecznie kształtują zakres możliwych doświadczeń odbiorcy. Ta odroczona i abstrakcyjna sprawczość, coraz bardziej powszechna w organizacji naszego życia społecznego, wymaga wyznaczenia aktywnych ram krytycznych, jeśli mamy ją sensownie włączyć w proces tworzenia opowieści o świecie.

To algorytmicznie indukowane przeorganizowanie sprawczości, a co za tym idzie również autorytetu, można dostrzec także w zupełnie innym, dopiero wyłaniającym się obszarze produkcji dokumentalnej: wirtualnej rzeczywistości. Jako pojęcie „rzeczywistość wirtualna” jest deklaracją, ambicją i zespołem materiałów, które opisują dwie zupełnie różne technologie. Z jednej strony 360-stopniowe wideo jest konceptualną repliką panoramy z końca XVIII wieku. Zasadniczo jest to niezmienny rodzaj nagrania, z którym użytkownicy mogą wchodzić w interakcje, kierując uwagę tam, gdzie chcą. W tym sensie przywołuje wiele podobnych możliwości i wyzwań interaktywnych filmów dokumentalnych typu „wskaż i kliknij”: użytkowniczka działa w tandemie z twórcą środowiska tekstowego, aby zbadać i skonstruować tekst. Choć zasoby wizualne i dźwiękowe są z góry ustalone, użytkownicy mają dużą swobodę wyboru sposobu, w jaki będą montować te elementy. Z drugiej strony technologie przechwytywania 3D zasadniczo wykorzystują dane i algorytmy do generowania światów na żądanie. Zamiast tradycyjnej fotograficznej lub wideograficznej informacji optycznej systemy te wykorzystują lasery lub fotogrametrię do generowania precyzyjnej chmury pomiarów oraz informacji, które mogą przybierać formę numeryczną. Uznano, że pomiary te mają status indeksowy, o czym świadczy fakt, że są stosowane przez firmy ubezpieczeniowe, inżynierów i policję. Te punkty danych wymagają ponownego złożenia i wprawienia w ruch, i na tym właśnie polega zadanie algorytmów. Ale ponieważ, jak już wspominaliśmy, te zbiory zasad muszą być przez kogoś stworzone, są one arbitralne. Jeśli odniesienie chmury punktów do obiektu musi zachowywać się tak samo jak ten obiekt w świecie rzeczywistym – powiedzmy: podlegając prawom grawitacji – to zachowanie to należy zaprogramować. Innymi słowy, chociaż punkty danych mogą mieć wyraźną korelację z realnie istniejącymi obiektami, ich zachowania muszą być konstruowane, a w związku z tym systemy przechwytywania 3D napotykają ten sam dylemat, który został właśnie omówiony w kontekście algorytmicznie skonstruowanych narracji. Coraz rzadziej sprawczość jest skoncentrowana na człowieku, częściej zaś zwraca się ku algorytmicznym konstrukcjom interakcji człowieka, zbioru reguł oraz danych.

Choć nie jest idealna, korelacja między opowieściami „wskaż i kliknij” oraz algorytmicznymi z jednej strony, a dwoma systemami VR (jednym 360-stopniowym i stałym, a drugim wygenerowanym algorytmicznie) z drugiej jest jednak wystarczająco dobra, by wykazać podobieństwa. Interaktywność, którą umożliwiają formy dokumentalne typu „wskaż i kliknij”, podobnie jak 360-stopniowy VR, obejmuje znaczące historyczne precedensy. Technologie te oczywiście się różnią, ale ich implikacje są podobne dla interakcji użytkownika z ustaloną domeną zasobów dźwiękowych i obrazowych, kreatywności opartej na współpracy oraz wyzwań dla tradycyjnych pojęć autorstwa i stabilności tekstu. Z kolei algorytmiczne generatory opowieści i VR z przechwytywaniem 3D wprowadzają do binarnego zestawienia twórca / użytkownik trzeci czynnik: proceduralny element programistyczny. Choć oparty na swoich własnych zasadach algorytmiczny zestaw reguł pośredniczy między odczytywanymi przez maszynę danymi a użytkownikiem, konstruując obraz świata, który nawet jeśli jest indeksowany w szczegółach (punktach danych), to pozostaje symulowany i przygodny w swoich operacjach.

Podsumowanie

Dokąd nas to prowadzi? Rozumiemy już i dobrze wykorzystaliśmy historyczne precedensy w celu ugruntowania działania nowych technologii, które w rzeczywistości opierają się na starych zachowaniach. Łączenie dzisiejszego cyfrowego remiksowania z dawnymi zbiorami przysłów i popularnych powiedzeń czy też „filmu dokumentalnego na żywo” z pracą „eksplikatorów” ery kina niemego albo systemów 360-stopniowego VR z panoramą oferuje nam możliwości świeżego i twórczego odczytania przeszłości, a także szansę na lepsze zrozumienie najnowszych iteracji tych przedsięwzięć. Ale historia może również pomóc w rozróżnieniu tych aspektów naszej praktyki medialnej, które są rzeczywiście nowe, a tym samym uczula nas na potrzebę świeżego i krytycznego myślenia o konsekwencjach tych działań. W tym tekście naszkicowaliśmy dwa scenariusze, które mogą mieć znaczenie dla przyszłości interaktywnych form dokumentalnych: algorytmiczne opowiadanie historii i systemy VR z przechwytywaniem 3D. Jak wspominaliśmy, algorytmiczne opowiadanie historii przyczyniło się do znaczących postępów w świecie papierowej prasy; szybko rozwijają się programy do przewidywania smaku, rozpoznawania obrazu oraz systemy weryfikacji obrazu. Coraz częściej pojawiają się również filmy dokumentalne VR wykorzystujące systemy przechwytywania 3D, takie jak Enemy Karima Ben Khelifa (2016)20 czy Assent Oscara Raby’ego (2014)21.

W pewnym sensie te przyszłe możliwości rozwoju dobrze wpisują się w rozszerzające się kontury form dokumentalnych. Wykorzystują zdolność dokumentu do odkrywania nowych form, a wraz z nimi nowych możliwości ekspresji. Fazy przejściowe są zwykle retrospektywne, a nowe technologie i techniki mają za zadanie służyć starym programom. Równocześnie możemy jednak spodziewać się znacznych innowacji, ponieważ twórcy coraz lepiej poznają możliwości tego, co nowe.

Z drugiej strony te algorytmiczne rozwiązania stanowią wyzwanie. Jak zauważono, mimo że wydają się utrwalone w formie, konstrukcje te nie tylko są dynamicznie responsywne i unikalne, lecz także można dowodzić ich interaktywności. Na poziomie terminologii można posilić się kontekstem historycznym, by uzasadnić tę interaktywność, ale wymaga to zakwestionowania naszych założeń dotyczących przewidywanej czasowości i sprawczości tego pojęcia. Może lepiej myśleć w kategoriach „podobieństw rodzinnych” zamiast stałych definicji, i tym samym otworzyć się na nowe sposoby odczytywania starych praktyk – na przykład procesu pisania Collinsa lub ewolucji tekstu biblijnego. Jednocześnie nowe formy algorytmiczne zaostrzają już istniejące niepokoje dotyczące przejścia od tradycyjnej definicji autora, czytelnika i tekstu (linearne formy dokumentalne) do potencjału współautorstwa i istnienia niestabilnych tekstów, które charakteryzuje rodzaj interaktywnych form dokumentalnych typu „wskaż i kliknij”. Przenoszą one autorstwo i sprawczość do nieznanej kulturowo przestrzeni, to znaczy do algorytmicznych zestawów reguł i tych cech odczytywanych maszynowo danych, które mają cechy metadanych.

„Nieznajomość” może w tym kontekście wydawać się określeniem nieco na wyrost, ponieważ sprawczość algorytmiczna odgrywa coraz ważniejszą rolę w naszym cyfrowym życiu, a jej przejawy w naszych wyszukiwaniach, sieciach społecznościowych i systemach nawigacyjnych są rutynowe pomimo głębokich konsekwencji, jakie mają dla procesu zarządzania. Ale dla naszych systemów tekstowych oraz naszych krytycznych spotkań z widzeniem i re-prezentowaniem świata te implikacje są głęboko istotne i stanowią pole krytycznych badań, jak wskazują chociażby Do Not Track (2015) Bretta Gaylora22Digital Me (2015) Sandry Gaudenzi23.

Zmiana znaczenia idei sprawczości wspólna dla tych przyszłych systemów nie pasuje do pojęcia podmiotu, które rozwijało się na Zachodzie od XV wieku. Oznacza to wprowadzenie innowacji, której konsekwencje nie od razu będą oczywiste. Wykorzystuje się je w większości aspektów naszego życia społecznego, a w świecie form dokumentalnych oraz szerzej rozumianych mediów ich użycie stało się już rutyną. Naszym zadaniem nie jest ani opłakiwanie przemijania starego, ani ekscytowanie się pojawianiem się nowego, ale raczej uważna i krytyczna ocena ich możliwości oraz implikacji dla praktyki dokumentalnej i szerzej pojmowanej literatury.


Przekład tekstu Williama Uricchio Things to Come: The Possible Futures of Documentary... From a Historical Perspective, w: i-DOCS: The Evolving Practices of Interactive Documentary, red. Judith Aston, Sandra Gaudenzi, Mandy Rose, Wallflower Press, London & New York 2017, ss. 191-205. Redakcja dziękuje autorowi za zgodę na publikację przekładu.

1 William Uricchio, A „Proper Point of View”: the Panorama and Some of Its Early Media Iterations, „Journal of Early Popular Visual Culture” 2011, t. 9, nr 3, s. 225–238.

2 John Grierson, Flaherty’s Poetic Moana, „New York Sun”, 8 lutego 1926.

3 Według oxfordzkiego słownika języka angielskiego.

4 The Film Index; A Bibliography. Vol. 1 The Film as Art, red. H. Leonard, Arno Press, Nowy Jork 1966.

5 John Locke, A New Method of a Common-Place-Book, w: idem, Posthumous Work, Churchill, London 1706; https://publicdomainreview.org/collection/john-lockes-method-for-common-place-books-1685, dostęp 20 sierpnia 2022.

6 MIT Open Documentary Lab, IDFA DocLab, Moments of Innovation, 2014; http://momentsofinnovation.mit.edu, dostęp 31 października 2016.

7 Brian Winston, Misunderstanding Media, Harvard University Press, Cambridge, Mass. 1986.

8 Thomas Kuhn, Struktura rewolucji naukowych, przeł. H. Ostromęcka, Aletheia, Warszawa 2020.

9 Bree Bower, YouTube Now Gets Over 400 Hours of Content Uploaded Every Minute, „Tubefilter”, 26 lipca 2015; www.tubefilter.com/2015/07 /26/youtube-400-hourscontent-every-minute/, dostęp 31 października 2016.

10 https://seances.nfb.ca/ dostęp 31 października 2016.

11 Shelly Podolny, If an Algorithm Wrote This, How Would You Even Know?, „The New York Times”, 7 marca 2015; www.nytimes.com/2015/03/08/opinion/sunday/if-an-algorithmwrote-this-how-would-you-even-know.html, dostęp 31 października 2016.

12 Aby rozeznać się w postępie, jaki miał miejsce w tym sektorze, zob. ImageNet Large Scale Visual Recognition Challenge; http://image-net.org/challenges/LSVRC/2015/, dostęp 31 października 2016 roku.

13 Shorenstein Center on Media, Politics and Public Policy at Harvard University, Tools for Verifying and Assessing the Validity of Social Media and User-Generated Content, 2 kwietnia 2015; http://journalistsresource.org/tip-sheets/reporting/tools-verify-assess-validitysocial-media-user-generated-content, dostęp 31 października 2016.

14 William Uricchio, Interactivity and the Modalities of Textual Hacking: From the Bible to Algorithmically Generated Stories, w: The Politics of Ephemeral Digital Media: Permanence and Obsolescence in Paratexts, red. S. Pesce, P. Noto, Routledge, London 2016.

15 William Uricchio, The Algorithmic Turn: Photosynth, Augmented Reality and the State of the Image, „Visual Studies” 2011, t. 26, nr 1, s. 25–35.

16 Zob. m.in. Hans Moravec, Robot: Mere Machine to Transcendent Mind, Oxford University Press, New York 2000; Katherine Hayles, How We Became Posthuman: Virtual Bodies in Cybernetics, Literature and Informatics, University of Chicago Press, Chicago 1999.

17 Bruno Latour, Splatając na nowo to, co społeczne. Wprowadzenie do teorii aktora-sieci, przeł. K. Abriszewski, A. Derra. Universitas, Kraków 2010.

18 Ingrid Hoelzl, Marie Remi, Soft Image: Towards a New Theory of the Digital Image, Intellect, Bristol 2015.

19 Zob. np. Maurice Chammah, Policing the Future, The Marshall Project, 3 lutego 2016; www.themarshallproject.org/2016/02/03/policing-the-future#.tlOncNtOi, dostęp 31 października 2016.

20 Ben Khelifa, The Enemy, doświadczenie VR, 2016. Współproducenci: Camera Lucia, NFB, Dpt. oraz Nouvelles Ecritures; http://theenemyishere.org/#team, dostęp 31 października 2016.

21 Oscar Raby, Assent, doświadczenie VR, 2014. Producent: VRTOV; http://oscarraby.net;wp/assent, dostęp 31 października 2016.

22 Brett Gaylor, Do Not Track, 2015 serial webowy. Reżyseria: Brett Gaylor, współproducenci: Upian, Arte, ONF oraz BR; https://donottrack-doc.com, dostęp 31 października 2016.

23 Zob. Sandra Gaudenzi, Digital Me, 2014 dokument webowy. Reżyseria: Sandra Gaudenzi, współtwórcy: Mike Robbins, Helios Design Labs for BBC Taster; www.bbc.co.uk/taster/projects/digital-me, dostęp 31 października 2016.