Filter bubble
(bańka informacyjna) – izolacja intelektualna, która powstaje w wyniku personalizacji algorytmicznej. Pojęcie zostało spopularyzowane przez internetowego aktywistę E. Parisera za sprawą wydanej w 2011 r. pracy pt. „Bańka filtrująca. Co internet ukrywa przed tobą” (The Filter Bubble: How the New Personalized Web Is Changing What We Read and How We Think). Autor szeroko dowodził w niej, że za sprawą wyszukiwarek, np. Google, oraz algorytmów wykorzystywanych przez Facebooka do odbiorcy docierają tylko takie dane, które będą mu się podobać z uwagi na zgodność z jego oczekiwaniami, poglądami, gustami i opiniami. Taki stan rzeczy sprawia, że użytkownik internetu ma poczucie, że wszyscy myślą tak jak on, co prowadzi do silnej polaryzacji i może negatywnie wpłynąć na dyskurs publiczny, szczególnie polityczny.
Początkowo internet był anonimowym medium, a wyniki wyszukiwania były niezależne od użytkowników i oferowały im wolność i przejrzystość, których oczekiwali. Ta utopijna wizja wkrótce odeszła jednak do przeszłości. Dostępność ogromnej mocy obliczeniowej i możliwość generowania dużych ilości danych wpłynęły na przejrzystość wyszukiwarek dzięki zastosowaniu zindywidualizowanych algorytmów.
Sieć ogólnoświatowa może zwiększać stopień autonomii jednostki. Początkowo wydawało się, że pluralizm i różnorodność punktów widzenia są konieczne do podejmowania dobrze przemyślanych decyzji dotyczących tego, z czym najbardziej się identyfikujemy. Ilość informacji dostępnych online oferowała wybór z szerokiej gamy możliwości, jednak z czasem okazało się, że podejmowanie decyzji nie byłoby możliwe bez pewnego stopnia filtrowania. Aby być skutecznym, konieczne staje się dynamiczne podejmowanie decyzji, co byłoby nie do zniesienia w ogromnym zalewie dostarczanych informacji. W związku z tym człowiek pozostaje ograniczony w podejmowaniu decyzji, ponieważ jego mózg nie jest w stanie przetwarzać każdej dostępnej informacji. Bez filtrowania jednostka może mieć wysoki stopień autonomii przy jednoczesnej trudności w podejmowaniu decyzji.
Ludzka potrzeba filtrowania doprowadziła do powstania personalizacji algorytmicznej. Spersonalizowane algorytmy filtrują zawartość i strukturę treści internetowych, aby dostosować ją do konkretnych potrzeb, celów, zainteresowań i preferencji. Wszystko zaczyna się od modelu użytkownika utworzonego na podstawie wszystkich jego zachowań, takich jak historia kliknięć, lokalizacja, dane osobowe itp. Dzięki ujednoliceniu różnych sygnałów i skojarzeniu ich z jedną tożsamością, system może przewidzieć, które informacje będą istotne dla danego użytkownika i odfiltrować dane, które nie są zbieżne z tym modelem, tym samym ułatwiając mu znalezienie drogi w powodzi informacji online.
Algorytmiczna personalizacja nie jest jednak pozbawiona ryzyka, ponieważ może poważnie podważyć niezbędne warunki dla osobistej autonomii. W tym kontekście należy zwrócić uwagę na to, że zdolność jednostki do samooceny jest znacznie osłabiona. Aby móc określać potrzeby, musi ona być w stanie ocenić, kim jest i kim chce zostać, co jednak staje się trudne, jeśli nie niemożliwe, gdy spersonalizowane filtrowanie ogranicza jej wiedzę o świecie i o sobie. Filtry personalizujące stanowią rodzaj niewidzialnej autopropagandy, indoktrynując nas naszymi własnymi pomysłami, wzmacniając nasze pragnienie rzeczy, które są nam znajome, i pozostawiając nas nieświadomymi wszelkich rozbieżnych informacji. W rezultacie bańki filtrujące uniemożliwiają użytkownikom uświadomienie sobie, że ich przekonania i pragnienia mogą wymagać przemyślenia, i w ten sposób poważnie osłabiają zdolność jednostki do samooceny.
Krytycy powyższego stanowiska dowodzą, że bańki filtrujące nie są fenomenem całkowicie negatywnym, gdyż człowiek w sposób naturalny aktywnie poszukiwuje wiarygodnych informacji i pyta o to, czy jego przekonania są rzeczywiście uzasadnione. Uwagę zwraca jednak zjawisko znane jako stronniczość potwierdzająca, czyli ludzka tendencja do wiary w rzeczy, które wzmacniają istniejące poglądy. Stronniczość potwierdzająca nie działa tak samo jak bańki informacyjne, gdyż błąd potwierdzenia jest cechą ludzkiej psychiki, bańki filtrujące zaś nie są. Spersonalizowane algorytmy są narzucane w większym stopniu niż psychologiczne uwarunkowania działań charakterystyczne dla człowieka. Ponadto filter bubbles są stosunkowo nowym, wciąż stosunkowo nieznanym zjawiskiem, głównie dlatego, że informacje są filtrowane przed dotarciem do użytkownika – nawet osoba świadoma personalizacji algorytmicznej nie może jej zapobiec. Kryterium filtrowania informacji nie jest ani przejrzyste, ani konfigurowalne. Co więcej, wydaje się oczywiste, że aby użytkownicy mogli kontrolować usługi, z których korzystają, muszą wiedzieć, jakie informacje są wykorzystywane do personalizacji i jak używane są ich dane. Osiągnięcie takiego stanu jest jednak mało prawdopodobne, zwłaszcza biorąc pod uwagę, że nawet programiści nie są już w stanie w pełni wyjaśnić wszystkich danych wyjściowych ze względu na złożoność personalizacji algorytmicznej.
Uwagę zwraca także inna konsekwencja działania bańki informacyjnej, a mianowicie to, że prowadzi ona do zaniku krytycznej refleksji. Aby racjonalnie poprzeć to, a nie inne rozwiązanie, musi wystąpić zdolność do kwestionowania swoich opinii. Staje się to trudne bez sygnałów z zewnątrz, które zachęcałyby do wykorzystywania tej zdolności. W końcu aby móc krytycznie zastanowić się nad swoimi dążeniami, musi wystąpić pewna sprzeczność, która zainicjuje ten proces. Spersonalizowane algorytmy oferują wizję świata dostosowanego do indywidualnych potrzeb, z których każdy pasuje do nas doskonale. Nigdy się nie nudzimy ani nie denerwujemy. Nasze media są doskonałym odzwierciedleniem naszych zainteresowań i pragnień. Ze względu na tę intelektualną izolację, a zwłaszcza z powodu zachodzącego poza naszą świadomością procesu filtrowania, nigdy nie czujemy potrzeby spojrzenia poza osobiste preferencje, nie mówiąc już o krytycznej refleksji nad nimi. Nieświadomość użytkowników w połączeniu z brakiem kontroli oraz przejrzystości spersonalizowanych algorytmów całkowicie dezawuuje zdolność do analizy krytycznej.
W świecie baniek filtrujących, dzięki ciągłemu dostarczaniu informacji zgodnych z zainteresowaniami użytkownika, personalizacja algorytmiczna zapewnia pewien stopień spójności w tym, czego jednostka pragnie lub w co wierzy, np. osoba będąca wegetarianinem stale dostaje informacje potwierdzające jej życiowy wybór. Tym sposobem odbiorcy nowoczesnych mediów mają przekonanie, że pozostają w większości, gdyż wszystkie źródła, z którymi mają do czynienia, nie tylko potwierdzają, ale też pogłębiają ich sposób myślenia, co silnie kształtuje poglądy i sprzyja ich polaryzacji.
F. Hamborg, K. Donnay, B. Gipp, Automated Identification of Media Bias in News Articles: An Interdisciplinary Literature Review, „International Journal on Digital Libraries”, 16.11.2018; C. Happer, G. Philo, The Role of the Media in the Construction of Public Belief and Social Change, „Journal of Social and Political Psychology” 2013, vol. 1, no. 1; D. Geschke, J. Lorenz, P. Holtz, The Triple-Filter Bubble: Using Agent-Based Modelling to Test a Meta-Theoretical Framework for the Emergence of Filter Bubbles and Echo Chambers, „British Journal of Social Psychology” 2019, vol. 58, no. 1; J. Idzik, R. Klepka, Voters In The Filter Bubble: Local Government Election Campaign In Polish Opinion Weeklies In The Light Of The “Echo Chamber” Concept, „International Relations Review” 2019, vol. 4; E. Pariser, The Filter Bubble: What The Internet Is Hiding From You, Penguin Press, New York 2011; D. Sumpter, Outnumbered: From Facebook and Google to Fake News and Filter-bubbles – The Algorithms That Control Our Lives, Bloomsbury Sigma, London–Oxford–New York–New Delhi–Sydney 2018; C.R. Sunstein, The Law of Group Polarization, „Journal of Political Philosophy” 2002, vol. 10, no. 2; F.J. Zuiderveen Borgesius, D. Trilling, J. Möller et al., Should We Worry About Filter Bubbles?, „Internet Policy Review” 2016, vol. 5, no. 1.