Etyka algorytmów i fake news

Etyka algorytmów i fake news

Etyka algorytmów i fake news

Algorytmy – sprzątanie informacji

Jednym z wyznaczników naszego społeczeństwa informacyjnego, jest wytwarzanie niesamowitych ilości danych przez różnego rodzaju platformy, media społecznościowe, czy też maszyny. Jednak aby wynieść z tego natłoku informacji coś wartościowego, potrzebna jest pomoc. Najbardziej przydatnym narzędziem w tym przypadku stają się algorytmy.

Określenie “algorytm” zazwyczaj odnosi się do serii “zakodowanych procedur” lub też “logicznej serii kroków organizacji i działaniu na danych, aby osiągnąć zamierzony cel”. W znaczeniu potocznym, mianem “algorytmu” nazywa się po prostu skrzyżowanie kodu, danych i automatycznych decyzji.

Stosowanie algorytmów staje się z każdym dniem coraz powszechniejsze. Firmy i instytucje państwowe chcą podejmować decyzje na podstawie faktów i dowodów opartych o twarde dane. Algorytmy w oparciu o statystykę rekomendują im najlepsze decyzje w danym momencie. Są w stanie również przewidzieć niektóre przyszłe zjawiska. Maszyna jest również odporna na wiele błędów, które pojawiają się gdy podobną analizą zajmuje się człowiek. Rządy różnych państw oraz prywatne firmy zaczynają stosować algorytmy w coraz to bardziej różnorodnych dziedzinach życia: w służbie zdrowia, edukacji, w walce z przestępczością, transporcie, a nawet przy ocenie zdolności kredytowej.

Zagrożenia ze strony kodu

Niemniej coraz powszechniejsze stosowanie algorytmów wiąże się również z wieloma niebezpieczeństwami. Internet jest globalną siecią, używaną na całym świecie. Algorytmy zaprojektowane w jednym miejscu mogą być nieadekwatne do sytuacji, zarówno społecznej, jak i kulturowej, w której znajdują się osoby z drugiego końca globu. Proste kopiowanie rozwiązań nie zawsze będzie skuteczne, a czasami nawet może mocno zaszkodzić.

O zagrożeniach ze strony algorytmów mówi się coraz częściej w krajach wysoko rozwiniętych, gdzie niektóre z rozwiązań doprowadzały do dyskryminacji.

Zakodowana dyskryminacja

Dyskryminacja może zachodzić na dwa różne sposoby. Dwie osoby mogą być traktowane odmiennie, mimo iż z ich danych wynika, że są do siebie bardzo podobne (ze względu na pochodzenie, zarobki, historię itd.). Z drugiej zaś strony dwie osoby będą traktowane identycznie, a ważne dane, które tworzą różnicę między nimi, są ignorowane.

Przykładem tutaj jest ocenianie zdolności kredytowej na podstawie kodu pocztowego. Bank może nie przyznać komuś pożyczki ze względu na to, iż pochodzi z biedniejszej dzielnicy. Nawet wtedy, kiedy radzi on sobie finansowo o wiele lepiej od swoich sąsiadów.

W najmniej szkodliwych przypadkach dyskryminacja poprzez algorytmy może doprowadzić do niechcianych reklam na skrzynkach mailowych czy też ograniczanie naszego dostępu do niektórych danych. Jednak w skrajnych przypadkach zdarzało już się, że przez błędy w algorytmach dochodziło do fizycznych aktów przemocy, jak i przestępstw wyborczych.

Powody algorytmicznej dyskryminacji

Algorytmiczne podejmowanie decyzji może reprodukować i wzmacniać istniejące wzory dyskryminacji. Często kod “dziedziczy” stronniczość swoich ludzkich poprzedników lub odzwierciedla szeroko rozpowszechnione uprzedzenia, które są obecne w społeczeństwie. Dyskryminacja przez algorytmy może się zmaterializować w wyniku problemów na różnych etapach:

Dane niskiej jakości lub pełne uprzedzeń

Często informacje, którymi algorytmy są “karmione” mają dużo błędów (w tym i ludzkich) lub po prostu są niepełne.

  • Przykładem jest tu działanie amerykańskiej policji, która na podstawie algorytmów wysyła większą ilość jednostek do określonych dzielnic. Niemniej kod był oparty na starych raportach pisanych przez policjantów, których autorzy były czasami mocno uprzedzeni m.in. rasowo. Niezależne raporty wskazywały, iż dana społeczność statystycznie nie popełnia więcej przestępstw niż inne. Algorytmy jednak w oparciu o dane pełne uprzedzeń, skazywały ją na większą ilość przeszukań, przesłuchań oraz monitoringu ze strony policji
Słabo określone zasady

Zdarza się również, że dane na podstawie których dokonywane są decyzje po prostu są źle wybierane

  • Zdolność kredytowa oceniana przez niektóre z firm nie opiera się o np. historię zakupów, ale na tym gdzie on mieszka lub nawet analizie spłacalności pożyczek innych klientów sklepów, w których dana osoba również kupuje. Niezależne badania wyraźnie wskazują, że algorytmy zbyt wysoko cenią dane w postaci chociażby kodu pocztowego i lokalizacji.
Brak znajomości kontekstu

Niektóre z algorytmów są napisane tylko i wyłącznie do jednego zadania. Gdy próbuje się rozszerzyć ich działanie, często okazuje się iż w podstawie kodu są błędne założenia, które mogą prowadzić do dyskryminacji

  • Oprogramowanie których celem jest analiza twarzy, często lepiej sobie radzi z manekinami lub maskami, niż z osobami innej rasy niż biała. 
 “sprzężenie zwrotne”

Algorytmy nie działają w pustce. Ich działanie ma wpływ na środowisko z którego pobierano dane, na podstawie których kod podejmował decyzje. W wyniku tego każdy błąd lub forma dyskryminacji ulega zwielokrotnieniu a każde uprzedzenie staje się samospełniającą się przepowiednią

  • Dana społeczność może nie uzyskać dostępu do instytucji finansowych przez algorytm. Ze względu np. na złe dane o nich, które zostały wprowadzone do systemu. Przez to ich sytuacja materialna może się pogorszyć. W wyniku czego, w rzeczywistości będzie im trudniej spłacać kredyt. Algorytm na podstawie swoich działań i błędów potwierdzi tym samym swoje pierwotne założenie.

Wszystkie wymienione przyczyny dyskryminacji są oczywiście ze sobą mocno powiązane. Jeden błąd na którymkolwiek etapie, nakręca kolejny.

Odpowiedzialność algorytmów

Na kim spoczywa odpowiedzialność za działanie konkretnego systemu, który w założeniu ma nam pomagać podejmować decyzje w oparciu o twarde i niezależne dane? Leży ona zarówno po stronie twórców oprogramowania, jak i także na dziennikarzach, czy organizacjach pozarządowych. Możemy podzielić ją na dwa obozy: odpowiedzialność twórców, jak i odpowiedzialność społeczna.

Odpowiedzialność twórców
    • Zdolność do interpretacji – instytucje państwowe oraz firmy najczęściej traktują algorytmy jako pełne i gotowe od razu do działania produkty. Niemniej nie są oni często w stanie określić jak dany system działa, ani też porównać go do rozwiązań konkurencji. Dlatego też istnieje potrzeba wypracowania zasad, które sprawią iż działanie każdego z algorytmów będą zrozumiałe przez osoby nietechniczne. W szczególności, jeśli w wyniku jego działania, ktoś może ucierpieć.
    • Nadzór – w szczególności w przypadku instytucji rządowych, potrzebne są regularne audyty nad algorytmami, które sprawdzałyby ich działanie oraz wpływ na rzeczywisty świat
  • Dynamiczne testowanie
Odpowiedzialność społeczna
    • Dziennikarstwo obliczeniowe – media powinny traktować algorytmy tak samo, jak inne instytucje, które są w stanie zmienić życie ludzi lub nawet całych społeczeństw. Dziennikarstwo obliczeniowe polega na niezależnym badaniu, w jaki sposób działa dany system i porównywanie go do innych. Tylko w ten sposób możliwa jest obiektywna ocena funkcjonowania algorytmów w społeczeństwie.
  • Rozwój edukacji o algorytmach – im więcej osób w społeczeństwie będzie w stanie interpretować to, w jaki sposób są podejmowane decyzje przez algorytmy, tym będzie można nad nimi sprawować lepszą kontrolę. Zasłonięcie funkcjonowania systemów, które wpływają na społeczeństwo, przez specjalistyczny język jest wysoce niebezpieczne. Może również spowodować, iż będą one manipulowane przez wybrane osoby.

Media społecznościowe w ryzach algorytmów

Jednym z najczęstszych momentów, kiedy mamy osobiście do czynienia z działaniem algorytmów, jest korzystanie z mediów społecznościowych. Jak na to wskazują badania przeprowadzone w 2016 roku w Stanach Zjednoczonych, około 35 procent ludności tego kraju otrzymuje swoje informacje prosto z Facebooka i podobnych mu portali. Jedynie o jeden procent więcej osób zamiast mediów społecznościowych wybiera serwisy informacyjne tworzone przez profesjonalnych dziennikarzy.

Obecny model biznesowy mediów społecznościowych promuje koncentrację informacji o podobnym tonie i treści. Prywatnym firmom zależy na jak największym zaangażowaniu oraz interakcjach użytkowników na ich kanałach społecznościowych. Dlatego też algorytmy, które stoją za wyszukiwarkami oraz mediami społecznościowymi są skonstruowane w ten sposób, aby manipulować naszymi doświadczeniami w sieci w stronę informacji i treści które lubimy. Zamyka się nas przez to w tak zwanych “bańkach filtrujących”. Nie dostajemy przez to dostępu np. do tematów kontrowersyjnych dla nas czy przeciwnych opinii. W wyniku tego, także nasze uprzedzenia ulegają zwielokrotnieniu, a nasza perspektywa na świat jest mocno zniekształcona.

Fake news w krajach rozwijających się

Fenomen ten nie występuje jedynie w krajach wysoko rozwiniętych, ale coraz częściej dotyka również regiony rozwijające się. Propaganda i tak zwane “fake news” nie są nowymi zjawiskami, ale w wyniku działania Internetu oraz mediów społecznościowych, potrafią one rozpowszechnić się szybciej niż kiedykolwiek przedtem. Oto kilka przykładów, jak algorytmy wpłynęły w negatywny sposób na prawdziwy świat:

Indie

W tym kraju aplikacja WhatsAPP jest nawet popularniejsza od Facebooka i korzysta z niej ponad 160 milionów osób. Jest również głównym portalem do rozpowszechniania “fake newsów”. W 2015 roku na WhatsApp plotka o licznych atakach ze strony gangów doprowadziła do tego, iż powstały zupełnie nowe grupy przestępcze – na zasadzie samospełniającej się przepowiedni. W tym samym roku w Indiach poprzez media społecznościowe przeszła pogłoska o brakach soli. Informacja ta doprowadziła do paniki w sklepach, w wyniku których jedna kobieta została zadeptana na śmierć.

Indonezja

W wyborach prezydenckich w 2014 roku w mediach społecznościowych pojawiła się informacja iż muzułmański prezydent Jokoo Widodo jest z pochodzenia chińskim chrześcijaninem. Kandydat był zmuszony do pokazania w mediach certyfikatu swojego urodzenia. Jak się później okazało, jego przeciwnicy polityczni tworzyli “fabryki” fałszywych informacji, aby zyskać głosy w wyborach.

MJANMA

Reformy w ostatnich latach, dały milionom mieszkańców Majnmy po raz pierwszy w historii szeroki dostęp do Internetu, jak i oczywiście do mediów społecznościowych. Jak się szybko okazało, portale te w błyskawiczny sposób doprowadziły do zwiększenia napięć pomiędzy większością buddyjską w kraju, a mniejszością muzułmańską. Korzystają z tego przede wszystkim organizacje ekstremistyczne, które używają Facebooka jako swoje główne narzędzie szerzenia propagandy.

RPA

W czasie wyborów samorządowych, satyryczna strona opublikowała fałszywy raport o tym, jak 100 tysięcy kart do głosowania zostało wypełnionych jeszcze przed wyborami. Dziesiątki tysięcy osób podzieliło ze sobą tę informację, traktując ją jako prawdziwą wiadomość. Mimo iż wkrótce satyryczny raport został szybko skasowany, to i tak jego treść była dalej przekazywana.

“Fake newsy” rozpowszechniają się jeszcze szybciej w krajach rozwijających się, ze względu na te czynniki:

    • ograniczona informacja o statystykach rządowych i mały dostęp do otwartych danych
    • ograniczony dostęp do niezależnych źródeł informacji i mediów nie związanych z rządem danego kraju
    • duże koszty Internetu, które nie pozwalają na dłuższe sprawdzanie wiarygodności danej informacji
    • dostęp do Internetu jedynie poprzez komórki, który sprawia iż przyswajane informacje są bardziej powierzchowne
  • bariery językowe i braki w umiejętności czytania i pisania

Etyka algorytmów i fake news

Rozwiązania walki z taką sytuacją, tak naprawdę wciąż są wyszukiwane. Istnieje kilka metod walki z fałszywymi informacjami napędzanymi przez algorytmy, jednak jest to jedynie dopiero początek tego, co powinno się zrobić.

    • w współpracy z mediami powinny powstać narzędzia do weryfikacji oraz poprawności faktów w danych artykułach
    • rządy powinny stworzyć odpowiednią legislację, która jednocześnie broni wolności wypowiedzi oraz słowa, jednak również monitoruje media społecznościowe i walczy z kłamstwami
    • społeczeństwo powinno być uczone o tym, w jaki sposób działają algorytmy i jak one wpływają na ich życie. Przydatnym narzędziem również byłyby oficjalne wtyczki do wyszukiwarek, które badałyby prawdziwość informacji zawartych na stronach, które czytają użytkownicy
  • w końcu zaś twórcy mediów społecznościowych powinni wykazać się większa transparentnością a także powinni dzielić się ze sobą listą problematycznych linków, które szerzą nieprawdziwe informacje

Pełny raport możecie Państwo przeczytać na tej stronie:

http://webfoundation.org/docs/2017/07/Algorithms_Report_WF.pdf

Leave a Reply

Your email address will not be published. Required fields are marked *