Dr Konrad Ciesiołkiewicz – rozmowa
Piotr Guzik: – Po zabójstwie dokonanym na domownikach 17-latek z Kadłuba zamieścił w sieci nagrania zbrodni. One rozlały się po internecie i komunikatorach. Przy jednej ze szkół w Opolu doszło choćby do tego, iż starsi uczniowie przymuszali młodszych do oglądania makabrycznych filmików.
Dr Konrad Ciesiołkiewicz: – W Wielkiej Brytanii przed sądem toczy się sprawa o podobnym charakterze. Chodzi o sytuację, w której koledzy nakłaniali nastolatkę do oglądania w ich telefonach treści pornograficznych. Dziewczyna z pomocą bliskich pozwała placówkę edukacyjną, ponieważ takie zachowanie to po prostu kolejna forma przemocy rówieśniczej. Sytuacja, o której pan wspomina, ma charakter analogiczny.
– Wydaje się, iż najprostszym rozwiązaniem byłoby zablokowanie możliwości rozpowszechniania tych filmów.
– Temu miał służyć „Akt o usługach cyfrowych”, czyli DSA. Z jego pomocą możliwe byłoby wywarcie nacisku na dostawców usług cyfrowych, w tym na wielkie informatyczne korporacje prowadzące media społecznościowe i związane z nimi komunikatory. Te ostatnie traktowane są jak święte krowy, ponieważ treści przez nie przesyłane są szyfrowane. Nominalnie choćby dostawcy komunikatorów nie mają wglądu w treść wiadomości. Wspomniane DSA wymuszałoby jednak wprowadzenie przejrzystych zasad. Zawetowanie tego aktu przez prezydenta Karola Nawrockiego było fatalnym ruchem.
– Uzasadnianym tym, iż DSA miał naruszać naszą wolność i otwierać pole do wprowadzania cenzury.
– Zupełnie tego nie kupuję. Ten akt nie ingerował w swobody obywatelskie, a wolność i dowolność słowa nie mają nic wspólnego z krzywdzeniem ludzi. Bo właśnie przeciwdziałaniu tej przemocy przede wszystkim miała służyć ustawa DSA. W jej zapisach było wylistowanych 27 przestępstw, takich jak handel ludźmi, przemoc seksualna wobec dzieci czy mowa nienawiści, które obywatele mogli zgłaszać do Urzędu Komunikacji Elektronicznej. Tworzyła mechanizm skargowy i dawała organizacjom społecznym, wyczulonym na pewne treści w sieci, możliwość funkcjonowania jako sygnaliści.
Potem Senat stępił nieco ustawę, zdejmując klauzulę natychmiastowej wykonalności działań mających zatrzymać rozpowszechnianie szkodliwych treści w sieci. Senatorzy prawdopodobnie liczyli, iż w ten sposób uda się skłonić Karola Nawrockiego do podpisania tego dokumentu. Tak się nie stało, zaś argumentacja prezydenckiego weta kilka miała wspólnego z tym, co miała zmienić ta ustawa. Państwo nie ma instrumentów prawnych, by doprowadzić do blokady tak drastycznych treści, jak morderstwo w Kadłubie.
– Więc jesteśmy bez jakiejkolwiek ochrony?
– Na poziomie europejskim realizowane są prace nad przepisami, które mogą przynieść pewne zmiany. Skupiają się na treściach seksualnych, w tym z wykorzystaniem dzieci. Zakładają budowę europejskiego centrum monitoringu sieci, z własnym systemem filtracji i wychwytywania takich treści. Bo mało kto ma świadomość, jaki ogrom takich materiałów jest przekazywany przez internet, w tym z pomocą komunikatorów. W Polsce to druga pozycja wszystkich aktywności policjantów z Centralnego Biura Zwalczania Cyberprzestępczości, angażująca jedną trzecią zasobów tej jednostki.
– Treści seksualne to jednak tylko część drastycznych materiałów, jakie przesyłają sobie internauci.
– Jednak wprowadzenie regulacji obligujących korporacje do wykrywania materiałów z dziecięcą pornografią uwrażliwiłoby cały system na inne problemy. Nakładałoby na platformy obowiązek wykrywania niebezpiecznych i drastycznych treści. Część bigtechów już to robi, identyfikując i usuwając takie materiały. Zresztą muszą to robić w warunkach amerykańskich.
– Dlaczego?
– W myśl prawa federalnego platformy internetowe muszą informować NCMEC [ang. National Center for Missing & Exploited Children – amerykańska organizacja zajmująca się sprawami zaginionych i wykorzystywanych dzieci – red.] o wątpliwych treściach i to ta organizacja przekazuje potem informacje do innych krajów, jeżeli coś związanego z bezpieczeństwem dzieci dzieje się na ich terenie. Cyfrowi giganci nie mają takiego obowiązku w Europie, ponieważ tutaj obowiązują inne, bardziej restrykcyjne regulacje, jeżeli chodzi o ochronę prywatności. Ale realizowane są prace nad wprowadzeniem zmian, które nałożą na platformy obowiązek informowania na kształt tego z USA.
– W jaki sposób internetowe platformy identyfikują drastyczne treści?
– Jedną z metod wskazywanych w rekomendacjach instytucji zajmujących się bezpieczeństwem jest wykorzystanie metadanych, analizy sieci pod kątem trendów, na przykład nagłych skoków wyszukiwania pewnych treści. Druga to tzw. haszowanie, czyli nadawanie materiałowi cyfrowego odcisku palca, o czym w Polsce dużo pisze i tłumaczy Katarzyna Staciwa, wybitna specjalistka w tej dziedzinie, która przez kilkanaście lat pełniła służbę w Europolu, a dzisiaj koordynująca badania w Państwowej Komisji ds. Przeciwdziałania Wykorzystaniu Małoletnich. jeżeli jedno wideo jest powielane, to można zablokować dostęp do jego kopii i wyeliminować je z obiegu. Także w chwili, gdy ktoś chce dany materiał do obiegu ponownie wprowadzić. Ale może się też zdarzyć, iż system wykryje nielegalne treści, których nie ma jeszcze w swojej bazie. Wtedy konieczne jest działanie w trybie alarmowym, ratowania życia i zdrowia.
– Z tym mieliśmy do czynienia w przypadku drastycznych filmów z Kadłuba. Policjanci w nocy otrzymali sygnał, iż na jednej z platform pojawiły się materiały ukazujące morderstwa, a ci ustalili autora i adres, pod którym doszło do zbrodni.
– Tu muszę pochwalić służby, ponieważ zadziałały sprawnie. W ciągu kilku godzin policjanci byli na miejscu i prowadzili poszukiwania zakończone zatrzymaniem podejrzanego.
– Tyle, iż policjanci zadziałali po sygnale internauty.
– I tu mamy poważny problem. Polska nie ma proaktywnych, zautomatyzowanych systemów detekcji treści tego typu. Ale też sporo osób nie wie nawet, iż istnieje taki serwis, jak dyzurnet.pl prowadzony przez ekspertów Naukowej i Akademickiej Sieci Komputerowej, gdzie można zgłaszać nielegalne treści rozpowszechniane w internecie.
– W tym miejscu chcę wrócić do zbrodni w Kadłubie, ponieważ 17-latek wcześniej zamieszczał w sieci filmy, które powinny być dzwonkiem alarmowym. Jak ten, na którym wywija nożem.
– Brakuje nam mechanizmów wczesnego wykrywania podobnych sygnałów. Te mogą się pojawiać u osób z negatywnymi doświadczeniami życiowymi, wykluczonymi i stygmatyzowanymi. Takie osoby poszukują walidacji w sieci. Dotyczy to szczególnie osób młodych. My, jako społeczeństwo, mamy przytępiony słuch na ich potrzeby, ponieważ nastolatków, osoby wchodzące w dorosłość, traktujemy jak małe dzieci.
Na dodatek algorytm znając zainteresowania danej osoby bombarduje ją treściami, które tylko pogłębiają pewne zachowania. To prowadzi do radykalizacji, a w konsekwencji może pchnąć do straszliwych czynów. I tu trzeba zaznaczyć, iż nigdy wcześniej nie było tak dużej ekspozycji dzieci na treści drastyczne i pornograficzne. Co więcej, dotyczy to dzieci coraz młodszych. A statystyki są nieubłagane. Wynika z nich, iż 8 na 10 dystrybutorów takich treści to media społecznościowe, a prym wiedzie tu platforma X Elona Muska.
Dr Konrad Ciesiołkiewicz: Kuleje nam inteligencja emocjonalna i empatia, ponieważ żyjemy w medium, zamiast z niego korzystać.Odpowiedzialność leży też po stronie rodziców, którzy często dają dzieciom swobodny dostęp do sieci i nie kontrolują tego, co one w niej robią, ani co oglądają. Zakładają im konta na WhatsAppie i tworzą grupy, co w teorii ma ułatwić komunikację, a w praktyce naraża dzieci na styczność z treściami, których nie powinny oglądać.
Zarządzający algorytmami twierdzą, iż coś robią, aby tę sytuację poprawić. Ale to są działania pozorowane. Rolą regulacji jest to, aby wymusić na nich faktyczne działania. Środowiska mieniące się wolnościowymi będą oczywiście twierdzić, iż to chęć ograniczania swobód i naszej prywatności. Ale nie miejmy złudzeń. My tę prywatność już dawno oddaliśmy bigtechom. Czerpią z tego ogromne zyski. Powinny więc też wziąć za to odpowiedzialność.
– Polska powinna pójść drogą państw, które zakazały dostępu do mediów społecznościowych dzieciom i młodszym nastolatkom?
– Tak, to jest adekwatny kierunek działania, przy czym istotą nie są zakazy dla dzieci i młodzieży, tylko nakazy dla przedsiębiorstw, żeby tworzyć bezpieczne warunki do życia i rozwoju dla młodych ludzi. Decyzje podjęte przez Australię, czyli podniesienie wieku dostępu do platform społecznościowych do 16. roku życia, jest niczym innym jak uznaniem, iż dla zbyt młodych ludzi są to przestrzenie wysokiego ryzyka i z tego powodu wymagają szczególnej ochrony.
– Pod materiałami dotyczącymi zbrodni w Kadłubie nie brakowało komentarzy internautów chwalących się, iż mają nagrania morderstw i iż są gotowi je udostępnić. Byli też tacy, co się o nie dopominali. Co jest w pewnych ludziach takiego, iż są skłonni do oglądania i przekazywania takich drastycznych treści?
– Środowisko cyfrowe stało się integralną częścią naszego życia. Mimo, iż okazało się społeczne, to jest zdehumanizowane. I to nas znieczuliło. Dlatego nie brak osób, które w sytuacji problemowej zamiast wzywać pomocy, w odruchu sięga po telefon, by nagrywać. Kuleje nam inteligencja emocjonalna i empatia, ponieważ żyjemy w medium, zamiast z niego korzystać.
***
Odważne komentarze, unikalna publicystyka, pasjonujące reportaże i rozmowy – czytaj w najnowszym numerze tygodnika „O!Polska”. Do kupienia w punktach sprzedaży prasy w regionie oraz w formie e-wydania

5 godzin temu









English (US) ·
Polish (PL) ·
Russian (RU) ·