Kodeks Usług Cyfrowych a V4: Potrzeba precyzyjnych regulacji, ale i ostrożności

DSA, Kofeks usług cyfrowych, cyberbezpieczeństwo

W jaki sposób do unijnego Kodeksu usług cyfrowych (Digital Services Act) podchodzą kraje Grupy Wyszehradzkiej?/ Foto via unsplash [@jordanharrison]

Rewolucja cyfrowa przyniosła wiele korzyści i pożytecznych rozwiązań. Jednak cyfryzacja i nowoczesne technologie niosą ze sobą wiele poważnych zagrożeń. Media społecznościowe i zapewniające dostęp do nich platformy internetowe posiadają przemożny wpływ  na całe narody i społeczeństwa. W jaki sposób do unijnego Kodeksu Usług Cyfrowych (Digital Services Act), którego celem będzie uproszczenie ram prawnych w zakresie nowych technologii, podchodzą kraje Grupy Wyszehradzkiej?

 

 

Wpływ nowoczesnych technologii na codzienne życie może być zarówno pozytywny jak i negatywny. Minusy dostrzegane są zwłaszcza przy okazji rozpowszechniania w Internecie treści niezgodnych z prawem, fake newsów, pornografii dziecięcej lub dezinformacji.

Internetowi giganci czerpią zyski z gromadzenia i wykorzystywania danych osobowych użytkowników. Dzięki ukierunkowanej reklamie, nieprzejrzystym algorytmom lub profilowaniu psychologicznemu użytkowników mają oni ogromny wpływ nie tylko na światową gospodarkę, ale także na wybory polityczne internautów.

Największym wyzwaniem jest zatem dostosowanie ram prawnych do szybko zmieniającej się rzeczywistości. Wydana 20 lat temu Dyrektywa w sprawie handlu elektronicznego (2000/31/WE) nadal obowiązuje w unijnym prawodawstwie, mimo że jest przestarzała i wymaga zmian.

Komisja Europejska dostrzega potrzebę nowych regulacji prawnych. W grudniu zaproponuje nowe, „rewolucyjne” przepisy zwane Kodeksem Usług Cyfrowych (DSA). Celem ma być uporanie się ze wspomnianymi bolączkami dzisiejszej sieci, by dostosować ramy prawne do panującej i nadchodzącej rzeczywistości XXI w.

DSA ma uprościć przepisy i umożliwić powstanie powszechnie wykorzystywanych usług cyfrowych, gwarantując przejrzyste ramy prawne dla dostawców usług oraz szanując podstawowe prawa i wolności użytkowników.

Ambicje KE są ogromne. DSA nadal jest przedmiotem prac, a dyskusje w sprawie jego kształtu toczą się już od wielu miesięcy. Kraje Grupy Wyszehradzkiej nie są tu wyjątkiem.

Jednym z kluczowych elementów dla płynnej działalności przedsiębiorstw oraz poszanowania prywatności użytkowników jest też brak obowiązku prewencyjnego monitorowania treści. Wdrożenie takiej odpowiedzialność oznaczałoby, że wszystkie treści udostępniane przez użytkowników, w tym ich własna twórczość, musiałyby przechodzić każdorazowo przez sito cenzorskie. Usługodawcy arbitralnie mogliby decydować np. o odrzuceniu utworów muzycznych autorstwa użytkowników jako potencjalnie naruszających prawo.

Przesłanie państw V4 jest zatem jasne – regulacja jest konieczna, ale Europa musi unikać cenzury i wszelkich innych form ograniczania wolności słowa.

Czechy: Za wszelką cenę uniknąć cenzury

W Czechach politycy, eksperci i inne podmioty zainteresowane DSA rozumieją potrzebę reformy Dyrektywy o handlu elektronicznym. Najpilniejszym tematem dla rozmówców EURACTIV.cz wydaje się być usunięcie nielegalnych i szkodliwych treści z platform społecznościowych. Czesi są jednak ostrożni, jeśli chodzi o tworzenie nowych regulacji prawnych, zwłaszcza w przypadku zasad wiążących się z ponoszeniem odpowiedzialności za publikowane treści.

„Musimy określić, jakie są obowiązki dostawców usług cyfrowych, a także upewnić się, że istnieją jasne ramy prawne dotyczące tego, w jaki sposób platformy powinny być informowane o nielegalnych treściach – bez usuwania ich poprzez monitorowanie treści użytkowników. Mam na myśli prewencyjny obowiązek monitorowania treści”, powiedział w rozmowie z EURACTIV.cz. europoseł i wiceprzewodniczący PE Marcel Kolaja (G/EFA).

Według niego DSA powinien zapewnić szybkie usuwanie nielegalnych treści, jednak ich automatyczne kontrolowanie może mieć wiele niezamierzonych skutków ubocznych.  „Istnieje ryzyko, że legalne wpisy, filmy i konta mogą zostać usunięte, podczas gdy nielegalne treści pozostaną w sieci”, ostrzegł Kolaja.

Czeski rząd oraz ministerstwo przemysłu i handlu również przyłączyły się do dyskusji. Ich stanowisko w sprawie obowiązku usuwania nielegalnych treści jest dość jasne.

„Jeśli chodzi o odpowiedzialność prawną platform, Republika Czeska jest zdania, że obecne zwolnienie z odpowiedzialności dla usługodawców powinno zostać utrzymane. Uważamy jednak, że nadszedł czas, aby dokonać przeglądu przepisów dotyczących proceduralnych aspektów usuwania nielegalnych treści z Internetu. Platformy powinny być zobowiązane do przestrzegania szeregu zasad przy zwalczaniu treści niezgodnych z prawem, które są udostępniane za ich pośrednictwem”, podkreślił w rozmowie z EURACTIV.cz Patrik Tovaryš, szef działu Usług Społeczeństwa Informacyjnego w ministerstwie przemysłu i handlu.

Większość zainteresowanych stron zgadza się jednak, że zasadnicze znaczenie ma rozróżnienie między treściami nielegalnymi a szkodliwymi. „Istnieje bezwzględna potrzeba dokonania rozróżnienia między pojęciem treści niezgodnych z prawem i tym co legalne, ale szkodliwe. To konieczne, ponieważ zazwyczaj istnieje rozróżnienie między zachowaniami przestępczymi, takimi jak dzielenie się treściami terrorystycznymi, a udostępnianiem dezinformacji, powielanej przez użytkowników w dobrej wierze”, zaznaczył Tovaryš.

David Nosák z Centrum Demokracji i Technologii podziela ten pogląd i dodaje, że „Dyrektywa o handlu elektronicznym zakazuje państwom członkowskim nakładania na dostawców usług cyfrowych obowiązków w zakresie monitorowania przekazywanych lub przechowywanych przez nie treści, co jest ważną zasadą, której należy przestrzegać”.

Zdaniem eksperta, dzięki uściśleniu zasad postępowania z nielegalnymi treściami, nowe rozwiązania mogłyby przyczynić się do lepszego zarządzania nielegalnymi treściami, niezależnie od tego, czy dotyczą dezinformacji czy mowy nienawiści, które nie stanowią formalnie naruszenia prawa.

„Pośrednicy nie powinni ponosić odpowiedzialności za brak reakcji na tego typu treści udostępnione przez użytkowników, chyba że zawiadomienie jest poparte nakazem sądowym. W przeciwnym razie zmusiłoby to platformy internetowe do samodzielnego stwierdzenia niezgodności z prawem, do czego nie są przygotowane. To nieuchronnie doprowadziłoby do nadmiernej cenzury prewencyjnej wypowiedzi w celu uniknięcia ryzyka odpowiedzialności”, dodał ekspert.

Cenzura, nawet niezamierzona, jest niedopuszczalna również dla wiceprzewodniczącej PE Dity Charanzovej (Odnówmy Europę; RE). Według niej, niebezpieczeństwo związane jest przede wszystkim z  wykorzystywaniem automatycznego filtrowania treści.

„Cenzura prewencyjna jest nie do przyjęcia. Muszą istnieć legalne możliwości poruszania się po platformach w taki sposób, aby dać użytkownikom możliwość stwierdzenia, czy dana treść lub nawet jej fragment jest legalny czy nie. System obowiązkowy byłby tak potężny, że uzyskalibyśmy niezamierzoną cenzurę”, twierdzi Charanzova.

„Nie uważam, że musi istnieć obowiązek prawny wykraczający poza dzisiejsze zasady działania”. Jeśli zmusimy platformy do kontrolowania treści, będzie to wiązało się z wymogiem ich stałego monitoringu. Jedynym sposobem, aby to zrobić jest filtrowanie udostępnianych treści. Tylko w ten sposób da się sprawdzać tysiące wpisów na minutę”, dodała.

Jana Břeská ze Stowarzyszenia na rzecz Postępu Internetu jest jeszcze bardziej sceptyczna, jeśli chodzi o usuwanie treści. „Gdyby platformy internetowe miały prawny obowiązek oceny treści i ich usuwania, wpłynęłoby to na wolność słowa. Szkodliwe treści mogą być bardzo subiektywne przez co ryzyko cenzury jest spore. Mogą istnieć pewne automatyczne mechanizmy zapobiegające zamieszczaniu treści niezgodnych z prawem, jednak konieczna jest ścisła współpraca z władzami publicznymi”, powiedziała rozmówczyni EURACTIV.cz.

Břeská wskazała na niebezpieczeństwo związane z regulacją reklamy w Internecie, która również jest jednym z tematów poruszanych przez DSA.

„Wykorzystanie danych osobowych – zwłaszcza do celów reklamy ukierunkowanej – nie powinno być regulowane przez DSA. Jest już bowiem wystarczająco objęte ogólnym rozporządzeniem o ochronie danych (RODO). Reklama komercyjna do celów biznesowych i profilowanie są wyraźnie określone przez RODO i będą objęte regulacjami dotyczącymi prywatności i łączności elektronicznej. Dalsze regulacje nie są potrzebne i zagroziłyby istnieniu wielu unijnych dostawców mediów i treści, których głównym źródłem finansowania działalności jest reklama online”, analizuje ekspertka.

Sztuczna inteligencja: Polska nie zgadza się na gender w unijnym prawie

Polska zablokowała unijny dokument regulujący kwestię sztucznej inteligencji?

Słowacja: Jednolite przepisy w całej UE

Na Słowacji dyskusja na temat DSA jest na ogół ograniczona do niewielkiej grupy ekspertów i zainteresowanych podmiotów. Rząd w Bratysławie spodziewa się, że DSA stanie się podstawowym narzędziem egzekwowania przez państwa członkowskie UE obowiązków platform społecznościowych, jednak jak dotąd nie podejmowano żadnych decyzji w tej sprawie.

Słowacja popiera zasadę, zgodnie z którą „to, co jest nielegalne poza Internetem, powinno być zakazane również w sieci” Rządzący twierdzą, że zasada ta powinna mieć zastosowanie nie tylko do kontrowersyjnych treści, ale również do towarów i usług oferowanych w Internecie. Powinny one podlegać takim samym przepisom i standardom, jak te sprzedawane w tradycyjnych sklepach.

Europoseł Vladimír Bilčík (Europejska Partia Ludowa; EPL), jedyny słowacki członek nowo utworzonej Komisji ds. Sieci Społecznościowych PE , uważa, że „powinien istnieć skuteczny sposób ostrzegania i usuwania z social mediów treści niezgodnych z prawem, nawet jeśli w niektórych przypadkach mogą one być zgodne z obowiązującymi przepisami”.

Według słowackiego rządu kwestia odpowiedzialności platform internetowych za umieszczane za ich pośrednictwem treści, stanowi ważną część procesu legislacyjnego. Słowacja opowiada się za „utrzymaniem zasady ograniczonej odpowiedzialności, jak również za zakazem obowiązku ogólnego monitoringu treści”, twierdzi ministerstwo inwestycji, rozwoju regionalnego i informatyzacji.

Platformy powinny być odpowiedzialne za nielegalne i szkodliwe treści, umieszczane tam przez ich użytkowników, przekonuje rząd. Jednak zgodnie ze słowackim stanowiskiem, DSA powinno dokładniej określić warunki i podmioty, do których zasada ta może mieć zastosowanie, jak również jasno sprecyzować pojęcia, jak „nielegalne” i „szkodliwe” treści lub „towary i usługi” sprzedawane online. Według ministerstwa kodeks postępowania w zakresie zwalczania mowy nienawiści w Internecie z 2016 r. mógłby zostać rozszerzony przez DSA na więcej kategorii .

Słowacja oczekuje, że nowe przepisy określą i wprowadzą w życie „jednolity i skuteczny mechanizm „powiadamiania i działania”, tak aby Unia nie musiała zobowiązywać platform do całościowego monitorowania ich treści. Według wiceministra Marka Antála, odpowiedzialnego za sprawy związane z technologiami cyfrowymi, przedsiębiorstwa „muszą działać szybko i skutecznie, jeśli zostaną poinformowane o szkodliwych treściach przez właściwe organy państw członkowskich”.

Zgadzają się z tym przedstawiciele przedsiębiorców. Według Słowackiego Sojuszu na rzecz Gospodarki Innowacyjnej (SAPIE) – platformy typu non-profit liczącej ponad 100 członków i wiodącego forum debaty politycznej na temat gospodarki cyfrowej i innowacji – gdyby platformy stały się redaktorami treści, mogłoby usuwać wpisy za pomocą algorytmów. Miałoby to negatywny wpływ na wszystkich użytkowników: prywatnych i instytucjonalnych.

SAPIE wskazuje, że prewencyjne ustawienie algorytmów usuwania treści jest najmniej kosztowne, ale może spowodować najwięcej szkód. W związku z ceną usług, które musiałyby szybko wzrosnąć, SAPIE ostrzega przed negatywnym wpływem, jaki ta decyzja miałaby na małe przedsiębiorstwa.

Bilčík w rozmowie z EURACTIV.sk podkreślił, że należy ujednolicić szybkość usuwania treści, a także wprowadzić te same zasady moderacji we wszystkich państwach członkowskich UE.

Władze w Bratysławie są świadome, że temat regulacji reklamy politycznej jest obszarem wrażliwym. Jednakże DSA może, według ministerstwa innowacji, przyczynić się do określenia jasnych zasad, zgodnie z którymi platformy będą w sposób przejrzysty informować użytkowników o swoich klientach, finansowaniu, jak również ukierunkowaniu reklamy politycznej. Słowacja uważa, że jednym ze sposobów zapewnienia zwiększonej przejrzystości jest stworzenie publicznie dostępnych baz danych nt. reklamy politycznej na poziomie UE.

„Musimy mieć szczegółowe dane na temat reklamy politycznej, pochodzące nie tylko z oficjalnych rachunków partii politycznych”, twierdzi Bilčík.

Według europosła, zwłaszcza w okresie przedwyborczym, dane o reklamie na tematy polityczne powinny być udostępniane właściwym organom także za pośrednictwem usługodawców.

W tym przypadku stanowisko słowackiego biznesu różni się nieco od rządu. Uważają oni, że wprowadzenie niewielkich regulacji w ramach DSA jest właściwą drogą. „Istnieją warunki wstępne do tendencyjnego stosowania tych zasad w oparciu o preferencje polityczne wykonawców takich regulacji lub operatorów platform”, wyjaśnia Michał Kardoš, dyrektor wykonawczy SAPIE.

Siedem państw członkowskich zaskarżyło do TSUE pakiet drogowy

Jakie przepisy tzw. pakietu mobilności kwestionują państwa UE, w tym Polska?

Węgry: Opozycja obawia się o rządową cenzurę

DSA nie stał się także gorącym tematem debaty publicznej na Węgrzech. Jednak niezależnie od kodeksu, regulacja działalności gigantów cyfrowych znalazła się w centrum uwagi po tym, jak węgierski rząd powołał Grupę Roboczą ds. Wolności Cyfrowej (DFWG), której celem jest zbadanie funkcjonowania firm z branży technologicznej z punktu widzenia praw podstawowych i rządów prawa.

Kilka miesięcy po zainaugurowaniu prac DFWG, szef Krajowego Urzędu Ochrony Danych i Informacji (NAIH) Attila Péterfalvi powiedział, że rząd powinien wdrożyć rozporządzenie w sprawie funkcjonowania portali społecznościowych, ponieważ Facebook wpływa na „zasady, praktyki sądowe i kulturę prawną” zakazując wyrażania „pewnych opinii”.

Partie opozycyjne ostro skrytykowały jego wypowiedź, obawiając się, że rząd chce „uciszyć” krytyków w mediach społecznościowych. Minister sprawiedliwości Judit Varga powiedziała, że rząd nie chce wprowadzać cenzury na Facebooku, a jedynie chciałby wiedzieć, jakie przepisy stosuje on do „cenzurowania” węgierskich obywateli.

„Platformy internetowe muszą walczyć z dezinformacją, ale muszą to robić w sposób przejrzysty w zakresie podejmowania konkretnych decyzji i algorytmów. Powinien istnieć organ, do którego można by się zwrócić o środki prawne”, powiedziała w rozmowie z budapesztańskim think tankiem Political Capital Anna Donáth, europosłanka  z frakcji RE z ramienia liberalnej węgierskiej partii Momentum

Jej zdaniem UE musi stworzyć jednolite kryteria i wspólne ramy regulacyjne. Rozwiązaniem mogłoby być powstanie niezależnej instytucji monitorującej przestrzeganie przepisów dotyczących przejrzystości, moderowania treści i reklam politycznych.

„Jak pokazują doświadczenia Facebooka, oznaczanie fałszywych treści zamiast ich usuwania prowadzi do jeszcze większej liczby kliknięć”, przypomina w rozmowie z Political Capital Gábor Polyák, dyrektor Mérték Media Monitoring i szef Departamentu Komunikacji i Nauk o Mediach Uniwersytetu w Peczu

„Czy UE uzna to za wystarczające, czy będzie oczekiwać filtrowania treści za pomocą algorytmów?”, zastanawia się ekspert, dodając że może doprowadzić to do niebezpiecznych sytuacji”.

„Wolność słowa w Internecie jest wartością, którą należy chronić”, przypomniała z kolei w rozmowie z Political Capital Dr Emese Pásztor, dyrektorka Projektu Wolności Politycznych w Węgierskim Stowarzyszeniu na rzecz Wolności Obywatelskich (TASZ).

Ekspertka zaznaczyła, że to sądy decydują o tym, co należy uznać za „nielegalne treści” i jeśli to na operatorów stron spadnie obowiązek ich weryfikacji, to staną się oni nazbyt ostrożni”. „Doprowadzi to do usunięcia wszelkich kontrowersyjnych, ale niekoniecznie niezgodnych z prawem treści”.

Według Dr Pásztor, usuwanie treści z Internetu musi być ostatecznością i odbywać się tylko w oparciu o przejrzyste zasady. Inne mechanizmy, takie jak ostrzeżenia dla autora, oznaczanie treści lub poprawa umiejętności korzystania z mediów społecznościowych mogą okazać się skuteczne tylko, gdy użytkownicy Internetu otrzymają odpowiednie wsparcie.

UE nakłada sankcje za rosyjski cyberatak na niemiecki parlament

Do hakerskiego ataku na Bundestag doszło w maju 2015 r. Cyberwłamywaczom udało się dostać wówczas do wewnętrznej sieci informatycznej federalnego niemieckiego parlamentu i przejąć nad nią kontrolę. Wykradziono wówczas maile wielu posłów do niemieckiego parlamentu.

 

Unijne sankcje zostały nałożone na dwóch …

Polska: Platformy nie powinny monitorować użytkowników

Prace nad DSA były bacznie obserwowane w Polsce – zarówno na poziomie krajowym, jak i unijnym – przez organizacje pozarządowe zajmujące się prawem do prywatności i swobodami obywatelskimi w Internecie, takimi jak Fundacja Panoptykon i Fundacja Centrum Cyfrowe.

Zalecają one, aby nie traktować już platform internetowych jedynie jako tzw. dostawców usług hostingowych, ponieważ ich model biznesowy już dawno się zmienił. Uznają również, że model samoregulacji zawiódł.

Ich zdaniem, konieczne jest prawne zdefiniowanie podmiotów na rynku cyfrowym, a w szczególności określenie, które z nich są uznawane za dominujące. I to powinno być przedmiotem dodatkowych obowiązków, które powinny być na nie nałożone.

Organizacje pozarządowe zwracają uwagę, że kwestia moderowania treści zostałaby częściowo rozwiązana poprzez przekazanie kontroli nad jej zasadami społecznościom lub podmiotom zaufania publicznego.

Postulują one utrzymanie odpowiedzialności platform za naruszanie treści, ale podstawą musi być rzeczywista wiedza o naruszeniu prawa oraz wyraźne powiadomienie przez użytkownika lub uprawniony do tego organ.

„Niewątpliwie jesteśmy za tym, aby nie wymagać od platform monitorowania treści użytkowników. Wyłączenie odpowiedzialności za treści nie może jednak oznaczać zwolnienia z odpowiadania za własne działania przez platformy internetowe”, podkreśliła w rozmowie z EURACTIV.pl prezes Fundacji Panoptykon Katarzyna Szymielewicz.

Chodzi również o to, by regulować wyłącznie treści zabronione w rozumieniu prawa, a nie dawać platformom internetowym możliwości ograniczania wolności słowa. Zdaniem organizacji pozarządowych, system powiadamiania o treściach zabronionych musi być przejrzysty i skuteczny, a użytkownicy powinni mieć dostęp do jasnej procedury odwoławczej.

Europosłanka Róża Thun (Koalicja Obywatelska; EPL), która jest członkiem Komisji Rynku Wewnętrznego i Ochrony Konsumentów (IMCO) w PE i na co dzień pracuje nad DSA, przekonuje, że „tam, gdzie platformy aktywnie zarządzają treściami i promują pewne kontrowersyjne lub spolaryzowane treści, powinny odpowiadać za to większym stopniu niż dotychczas, ponieważ prowadzi to do złych skutków społecznych. Nie może być również tak, że niektóre firmy zarabiają na podżeganiu do agresji lub nienawiści i rozpowszechnianiu fałszywych informacji w sieci”.

Z kolei przewodnicząca European Tech Alliance-EUTA, w skład którego wchodzi  Allegro – największa polska platforma handlu detalicznego – Magdalena Piech zwróciła uwagę, że nakaz odgórnego monitorowania wszystkich treści zamieszczanych przez użytkowników usług może prowadzić do efektu odwrotnego niż zamierzony oraz do „fałszywie pozytywnej” weryfikacji niektórych treści. Doprowadzi to do ograniczenia wolności słowa użytkowników, generując jednocześnie wysokie koszty dla tych platform.

„Zasada ograniczonej odpowiedzialności byłaby lepsza. Pozwoliłoby to platformom na rozwój i jednocześnie zapobiegałoby naruszeniom praw podstawowych. Jeśli platformy stałyby się automatycznie odpowiedzialne za treści, które udostępniają, przyjęłyby prawdopodobnie zbyt ostrożne podejście”, powiedziała Piech.

Organizacje pozarządowe opowiadają się również za tym, aby prawo europejskie gwarantowało pełną przejrzystość w zakresie ukierunkowania i odpowiedzialności za to, jak działa automatyczne podejmowanie decyzji.

„Należy wprowadzić dodatkowe obowiązki w odniesieniu do platform internetowych w zakresie audytu, nadzoru człowieka nad przejrzystością i rzetelnością procesu (tj. zagwarantowaniem uczciwej procedury i prawa do interwencji człowieka), zwłaszcza gdy platforma wykorzystuje algorytmy do moderacji, filtrowania lub wyboru treści wyświetlanych użytkownikom”, wskazał w rozmowie z EURACTIV.pl prezes Fundacji Centrum Cyfrowego Alek Tarkowski.

Róża Thun zgłosiła kilkadziesiąt poprawek do DSA, z których wiele odnosi się do tej kwestii. „Zasugerowałam, że ukierunkowane reklamy powinny być bardziej rygorystycznie uregulowane, a w niektórych przypadkach zakazane. Reklama behawioralna oparta na pewnych cechach, tzn. eksponująca problemy psychiczne lub fizyczne, nie powinna być w ogóle dozwolona. W innych sytuacjach, jeśli użytkownicy mają otrzymywać reklamy ukierunkowane, powinni być tego świadomi i wyrażać uprzednią zgodę. Kwestia sztucznej inteligencji jest bardzo szeroko omawiana w sprawozdaniu. Bardzo ważne jest, aby jej wykorzystanie nie prowadziło do dyskryminacji”, powiedziała europosłanka

Dyskusja nad DSA porusza także kwestię odpowiedzialności platform za każdy produkt oferowany przez użytkowników, a przede wszystkim za to, czy jest on podrobiony, zgodny z normami lub obowiązującym prawem.

„Inaczej jest w przypadku odpowiedzialności za treści zamieszczane przez użytkowników – mowę nienawiści, homofobię, agresję w sieci itp., a  inaczej w przypadku  niebezpiecznych lub nielegalnych produktów zamieszczanych przez klientów biznesowych. W pierwszym przypadku niezbędna jest moderacja treści i jak najszybsze powiadomienie organów ścigania, a w drugim platformy muszą posiadać dane firm, które sprzedają podejrzane produkty i udostępniać je, na żądanie, odpowiednim organom i konsumentom. W tym drugim przypadku DSA wprowadzi zasadę „poznaj swojego klienta biznesowego” i skończy z anonimowością niektórych sprzedawców w sieci”, mówi Róża Thun.

Z kolei Magdalena Piech zwraca uwagę, że „o ile główna odpowiedzialność za działania niezgodne z prawem powinna spoczywać na użytkowniku, o tyle my uznajemy, że na platformach internetowych spoczywa odpowiedzialność za usuwanie treści niezgodnych z prawem w sieci”.

„Nowe rozwiązania prawne powinny uwzględniać nowe i różnorodne podmioty, które pojawiły się w przestrzeni online, oraz aktualizować definicję dostawców usług społeczeństwa informacyjnego i dostawców usług hostingowych, tak aby było jasne, które rodzaje usług są objęte prawem. Wszelkie nowe przepisy powinny być neutralne pod względem technologicznym, tak aby można je było dostosować do przyszłych zmian”, dodała Magdalena Piech