OBOWIĄZKI GIGANTÓW CYFROWYCH W ŚWIETLE DSA, cz. I

Autor: Wojciech Kołodziej, aplikant radcowski | Kancelaria CZUBLUN TRĘBICKI

Dodano: 22-08-2022
Publikator: chmuraprawna.pl
Kategorie :

Niedawno przyjęty Akt o usługach cyfrowych (DSA) wyszczególnia kategorię Bardzo Dużych Platform Internetowych, które różnią się od zwykłych platform zasięgiem – mają one średnio ponad 45 milionów użytkowników miesięcznie w UE. Wywierają przez to znaczny wpływ na bezpieczeństwo i handel w Internecie oraz kształtowanie opinii publicznej. W związku z tym Rozporządzenie nakłada na te podmioty szereg obowiązków.

Koordynator ds. usług cyfrowych w danym kraju regularnie weryfikuje liczbę użytkowników platform internetowych w obszarze jego właściwości. Ustalenie, że dany podmiot jest „Bardzo Dużą Platformą”, wiąże się z wpisaniem przez Komisję do publicznego wykazu takich platform i podleganiem specyficznym obowiązkom. Taki status z pewnością zostanie przypisany gigantom cyfrowym pokroju Meta (Facebooka), Twittera czy Booking.com.

Analiza ryzyka

Przede wszystkim, jak wskazuje ustawodawca, mimo ogromnego wpływu na rzeczywistość, platformy skupiają się głównie na zysku, przez co nie rozpoznają i nie analizują ryzyka wystąpienia negatywnych zjawisk społeczno-gospodarczych, które mogą powodować swoją działalnością. Dlatego, oprócz obowiązków przewidzianych dla wszystkich innych dostawców usług cyfrowych, DSA nakłada na bardzo duże platformy obowiązek corocznej analizy ryzyka. Chodzi tu m.in. o rozpowszechnianie nielegalnych treści przez użytkowników (np. mowa nienawiści, sprzedaż nielegalnych produktów), naruszanie praw podstawowych obywateli państw UE (np. przez działalność na platformie skutkującą ograniczeniem konkurencji) czy wykorzystywania platform do celowej manipulacji (np. używanie botów do rozpowszechniania fake newsów w celach politycznych).

Zmniejszanie ryzyka i audyty zewnętrzne

Platformy nie tylko powinny analizować ryzyka związane ze swoją działalnością, ale również aktywnie walczyć z negatywnymi skutkami tej działalności. Przede wszystkim powinny tak dostosować swoje systemy moderowania i rekomendacji treści, aby szkodliwe informacje nie były rozpowszechniane. Poza tym DSA wymienia środki w postaci pozbawienia wpływów z reklam w przypadku takich treści oraz – dla równowagi – poprawienie wyświetlania wiarygodnych źródeł informacji. Podjęte środki muszą być także proporcjonalne – nie powinny skutkować niepotrzebnymi ograniczeniami w korzystaniu z usług. Wreszcie DSA zachęca do samodzielnego lub wspólnego z innymi platformami opracowania kodeksów postępowania w celu wdrażania najskuteczniejszych rozwiązań. Ponadto bardzo duże platformy powinny regularnie poddawać swoje funkcjonowanie w UE zewnętrznym audytom przeprowadzanym przez niezależne podmioty eksperckie. Przedmiotem kontroli ma być m.in. weryfikacja czy platformy wypełniają obowiązki, które nakładania na nie DSA. W razie negatywnych wyników audytu, kontrolę wszcząć może Koordynator ds. usług cyfrowych.

 

Materiał Partnera beinsured.pl:

 

 

wstecz