La Legge sui Servizi Digitali aggiorna il quadro legislativo introdotto dalla Direttiva eCommerce che data dal 2000, prima della nascita di grandi piattaforme come Facebook o Amazon, quando le dinamiche relative ai servizi digitali erano molto diverse da oggi. L’obiettivo è quello di ridurre le pratiche scorrette da parte delle piattaforme, chiedendo maggiore trasparenza e dando loro maggiori responsabilità, e di proteggere meglio i consumatori dal proliferare di prodotti non sicuri online.
Nel testo approvato vengono confermati alcuni principi fondamentali dell’e-commerce, tra cui la regola del Paese di origine o clausola del Mercato interno, e il divieto di monitoraggio generale dei contenuti, per garantire la neutralità della Rete. Purtroppo la relatrice non è riuscita a introdurre una responsabilità civile per i marketplace su cui circolano prodotti non sicuri o non conformi alle regole UE, che era uno dei principali obiettivi S&D, perché non si è trovata una maggioranza su questo punto.
Tra i risultati ottenuti, invece, oltre ai principi citati sopra, vi sono ulteriori salvaguardie per le misure volontarie da parte delle piattaforme, come la supervisione umana, la proporzionalità e la non discriminazione, per evitare che la rimozione dei contenuti illegali porti a eccessive rimozioni di contenuti invece legali. Non vi è nessun obbligo di “staydown” e nessuna deadline per la rimozione dei contenuti (senza pregiudizio per le altre leggi esistenti). Per i marketplace è un risultato forse deludente, perché uno degli obiettivi del Gruppo in IMCO era di assicurare che i prodotti rimossi non potessero riapparire nuovamente sotto altri nomi o codici, ma si è dovuto cercare un compromesso. Per i contenuti il discorso è più complesso e ci sono sensibilità diverse nel Gruppo in materia.
Tornando ai punti positivi, sono vietati i “dark patterns” per tutti gli intermediari (ad esempio, nascondere le opzioni per non dare il proprio consenso ad alcune operazioni ad esempio di tracciamento così da rendere impossibile all’utente rifiutare). Vi è una maggiore trasparenza per la pubblicità personalizzata e una maggiore protezione dei minori: rifiutare il proprio consenso non deve essere più difficile che darlo; la pubblicità personalizzata è vietata nei confronti dei minori (risultato di un compromesso) e deve essere indicato quando un post costituisce pubblicità, anche in quelli degli influencers. È introdotto l’obbligo per tutte le piattaforme di dichiarare chiaramente i parametri dei loro sistemi di raccomandazione e le opzioni per modificarle a disposizione degli utenti, mentre le grandi piattaforme (“very large online platforms”) avranno l’obbligo di offrire un sistema alternativo di raccomandazione che non si basi sulla profilazione dell’utente. Anche i termini e condizioni della piattaforma devono essere equi, trasparenti, non discriminatori e adattati ai minori e ne deve essere fornito un riassunto agli utenti per permettere di non dover leggere testi troppo lunghi ma di conoscere il contesto in cui si opera. Un’aggiunta molto importante per il Gruppo è l’introduzione di un articolo (43a) sulle compensazioni per ogni violazione del DSA, inclusi gli obblighi di due diligence, a cui avranno diritto sia i consumatori che le aziende che vendono i loro prodotti e servizi sulle piattaforme.
I marketplace avranno obblighi ancora più stringenti: dovranno fare i migliori sforzi per verificare le informazioni sull’identità dei venditori che ospitano (KYBC - “know your business customer”), inclusa una lista dei loro prodotti e servizi, prima che questi siano offerti alla vendita. Avranno l’obbligo di prendere misure adeguate per identificare i prodotti o servizi illegali ad esempio tramite controlli a campione, dovranno rimuovere rapidamente il prodotto o servizio illegale e informare i consumatori, e avranno l’obbligo di rendere pubbliche le informazioni sulle possibilità di ricorso. È stato anche introdotto un nuovo articolo sui requisiti di accessibilità per le persone con disabilità, secondo il quale le piattaforme devono assicurarsi di essere in linea con la relativa legislazione europea (Accessibility Act).
Le piattaforme molto grandi avranno alcuni obblighi aggiuntivi di mitigazione del rischio e di accountability degli algoritmi, dovranno valutare la disseminazione e amplificazione dei contenuti illegali e altri contenuti che possono avere un impatto con la libertà di stampa, la libertà di espressione o i processi elettorali, come la disinformazione e le fake news. Dovranno anche valutare i possibili effetti negativi sulla protezione della salute pubblica e altre conseguenze negative per le persone, come la dipendenza o l’impatto sulla salute mentale (come nel caso delle ragazze ossessionate dalla perfezione del corpo su Instagram, che ha avuto noti effetti sulla loro salute mentale). Le grandi piattaforme dovranno prendere misure per mitigare questi rischi, anche su raccomandazione della stessa Commissione, e se non lo faranno incorreranno in sanzioni, mentre consumatori e utenti commerciali potranno chiedere compensazioni.