Meta, Musk e la disinformazione social: quali tutele in Europa

Effettua la tua ricerca

More results...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
#finsubito

Prestito condominio

per lavori di ristrutturazione

 


Che cosa succede quando il proprietario di un popolare social network, oltre ad essere il più ricco imprenditore del mondo e a godere della fiducia di Donald J. Trump, ha un’agenda politica? Lo vedremo nelle prossime stagioni. A giudicare dal nuovo slogan di Elon Musk per l’Europa (MEGA) gli effetti si percepiranno anche dalle nostre parti.

L’aria che tira negli Stati Uniti, gli effetti in Europa

Se allarghiamo lo sguardo, in questo momento possiamo osservare una repentina accelerazione verso la deregulation dei settori più disparati negli Stati Uniti: dagli impegni internazionali avverso il cambiamento climatico, alle policy di diversity & inclusion aziendali, allo smart working. Le big tech sono impegnate in una corsa al riposizionamento rispetto al nuovo presidente US e si affrettano a riprogrammare alcune strategie per omologarsi al nuovo contesto politico ed economico.

E’ in questa chiave che possiamo leggere la dichiarazione fatta poche settimane fa da Mark Zuckerberg a proposito della volontà di non rinnovare gli accordi che il gruppo Meta ha raggiunto con una serie di fornitori di servizio di fact checking ossia di verifica della veridicità di notizie che circolano nei network del gruppo. Sul sito di Facebook si legge “in molti Paesi e aree geografiche lavoriamo con organizzazioni di fact-checking indipendenti, certificate dalla rete indipendente International Fact-Checking Network (IFCN) o dallo ‘European Fact-Checking Standards Network (EFCSN), per individuare, controllare e prendere provvedimenti in relazione ai contenuti che favoriscono la disinformazione. Nei prossimi mesi, termineremo il programma di fact-checking di terzi negli Stati Uniti e inizieremo a spostarci verso un programma basato sulla community, chiamato “Community Notes”, che inizialmente verrà implementato negli Stati Uniti e che continueremo a migliorare nel corso dell’anno prima di renderlo disponibile in altri Paesi.”

Conto e carta

difficile da pignorare

 

L’argomento passe-partout, immancabilmente utilizzato da chi si oppone alle misure contro la disinformazione, è la libertà di espressione, ossia un valore primario negli Stati Uniti, in Europa ed anche in Italia, non sempre invocato con le migliori intenzioni.

Esso è stato puntualmente evocato da Vance a Monaco a proposito della “censura” esercitata dalle autorità europee, minimizzando i rischi derivanti dalle influenze russe esercitate mediante l’acquisto di spazi pubblicitari. Il messaggio espresso dal Vice Presidente US è che chiunque dovrebbe potere esprimere la propria opinione sulla rete senza ostacoli. Ma qui direi che si fa un po’ di confusione tra opinione ed informazione, che sono due cose diverse. 

In un report inviato alla Commissione Europea a settembre 2023, X (già Twitter) annunciava di avere abbandonato, in nome della tutela della freedom of speech, il sistema di moderazione “binario ed assolutista di rimozione o mantenimento dei contenuti” sino ad allora utilizzato sulla piattaforma, in favore di un nuovo sistema, battezzato “Community Notes”, nel quale il controllo sulla veridicità dei contenuti è affidato alla revisione spontanea da parte degli utenti. Si tratta di uno strumento di collaborazione mediante il quale viene affidato ad utenti accreditati il compito di fornire contesto. Nel linguaggio un po’ opaco che illustra il meccanismo è indicato che è necessario che collaboratori con valutazioni discordanti in passato concordino sulla utilità di una “nota” a corredo di una notizia. E che l’algoritmo che sorregge il sistema sarebbe aperto ed accessibile.

Ora Mark Zuckerberg ha annunciato – con il plauso di Musk – di volere adottare un sistema “simile alle Community Notes adottate da X”. L’addio al sistema di fact checking è stato giustificato da Zuckerberg sulla base di un preteso ritorno alle origini consistente nel ripristino della libertà di espressione sulle piattaforme di Meta, i cui sistemi di moderazione sarebbero diventati col tempo troppo restrittivi.

E’ probabile, in ogni caso, che le reali ragioni dietro a questa scelta siano riconducibili alla volontà di riconciliazione con il neoeletto presidente Trump, il quale era stato bandito dalle piattaforme di Meta nel 2021 dopo le sue doglianze sulle “elezioni rubate” del 2020. Dopo il ban, Trump aveva in risposta creato il proprio social network “Truth”.

Le regole dell’Unione Europea

Nell’Unione Europea il quadro normativo vigente è più rigoroso e non si può dare per scontata la possibilità di eliminare il sistema di fact-checking.

Innanzitutto, abbiamo le regole imposte dal Regolamento Europeo 2022/2065, meglio noto come Digital Services Act (DSA), ai fornitori di servizi intermediari online, tra cui rientrano i fornitori di piattaforme di dimensioni molto grandi come appunto Meta (ed X).

Gli obblighi del DSA

Uno degli scopi principali del DSA è rappresentato dal contrasto alla diffusione di contenuti illegali online e della disinformazione. Tra i vari obblighi che sono imposti dal DSA ai fornitori di servizi di hosting, figurano la disclosure degli strumenti utilizzati (Art. 14) e la pubblicazione di relazioni sulle attività di moderazione dei contenuti (Art. 15), nonché l’istituzione di un meccanismo di segnalazione della presenza di contenuti illegali (Art. 16). Per le piattaforme è poi previsto l’obbligo di dotarsi di sistemi interni per la gestione dei reclami (Art. 20), che devono essere risolti tramite decisioni assunte sotto la supervisione di personale umano qualificato e non solo sulla base di mezzi automatizzati (Art. 20, par. 6). Sarà interessante seguire la sorte del sistema di “segnalatori attendibili” (Artt. 19 e 22), cui il DSA ha riservato canali privilegiati per segnalare contenuti problematici: ad oggi non sembra molto utilizzato.

Finanziamenti personali e aziendali

Prestiti immediati

 

I fornitori di piattaforme di grandi dimensioni (cioè quelle con più di 45 milioni di utenti nell’UE) sono inoltre destinatari di obblighi aggiuntivi, tra i quali l’identificazione, analisi, la valutazione e mitigazione dei rischi sistemici connessi alla fornitura dei loro servizi (Art. 34), come gli effetti sull’esercizio dei diritti fondamentali, tra cui è espressamente contemplata la libertà di espressione ed informazione (Art. 34, par. 2, lett. b).

Se la diffusione di fake news su una piattaforma di grandi dimensioni comporta un rischio sistemico alla libertà di espressione ed informazione degli utenti, il fornitore del servizio è obbligato ad adottare misure proporzionate ed efficaci contro tale rischio e a darne conto alla Commissione, la quale ha ampi poteri di revisione.

Il Code of Practice on Disinformation

Sebbene il DSA non elenchi tali misure, le piattaforme sono state indirizzate al rispetto del Code of Practice on Disinformation, edito in una versione “rafforzata” nel 2022, ed adottato su base volontaria da una serie di firmatari (tra cui, naturalmente, Meta). Con l’adesione a tale codice, i firmatari assumevano una serie di impegni allo scopo di contrastare il fenomeno delle fake news e garantire trasparenza sulle piattaforme online: tra questi, la supervisione degli annunci pubblicitari in una prospettiva di demonetizzazione della disinformazione; l’efficiente “etichettatura” degli annunci di carattere politico; la progettazione sicura delle interfacce del servizio e la possibilità di segnalare contenuti falsi e/o informazioni fuorvianti ed il ricorso al fact-checking.

La Direttiva sui servizi di media audiovisivi (AVMS)

Anche la Direttiva sui servizi di media audiovisivi (AVMS) stabilisce una serie di obblighi volti a contrastare la disinformazione e a garantire un ambiente mediatico più sicuro e trasparente (Articolo 28-ter). In particolare, le piattaforme di condivisione video, come YouTube, sono tenute ad adottare misure efficaci per proteggere gli utenti dai contenuti falsi o ingannevoli, nonché che istighino alla violenza o all’odio. Questo include l’implementazione di sistemi per identificare e rimuovere rapidamente tali contenuti, utilizzando sia algoritmi di rilevamento automatico sia meccanismi di segnalazione da parte degli utenti. La Direttiva pone anche un forte accento sulla trasparenza, in particolare per quanto riguarda i contenuti sponsorizzati e la pubblicità.

Vale la pena ricordare anche l’AI ACT, in cui l’agevolazione della disinformazione viene espressamente inclusa tra i rischi sistemici dei modelli di AI per finalità generali (Considerando 110). Altri rischi sistemici derivano dalla diffusione di contenuti generati o manipolati artificialmente e dal loro impatto sui processi democratici, sul dibattito civico e sui processi elettorali (Considerando 120 e 136 ed art. 50 AI ACT , a proposito di deepfakes).

Insomma, in un contesto in cui l’Unione Europea mira ad erigere bastioni contro la disinformazione, qualsiasi “retromarcia” di Meta rispetto agli impegni già a suo tempo adottati – con particolare riferimento al fact-checking – dovrà essere valutata attentamente alla luce delle obbligazioni imposte dal DSA, corredate di pesanti sanzioni economiche (sino al 6% del fatturato annuo globale).

I limiti di un sistema di moderazione peer based

E dunque, sebbene non via sia un obbligo di svolgimento di attività di fact-checking, Meta dovrà dimostrare che la soppressione di tale servizio non introduca rischi sistemici per la libertà di espressione e di informazione. È ancora in corso un’indagine della Commissione aperta nel 2023 in merito alle molteplici violazioni del DSA compiute da X: nel mirino anche le Community Notes. A maggio 2024 la Commissione ha aperto un procedimento anche nei confronti di Meta: la valutazione della soppressione del ricorso a servizi di fact-checking da parte di X fornirà un criterio guida anche per Meta e per le altre piattaforme che vogliano accodarsi.

Prestito personale

Delibera veloce

 

Sebbene un sistema di moderazione peer based sembri una buona idea, occorre escludere che esso possa dare luogo ad un aumento di account falsi ed impersonificazioni e ad altre manipolazioni tecnologiche, come ad esempio è accaduto con la famosa “spunta blu” di X.

E Meta dovrà anche spiegare l’apparente contraddizione tra il proprio annuncio e l’ultimo suo report effettuato ai sensi del DSA: sembra un secolo fa ma nel documento (del settembre 2024) si legge che in Europa Meta collabora con 29 organizzazioni indipendenti di fact-checking. Tra gennaio e giugno 2024, sono stati utilizzati oltre 150.000 articoli di fact-checking per etichettare e ridurre la viralità di più di 30 milioni di contenuti su Facebook e circa 990.000 contenuti su Instagram. In media, il 43% degli utenti su Instagram e il 46% su Facebook che stavano per condividere contenuti segnalati come falsi hanno abbandonato l’azione dopo aver ricevuto un avviso. Dal 1° gennaio al 30 giugno 2024, Meta ha rimosso oltre 170.000 annunci in UE per violazione della policy sulla disinformazione e oltre 4,4 milioni di annunci complessivi per altre violazioni. Insomma, pare difficile sostenere che queste azioni di contrasto alla disinformazione in Europa siano inutili.

Disinformazione e instabilità politica

Sin dai tempi di Cambridge Analytica seguo con apprensione il problema della disinformazione, divenuta strumento di guerra non convenzionale e fonte primaria di instabilità politica ed economica nel mondo, grazie ai social network ed all’utilizzo di bot ed intelligenza artificiale. Con un po’ di pragmatismo, però, vale pena di chiedersi se la soluzione al problema possa essere davvero il fact-checking: il dilagare della disinformazione sui social di Meta, malgrado tutte le azioni intraprese, sembra suggerire di no, per mere ragioni quantitative.

Questa attività è solo una e forse non la più importante che un social network possa svolgere per prevenire e combattere le fake news. Oltre alla necessità, invocata come un mantra da lungo tempo, di aumentare la consapevolezza negli utenti dei social, è necessario assicurare la massima trasparenza rispetto alla filiera di soggetti che collocano i contenuti in uno spazio pubblicitario ed al funzionamento dell’algoritmo che ci rende destinatari di un determinato contenuto. E poi la strada per la rimozione dei contenuti falsi è ancora molto in salita e bisognerebbe disporre di procedure veloci, con una interlocuzione di qualità, che oggi difetta.

Ma in questa nuova stagione bisogna ricordarsi soprattutto che i social network come Facebook o X non sono testate giornalistiche. Essi pensano ad intrattenerci e talvolta anche ad anestetizzarci, polarizzando il nostro pensiero.

I luoghi dell’informazione sono altri, sebbene magari siano accessibili anche dai social, ed andrebbero frequentati come la cucina di casa.

Microcredito

per le aziende

 

La Direttiva 2019/790 sul copyright nel mercato unico digitale

La Direttiva 2019/790 sul copyright nel mercato unico digitale, ha introdotto un equo compenso per le pubblicazioni giornalistiche, affinchè l’informazione di qualità, stremata dal progressivo impoverimento generato dalla perdita dei ricavi pubblicitari, potesse recuperare il value gap, ossia quei profitti perduti con l’avvento della trasformazione digitale, ed offrire un argine alla disinformazione. Così non è stato: queste misure di sostegno per le imprese dell’informazione non sembrano funzionare.

Ma mentre alcune testate hanno optato per il paywall ed una subscription fee, osservo con interesse la nascita di nuove testate on line che sono native digitali e che sanno come portare l’informazione sugli smart phone di chi non è mai stato in un’edicola. E’ a queste testate ed a quelle più tradizionali che sapranno evolversi, magari con una presenza intelligente anche sui social, che affiderei, nei paesi che ambiscono alla tutela dei valori democratici, il compito di contrastare la disinformazione, magari con spazi dedicati al debunking e modalità di accesso con diverse formule economiche, pensate per i diversi tipi di utenza.

Impariamo a dubitare

Bisogna imparare a dubitare di quello che leggiamo sui social network, anche quando ci sembra rassicurante (“confirmation bias”), e sapere scegliere fonti affidabili che si basano sui fatti. Non pare casuale la recente emanazione del regolamento UE European Media Freedom Act (1083/2024), che introduce misure a tutela della indipendenza dei media, considerati i guardiani della democrazia e del pluralismo. Come spiega lo scrittore Yuval Noah Harari in Nexus, la storia delle reti di informazione si intreccia col potere sin dalla età della pietra.

Siamo all’inizio di una nuova pagina di questa storia.



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Prestito personale

Delibera veloce

 

Source link