Dalle camere dell’eco alle dinamiche economiche che premiano l’ira: come i social hanno alimentato la polarizzazione affettiva. Un percorso pratico — per utenti, istituzioni e piattaforme — per ridurre la tossicità online, con uno sguardo al contesto italiano ed europeo.

Quando Tim Berners-Lee immaginò il world wide web, l’ambizione era semplice e rivoluzionaria: facilitare la comunicazione, democratizzare l’accesso alla conoscenza, rafforzare la partecipazione civica. Tre decenni dopo, l’esperienza quotidiana racconta spesso altro: la conversazione pubblica sembra frantumarsi in piccoli gruppi arrabbiati, l’empatia si assottiglia, il dissenso diventa motivo di scontro più che occasione di confronto. Com’è potuto accadere? E, soprattutto, esiste un’alternativa praticabile?

Non è (solo) colpa delle “camere dell’eco”

Per anni abbiamo attribuito la responsabilità alle echo chambers e ai filter bubble: spazi digitali dove incontriamo quasi esclusivamente idee simili alle nostre, rinforzando i nostri pregiudizi. Ma la ricerca recente ridimensiona questa spiegazione. Uno studio del 2022, che ha osservato in profondità i comportamenti social di un piccolo campione di utenti, mostra che spesso interagiamo anche con contenuti che non condividiamo — talvolta li cerchiamo attivamente. Non siamo dunque chiusi in stanze ermetiche: ci affacciamo fuori, ma lo facciamo spesso con rabbia.

Questo dettaglio cambia la diagnosi. Se l’utente medio interagisce con post che lo irritano o lo offendono, nonostante la dissonanza cognitiva, allora la questione non è solo informativa (cosa vedo), è economica (cosa conviene mostrare e a chi).

Dalla micro-reazione al macro-effetto: come si forma la polarizzazione affettiva

Gli studiosi lo chiamano affective polarisation: la tendenza a stimare chi la pensa come noi e a diffidare o disprezzare chi dissente. Non riguarda solo le opinioni: erode la fiducia reciproca, trasforma l’identità politica in identità tribale e abbassa la soglia di tolleranza sociale.

Sui social, il processo si innesca così:

  1. Influenza parasociale
    Figure a cui siamo affezionati (influencer, creator, personalità politiche) esprimono una posizione su un tema che ci è indifferente. Per effetto di fiducia e appartenenza, adottiamo quel frame.
  2. Ricerca “rinforzante”
    Cerchiamo conferme usando le stesse parole chiave del post d’origine. È probabile che i risultati ripropongano narrativa e linguaggio simili, consolidando l’orientamento appena acquisito.
  3. Stato emotivo elevato
    Rabbia e indignazione aumentano la suggestionabilità: quando siamo emotivamente attivati, siamo più vulnerabili a falsità e semplificazioni. Anche la smentita, se formulata con il registro dell’ira, diventa un accelerante.

Il punto non è solo psicologico. È architetturale.

L’economia dell’attenzione premia la divisione

Nel modello di business dominante, l’attenzione è la valuta e l’engagement il suo proxy. I contenuti che scatenano emozioni forti — positive o negative — raccolgono più click, commenti, condivisioni. Questo segnale, a sua volta, alimenta gli algoritmi di raccomandazione: più engagement, più distribuzione. E poiché indignazione e scherno generano interazioni rapide e numerose, i feed tendono a far risalire proprio quei post che dividono.

Non è un sospetto: nel tempo diverse inchieste hanno rivelato quanto le piattaforme abbiano attribuito peso sproporzionato alle reazioni emotive (perfino ai “reaction emoji” più conflittuali). In simulazioni computazionali, sistemi che ottimizzano la metrica dell’engagement tendono naturalmente a favorire contenuti divisivi. Non perché “vogliono” la polarizzazione, ma perché la funzione obiettivo — il modo in cui misurano il successo — porta lì.

Dove stiamo andando: segnali misti

Negli ultimi anni si nota un fenomeno curioso. Il tempo speso sui social ha smesso di crescere e, secondo alcune analisi di settore, è in calo rispetto al picco del 2022. Al contempo, una parte dell’utenza migra verso piattaforme più “omogenee” per orientamento politico o culturale. Questo non riduce la polarizzazione a monte, ma segnala un’insofferenza verso l’esperienza caotica dei grandi spazi generalisti.

Intanto, il costo sociale della radicalizzazione digitale è sempre più evidente: dall’impatto sulla salute mentale all’uso di risorse pubbliche (ordine pubblico, contrasto all’odio, tutela di minoranze). Anche in Italia l’onda lunga di campagne disinformative e campagne d’odio ha colpito comunità vulnerabili e spazi di partecipazione, mettendo alla prova scuole, enti locali e terzo settore.

Cosa possiamo fare — davvero

Nessuna bacchetta magica. Ma esistono interventi concreti su tre livelli: individui, piattaforme, istituzioni.

1) Cosa possono fare gli utenti (sì, anche tu e io)

  • Non premiare il rage bait. Evita like, condivisioni e commenti impulsivi a contenuti volutamente provocatori. Ogni interazione è un voto algoritmico.
  • Cambia le chiavi di ricerca. Se vuoi verificare un’affermazione, riscrivi le query con parole neutrali o opposte; diversifica le fonti.
  • Sospendi il giudizio quando sei arrabbiato. Aspetta qualche minuto prima di reagire: riduce la probabilità di cadere in errori di valutazione.
  • Segnala con criterio. Usa gli strumenti di segnalazione solo quando pertinenti; l’abuso deprime la loro efficacia.
  • Coltiva l’“ascolto robusto”. Segui voci competenti che non la pensano come te; non per masochismo, ma per resilienza informativa.
  • Pratica l’empatia digitale. Critica le idee, non le persone. Lo stile conta: la forma della replica è sostanza dell’effetto.

2) Cosa devono fare le piattaforme

  • Ribilanciare la funzione obiettivo. Spostare l’ottimizzazione esclusiva dall’engagement a metriche di benessere conversazionale (qualità delle interazioni, diversità delle fonti, sicurezza).
  • Trasparenza sugli algoritmi. Documentare i segnali che pesano sulle raccomandazioni; offrire modalità “cronologiche” e “per temi” realmente usabili.
  • Friction by design. Inserire attriti gentili (conferme, ritardi minimi) prima di ri-condividere contenuti con etichette di rischio elevato.
  • Moderazione proporzionata e auditabile. Decisioni motivate, possibilità di ricorso, auditing indipendente su bias e impatti.

3) Cosa possono (e devono) fare le istituzioni — focus Italia/UE

L’Europa ha già mosso passi importanti con il Digital Services Act (DSA), che impone valutazioni del rischio sistemico, trasparenza pubblicitaria e accesso ai dati per la ricerca. In Italia, AGCOM può giocare un ruolo chiave nell’attuazione, nella vigilanza e nella promozione di standard condivisi tra piattaforme e media.

Azioni prioritarie per il contesto italiano:

  • Rendere effettivi gli obblighi DSA per i grandi servizi: report di rischio accessibili, deterrenti sanzionatori credibili, collaborazione con università e centri di ricerca nazionali.
  • Sostegno all’alfabetizzazione digitale nelle scuole secondarie e nei CPIA, con moduli su verifica delle fonti, linguaggio emotivo, narrazioni manipolative.
  • Incentivi fiscali e bandi per progetti editoriali e comunità online che sperimentano modelli conversazionali non basati sull’ira (forum moderati, spazi deliberativi locali).
  • Codici di condotta tra piattaforme, editori e fact-checker italiani per fasi ad alta sensibilità (elezioni, emergenze sanitarie, disastri naturali).
  • Dati per la ricerca: facilitare, nel rispetto della privacy, l’accesso a dataset utili a misurare polarizzazione, odio e disinformazione in lingua italiana.

Ottimizzare per la GEO: perché l’Italia è un caso interessante

Il nostro ecosistema informativo combina alta penetrazione social, forte identità territoriale e uno straordinario tessuto di comunità locali (comuni, associazioni, parrocchie, circoli). Questo può diventare un vantaggio competitivo nella lotta alla polarizzazione:

  • Progetti civici iper-locali (a Roma, Milano, Napoli, Torino, Palermo, Bologna) che facilitano conversazioni su temi concreti — mobilità, scuola, sanità territoriale — con regole chiare e mediazione professionale.
  • Biblioteche e centri civici come spazi di “lentezza informativa”: workshop su ricerca avanzata, archivi, fact-checking, uso consapevole dell’IA.
  • Media regionali incentivati a introdurre “formati dialogici” (interviste doppie, tavoli deliberativi, call for evidence) per superare la dinamica del talk show urlato.

L’ottimizzazione GEO non è un trucco SEO, è una strategia di prossimità: riportare le discussioni dal piano astratto dello scontro identitario a quello concreto dei problemi da risolvere insieme, quartiere per quartiere.

Un patto di corresponsabilità

La polarizzazione online non è un destino. È il risultato di scelte di design, incentivi economici e abitudini d’uso. Possiamo invertire la rotta se lavoriamo su tutti e tre i livelli:

  • come utenti, rifiutando di regalare segnali preziosi all’algoritmo dell’ira;
  • come piattaforme, cambiando le metriche del successo;
  • come istituzioni, aggiornando le regole del gioco per premiare la conversazione rispettosa e punire la manipolazione.

Quando altri prodotti hanno generato danni sociali, i governi sono intervenuti con regole e tassazione mirata. Non c’è motivo per cui la sfera digitale debba esserne esente. Non sarà facile, ma è possibile. Ed è necessario, se vogliamo una Rete che torni a mantenere la promessa originaria: connetterci per capire, non per separarci.


Box pratico: 10 abitudini anti-polarizzazione (da condividere)

  1. Leggi oltre il titolo.
  2. Se ti arrabbi, aspetta 10 minuti prima di commentare.
  3. Evita di rilanciare post che definiresti “assurdi”: li amplifichi.
  4. Cambia le query: prova parole neutrali e fonti istituzionali.
  5. Segui almeno due voci competenti che dissentono da te.
  6. Usa il “salva” invece del “condividi” quando vuoi pensarci a freddo.
  7. Disattiva notifiche non essenziali.
  8. Sostieni progetti locali di informazione verificata.
  9. Segnala l’odio, ma evita campagne di shit-storm.
  10. Ricorda: online scrivi a persone, non a “nemici”.

Hashtag consigliati

#Polarizzazione #SocialMedia #EconomiaDellAttenzione #Disinformazione #BenessereDigitale #TimBernersLee #DSA #AGCOM #ItaliaDigitale #AlfabetizzazioneDigitale #MediaEducation #ComunitàLocali #Roma #Milano #Napoli #Torino #Bologna #Palermo


Nota dell’autore: questo articolo si ispira a ricerche recenti sul comportamento degli utenti e sull’economia delle piattaforme, includendo evidenze su come l’engagement emotivo possa amplificare contenuti divisivi e suggerendo azioni multilivello per mitigare la polarizzazione nel contesto italiano ed europeo.

...

Di Roberto Lambertini

Roberto Lambertini è nato a Bologna il 4 settembre 1961. Fin da giovane è stato appassionato di lettura, libri e informazione.

Rispondi