<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="it">
	<id>https://unipedia.fileli.unipi.it/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=78.212.49.151</id>
	<title>Unipedia - Contributi dell&#039;utente [it]</title>
	<link rel="self" type="application/atom+xml" href="https://unipedia.fileli.unipi.it/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=78.212.49.151"/>
	<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Speciale:Contributi/78.212.49.151"/>
	<updated>2026-05-04T13:26:01Z</updated>
	<subtitle>Contributi dell&amp;#039;utente</subtitle>
	<generator>MediaWiki 1.42.1</generator>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13645</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13645"/>
		<updated>2025-12-11T11:36:19Z</updated>

		<summary type="html">&lt;p&gt;78.212.49.151: /* Funzionamento degli algoritmi */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La filter bubble (loc. s.le f.) è l’ambiente virtuale che ciascun utente costruisce su Internet scegliendo solo i contenuti che gli piacciono. In questa bolla, vediamo principalmente informazioni simili a quelle che già conosciamo e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie. Il termine filter bubble significa “bolla filtrata” ed è stato coniato da Eli Pariser nel libro The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;&amp;gt;Pariser, E. (2011). &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi ==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della filter bubble, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati, rafforzando così un ecosistema chiuso di informazioni.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;&amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919. [https://arxiv.org/abs/1905.03919](https://arxiv.org/abs/1905.03919)&amp;lt;/ref&amp;gt;&amp;lt;ref name=&amp;quot;Arxiv2004&amp;quot;&amp;gt;&amp;quot;Social media recommendation dynamics&amp;quot;, arXiv:2004.09603. [https://arxiv.org/abs/2004.09603](https://arxiv.org/abs/2004.09603)&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 evidenziano inoltre che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;Applied Network Science (2024). &#039;&#039;Impact of recommender systems on information diversity&#039;&#039;. [https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3](https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3)&amp;lt;/ref&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;&amp;gt;Springer (2024). &#039;&#039;Algorithmic personalization and its ethical implications&#039;&#039;. [https://link.springer.com/article/10.1007/s13347-024-00758-4](https://link.springer.com/article/10.1007/s13347-024-00758-4)&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, riducendo la capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti mostrano che gli algoritmi di raccomandazione accentuano questa tendenza, riducendo ulteriormente la varietà dei contenuti e contribuendo alla polarizzazione delle opinioni.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Di conseguenza, la filter bubble non solo riduce la diversità informativa, ma può anche influenzare la percezione della realtà e il dibattito pubblico, perché gli utenti si trovano intrappolati in una “bolla” di contenuti che riflettono principalmente le loro idee e preferenze.&lt;br /&gt;
&lt;br /&gt;
==Implicazioni sociali e culturali==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi non influenzano solo ciò che un singolo utente vede, ma hanno anche effetti più ampi sulla società e sulla cultura. Quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, le differenze tra gruppi con visioni diverse tendono a essere enfatizzate, aumentando la polarizzazione sociale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno può ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le filter bubbles possono rafforzare stereotipi, diffondere disinformazione e ridurre l’esposizione a prospettive diverse, creando una società più frammentata. Questo può avere effetti negativi sul dibattito pubblico, sulla coesione sociale e sulla capacità collettiva di affrontare problemi complessi.&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative possono influenzare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che può condurre a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rischi==&lt;br /&gt;
&lt;br /&gt;
La filter bubble comporta diversi rischi per l’utente e per la società. Tra i principali:&lt;br /&gt;
&lt;br /&gt;
===Esposizione limitata a informazioni coerenti con le proprie idee===&lt;br /&gt;
Gli utenti vedono principalmente contenuti che confermano le loro convinzioni, riducendo la capacità di confrontarsi con opinioni diverse.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Ridotta comprensione di punti di vista alternativi===&lt;br /&gt;
La mancanza di esposizione a prospettive diverse può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche o culturali.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Maggiore vulnerabilità a influenze esterne===&lt;br /&gt;
Essere intrappolati in una bolla informativa può rendere gli utenti più facilmente influenzabili da pubblicità mirate, notizie parziali o contenuti manipolativi, aumentando il rischio di disinformazione e di decisioni basate su informazioni incomplete.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Polarizzazione e frammentazione sociale===&lt;br /&gt;
Quando grandi gruppi di utenti sono esposti solo a contenuti affini alle loro convinzioni, si rafforzano divisioni sociali e culturali, riducendo il dialogo e la cooperazione tra diversi segmenti della società.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, i rischi della filter bubble riguardano sia l’esperienza individuale, limitando la capacità di apprendere e comprendere punti di vista diversi, sia l’impatto collettivo, influenzando la società, la politica e la cultura in senso polarizzante.&lt;br /&gt;
&lt;br /&gt;
==Rimedi ipotizzati==&lt;br /&gt;
&lt;br /&gt;
===Consultare fonti diverse===&lt;br /&gt;
Leggere notizie e contenuti provenienti da differenti piattaforme, media e opinioni consente di avere una visione più completa della realtà e riduce il rischio di essere confinati in un ecosistema informativo limitato.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Essere consapevoli del funzionamento degli algoritmi===&lt;br /&gt;
Comprendere come gli algoritmi di personalizzazione selezionano i contenuti permette agli utenti di riconoscere la propria esposizione limitata e di cercare attivamente punti di vista alternativi.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Usare piattaforme che promuovono la varietà dei contenuti===&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti per visualizzare contenuti non filtrati o diversificati. L’uso di tali piattaforme può aiutare a rompere la bolla informativa e aumentare l’esposizione a informazioni eterogenee.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Adottare comportamenti digitali critici===&lt;br /&gt;
Verificare le fonti, confrontare le informazioni e discutere con persone che hanno punti di vista differenti sono pratiche che aiutano a mitigare gli effetti della filter bubble e a promuovere una maggiore consapevolezza digitale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, combinando consapevolezza, diversificazione delle fonti e utilizzo di strumenti adeguati, è possibile ridurre l’impatto della filter bubble sulla percezione della realtà e sul dibattito pubblico.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
* Pariser, E. (2011). &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;. Penguin Press.&lt;br /&gt;
* Sasahara, K., Chen, W., Peng, H., Ciampaglia, G. L., Flammini, A. &amp;amp; Menczer, F. (2019). &#039;&#039;Social Influence and Unfollowing Accelerate the Emergence of Echo Chambers&#039;&#039;. arXiv:1905.03919.&lt;br /&gt;
* Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W. &amp;amp; Starnini, M. (2020). &#039;&#039;Echo Chambers on Social Media: A Comparative Analysis&#039;&#039;. arXiv:2004.09603.&lt;br /&gt;
* Applied Network Science (2024). &#039;&#039;Impact of recommender systems on information diversity&#039;&#039;.&lt;br /&gt;
* Springer (2024). &#039;&#039;Algorithmic personalization and its ethical implications&#039;&#039;.&lt;/div&gt;</summary>
		<author><name>78.212.49.151</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13644</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13644"/>
		<updated>2025-12-11T11:35:57Z</updated>

		<summary type="html">&lt;p&gt;78.212.49.151: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La filter bubble (loc. s.le f.) è l’ambiente virtuale che ciascun utente costruisce su Internet scegliendo solo i contenuti che gli piacciono. In questa bolla, vediamo principalmente informazioni simili a quelle che già conosciamo e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie. Il termine filter bubble significa “bolla filtrata” ed è stato coniato da Eli Pariser nel libro The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;&amp;gt;Pariser, E. (2011). &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi ==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, p. 40.&amp;lt;ref/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della filter bubble, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati, rafforzando così un ecosistema chiuso di informazioni.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;&amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919. [https://arxiv.org/abs/1905.03919](https://arxiv.org/abs/1905.03919)&amp;lt;/ref&amp;gt;&amp;lt;ref name=&amp;quot;Arxiv2004&amp;quot;&amp;gt;&amp;quot;Social media recommendation dynamics&amp;quot;, arXiv:2004.09603. [https://arxiv.org/abs/2004.09603](https://arxiv.org/abs/2004.09603)&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 evidenziano inoltre che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;Applied Network Science (2024). &#039;&#039;Impact of recommender systems on information diversity&#039;&#039;. [https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3](https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3)&amp;lt;/ref&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;&amp;gt;Springer (2024). &#039;&#039;Algorithmic personalization and its ethical implications&#039;&#039;. [https://link.springer.com/article/10.1007/s13347-024-00758-4](https://link.springer.com/article/10.1007/s13347-024-00758-4)&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, riducendo la capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti mostrano che gli algoritmi di raccomandazione accentuano questa tendenza, riducendo ulteriormente la varietà dei contenuti e contribuendo alla polarizzazione delle opinioni.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Di conseguenza, la filter bubble non solo riduce la diversità informativa, ma può anche influenzare la percezione della realtà e il dibattito pubblico, perché gli utenti si trovano intrappolati in una “bolla” di contenuti che riflettono principalmente le loro idee e preferenze.&lt;br /&gt;
&lt;br /&gt;
==Implicazioni sociali e culturali==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi non influenzano solo ciò che un singolo utente vede, ma hanno anche effetti più ampi sulla società e sulla cultura. Quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, le differenze tra gruppi con visioni diverse tendono a essere enfatizzate, aumentando la polarizzazione sociale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno può ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le filter bubbles possono rafforzare stereotipi, diffondere disinformazione e ridurre l’esposizione a prospettive diverse, creando una società più frammentata. Questo può avere effetti negativi sul dibattito pubblico, sulla coesione sociale e sulla capacità collettiva di affrontare problemi complessi.&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative possono influenzare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che può condurre a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rischi==&lt;br /&gt;
&lt;br /&gt;
La filter bubble comporta diversi rischi per l’utente e per la società. Tra i principali:&lt;br /&gt;
&lt;br /&gt;
===Esposizione limitata a informazioni coerenti con le proprie idee===&lt;br /&gt;
Gli utenti vedono principalmente contenuti che confermano le loro convinzioni, riducendo la capacità di confrontarsi con opinioni diverse.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Ridotta comprensione di punti di vista alternativi===&lt;br /&gt;
La mancanza di esposizione a prospettive diverse può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche o culturali.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Maggiore vulnerabilità a influenze esterne===&lt;br /&gt;
Essere intrappolati in una bolla informativa può rendere gli utenti più facilmente influenzabili da pubblicità mirate, notizie parziali o contenuti manipolativi, aumentando il rischio di disinformazione e di decisioni basate su informazioni incomplete.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Polarizzazione e frammentazione sociale===&lt;br /&gt;
Quando grandi gruppi di utenti sono esposti solo a contenuti affini alle loro convinzioni, si rafforzano divisioni sociali e culturali, riducendo il dialogo e la cooperazione tra diversi segmenti della società.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, i rischi della filter bubble riguardano sia l’esperienza individuale, limitando la capacità di apprendere e comprendere punti di vista diversi, sia l’impatto collettivo, influenzando la società, la politica e la cultura in senso polarizzante.&lt;br /&gt;
&lt;br /&gt;
==Rimedi ipotizzati==&lt;br /&gt;
&lt;br /&gt;
===Consultare fonti diverse===&lt;br /&gt;
Leggere notizie e contenuti provenienti da differenti piattaforme, media e opinioni consente di avere una visione più completa della realtà e riduce il rischio di essere confinati in un ecosistema informativo limitato.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Essere consapevoli del funzionamento degli algoritmi===&lt;br /&gt;
Comprendere come gli algoritmi di personalizzazione selezionano i contenuti permette agli utenti di riconoscere la propria esposizione limitata e di cercare attivamente punti di vista alternativi.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Usare piattaforme che promuovono la varietà dei contenuti===&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti per visualizzare contenuti non filtrati o diversificati. L’uso di tali piattaforme può aiutare a rompere la bolla informativa e aumentare l’esposizione a informazioni eterogenee.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Adottare comportamenti digitali critici===&lt;br /&gt;
Verificare le fonti, confrontare le informazioni e discutere con persone che hanno punti di vista differenti sono pratiche che aiutano a mitigare gli effetti della filter bubble e a promuovere una maggiore consapevolezza digitale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, combinando consapevolezza, diversificazione delle fonti e utilizzo di strumenti adeguati, è possibile ridurre l’impatto della filter bubble sulla percezione della realtà e sul dibattito pubblico.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
* Pariser, E. (2011). &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;. Penguin Press.&lt;br /&gt;
* Sasahara, K., Chen, W., Peng, H., Ciampaglia, G. L., Flammini, A. &amp;amp; Menczer, F. (2019). &#039;&#039;Social Influence and Unfollowing Accelerate the Emergence of Echo Chambers&#039;&#039;. arXiv:1905.03919.&lt;br /&gt;
* Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W. &amp;amp; Starnini, M. (2020). &#039;&#039;Echo Chambers on Social Media: A Comparative Analysis&#039;&#039;. arXiv:2004.09603.&lt;br /&gt;
* Applied Network Science (2024). &#039;&#039;Impact of recommender systems on information diversity&#039;&#039;.&lt;br /&gt;
* Springer (2024). &#039;&#039;Algorithmic personalization and its ethical implications&#039;&#039;.&lt;/div&gt;</summary>
		<author><name>78.212.49.151</name></author>
	</entry>
</feed>