<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="it">
	<id>https://unipedia.fileli.unipi.it/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=131.114.30.18</id>
	<title>Unipedia - Contributi dell&#039;utente [it]</title>
	<link rel="self" type="application/atom+xml" href="https://unipedia.fileli.unipi.it/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=131.114.30.18"/>
	<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Speciale:Contributi/131.114.30.18"/>
	<updated>2026-05-01T23:30:11Z</updated>
	<subtitle>Contributi dell&amp;#039;utente</subtitle>
	<generator>MediaWiki 1.42.1</generator>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13777</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13777"/>
		<updated>2025-12-20T11:12:21Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* Adottare comportamenti digitali critici */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La &#039;&#039;filter bubble&#039;&#039; è l’ambiente virtuale che ciascun utente costruisce su Internet quando sceglie solo i contenuti che gli piacciono. In questa bolla, l&#039;utente vede soprattutto informazioni simili a quelle che già conosce e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie.&lt;br /&gt;
&lt;br /&gt;
Il termine &#039;&#039;filter bubble&#039;&#039; significa “bolla di filtraggio” ed è stato coniato da Eli Pariser nel libro &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della &#039;&#039;filter bubble&#039;&#039;, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, pp. 7-9.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 15.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, il che ridurrebbe la loro capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati.&lt;br /&gt;
&lt;br /&gt;
Altre ricerche mostrano inoltre come i sistemi di raccomandazione possano aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;&#039;&#039;Social influence and unfollowing accelerate the emergence of echo chambers. &#039;&#039; arXiv:1905.03919&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Implicazioni sociali e culturali==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi potrebbero non influenzare solo ciò che un singolo utente vede, ma avere anche effetti più ampi sulla società e sulla cultura. Secondo Pariser, questo accade soprattutto quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, poiché le differenze tra gruppi con visioni diverse tenderebbero a essere enfatizzate, favorendo la polarizzazione sociale.&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno potrebbe ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le &#039;&#039;filter bubble&#039;&#039; potrebbero rafforzare stereotipi, diffondere disinformazione e limitare l’esposizione a prospettive diverse, creando una società più frammentata e influenzando negativamente il dibattito pubblico, la coesione sociale e la capacità collettiva di affrontare problemi complessi.&lt;br /&gt;
&lt;br /&gt;
Infine, le &#039;&#039;filter bubble&#039;&#039; potrebbero condizionare anche il comportamento politico e le scelte culturali, poiché gli utenti ricevono informazioni selezionate in base alle loro preferenze, portando a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, p. 155-156.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rischi==&lt;br /&gt;
&lt;br /&gt;
Secondo diversi studiosi, la &#039;&#039;filter bubble&#039;&#039; comporta diversi rischi sia per l’utente sia per la società nel suo complesso, limitando l’accesso a informazioni diversificate e influenzando i processi cognitivi e sociali.&lt;br /&gt;
&lt;br /&gt;
===Ridotta capacità di confrontarsi con opinioni diverse===&lt;br /&gt;
La &#039;&#039;filter bubble&#039;&#039; tende ad amplificare il cosiddetto *pregiudizio di conferma* (confirmation bias), favorendo la fruizione di contenuti che confermano le idee già possedute e rendendo più difficile l’esposizione a informazioni che mettono in discussione le proprie convinzioni. Questo meccanismo riduce la capacità degli individui di confrontarsi con opinioni diverse e di rivedere criticamente le proprie posizioni.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, pp. 15-16.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Ridotta comprensione di punti di vista alternativi===&lt;br /&gt;
La mancanza di esposizione a prospettive differenti può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche e culturali. Studi sulle dinamiche delle piattaforme digitali mostrano come l’interazione selettiva contribuisca alla formazione di ambienti informativi omogenei, nei quali il confronto con idee alternative risulta fortemente ridotto.&amp;lt;ref&amp;gt;&#039;&#039;Social influence and unfollowing accelerate the emergence of echo chambers.&#039;&#039; arXiv:1905.03919&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;&#039;&#039; Echo chambers on social media: A comparative analysis.&#039;&#039; arXiv:2004.09603&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Maggiore vulnerabilità a influenze esterne===&lt;br /&gt;
Essere intrappolati in una &#039;&#039;filter bubble&#039;&#039; può rendere gli utenti più facilmente influenzabili da pubblicità mirate, narrazioni parziali o contenuti manipolativi. Pariser evidenzia che la personalizzazione dei contenuti può ridurre la rilevanza della sfera pubblica e limitare l’esposizione a informazioni importanti ma complesse, con possibili conseguenze sul funzionamento dei processi democratici.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039; , p. 151.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Polarizzazione e frammentazione sociale===&lt;br /&gt;
Quando ampi gruppi di utenti sono esposti prevalentemente a contenuti coerenti con le proprie convinzioni, si rafforzano le divisioni ideologiche e culturali. Questo fenomeno contribuisce alla polarizzazione del dibattito pubblico e alla frammentazione sociale, riducendo le opportunità di dialogo e di cooperazione tra individui con orientamenti diversi.&amp;lt;ref&amp;gt;&#039;&#039; Echo chambers on social media: A comparative analysis.&#039;&#039; arXiv:2004.09603&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Secondo diversi studi, la *filter bubble* rappresenta un rischio concreto per l’apertura mentale dell’individuo e per la qualità del confronto pubblico, limitando la pluralità informativa e favorendo dinamiche di chiusura cognitiva e sociale.&amp;lt;ref&amp;gt;&#039;&#039; Echo chambers on social media: A comparative analysis.&#039;&#039; arXiv:2004.09603&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rimedi ipotizzati==&lt;br /&gt;
&lt;br /&gt;
===Consultare fonti diverse===&lt;br /&gt;
Consultare notizie e contenuti provenienti da differenti piattaforme, media e orientamenti editoriali permette di ottenere una visione più completa della realtà e di ridurre il rischio di rimanere confinati in un ecosistema informativo limitato. Pariser evidenzia come la personalizzazione dei contenuti online possa ridurre la possibilità di entrare in contatto con punti di vista diversi, e sottolinea l’importanza di esporsi a prospettive differenti per favorire l’apprendimento e la creatività.&amp;lt;ref&amp;gt;Pariser, &#039;&#039; The Filter Bubble &#039;&#039; , pp. 15-17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Essere consapevoli del funzionamento degli algoritmi===&lt;br /&gt;
Comprendere il funzionamento degli algoritmi di personalizzazione, che selezionano i contenuti sulla base delle interazioni dell’utente, permette di riconoscere una possibile esposizione informativa limitata e di cercare attivamente punti di vista alternativi. Gli studi di Sasahara et al. (2020) mostrano come la selezione algoritmica possa rafforzare la polarizzazione e limitare la diversità informativa.&amp;lt;ref&amp;gt;Social influence and unfollowing accelerate the emergence of echo chambers. &#039;&#039; arXiv:1905.03919&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Usare piattaforme che promuovono la varietà dei contenuti===&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti o impostazioni che favoriscono la visualizzazione di contenuti meno filtrati o più diversificati. L’uso consapevole di tali strumenti può contribuire a ridurre l’impatto della bolla informativa e ad ampliare l’orizzonte informativo degli utenti. Cinelli et al. (2021) evidenziano l’efficacia della diversificazione dei contenuti nel ridurre gli effetti delle echo chambers.&amp;lt;ref&amp;gt;&#039;&#039; Echo chambers on social media: A comparative analysis.&#039;&#039; arXiv:2004.09603&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Adottare comportamenti digitali critici===&lt;br /&gt;
&lt;br /&gt;
Verificare l’affidabilità delle fonti e confrontare informazioni provenienti da contesti diversi è essenziale per ridurre gli effetti della filter bubble e aumentare la consapevolezza digitale. Pariser evidenzia come la personalizzazione dei contenuti possa farci ignorare informazioni importanti ma complesse, mentre un uso consapevole di Internet permette di ampliare l’orizzonte informativo e sostenere la partecipazione civica.&lt;br /&gt;
&lt;br /&gt;
La personalizzazione tende a privilegiare ciò che è popolare o genera molti clic, trascurando temi rilevanti ma meno immediati, come eventi internazionali o problemi sociali. Ricercare attivamente queste informazioni favorisce non solo la comprensione critica, ma anche lo sviluppo del ruolo di cittadino informato e della capacità di pensare in modo indipendente.&lt;br /&gt;
&lt;br /&gt;
Inoltre, Pariser sottolinea che la filter bubble non influenza solo la nostra esposizione alle notizie, ma può anche modificare il nostro modo di pensare. Dare priorità ai contenuti più cliccati rischia di creare una visione frammentata della realtà e di ridurre la nostra consapevolezza su questioni importanti ma meno immediatamente attraenti. È quindi fondamentale sviluppare un atteggiamento critico e consapevole, cercando attivamente fonti diverse e informazioni complesse che contribuiscano a una visione più completa del mondo.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, Penguin Press, 2011, pp. 74–76.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
*Pariser, E. (2011). &#039;&#039; The Filter Bubble: What the Internet Is Hiding from You. &#039;&#039; New York: Penguin Press.&lt;br /&gt;
&lt;br /&gt;
*Sasahara, K., Chen, W., Peng, H., Ciampaglia, G. L., Flammini, A., &amp;amp; Menczer, F. (2019). &#039;&#039; Social influence and unfollowing accelerate the emergence of echo chambers. &#039;&#039; arXiv:1905.03919. https://arxiv.org/abs/1905.03919&lt;br /&gt;
&lt;br /&gt;
*Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W., &amp;amp; Starnini, M. (2020). &#039;&#039; Echo chambers on social media: A comparative analysis.&#039;&#039; arXiv:2004.09603. https://arxiv.org/abs/2004.09603&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13776</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13776"/>
		<updated>2025-12-20T11:09:41Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* Adottare comportamenti digitali critici */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La &#039;&#039;filter bubble&#039;&#039; è l’ambiente virtuale che ciascun utente costruisce su Internet quando sceglie solo i contenuti che gli piacciono. In questa bolla, l&#039;utente vede soprattutto informazioni simili a quelle che già conosce e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie.&lt;br /&gt;
&lt;br /&gt;
Il termine &#039;&#039;filter bubble&#039;&#039; significa “bolla di filtraggio” ed è stato coniato da Eli Pariser nel libro &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della &#039;&#039;filter bubble&#039;&#039;, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, pp. 7-9.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 15.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, il che ridurrebbe la loro capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati.&lt;br /&gt;
&lt;br /&gt;
Altre ricerche mostrano inoltre come i sistemi di raccomandazione possano aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;&#039;&#039;Social influence and unfollowing accelerate the emergence of echo chambers. &#039;&#039; arXiv:1905.03919&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Implicazioni sociali e culturali==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi potrebbero non influenzare solo ciò che un singolo utente vede, ma avere anche effetti più ampi sulla società e sulla cultura. Secondo Pariser, questo accade soprattutto quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, poiché le differenze tra gruppi con visioni diverse tenderebbero a essere enfatizzate, favorendo la polarizzazione sociale.&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno potrebbe ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le &#039;&#039;filter bubble&#039;&#039; potrebbero rafforzare stereotipi, diffondere disinformazione e limitare l’esposizione a prospettive diverse, creando una società più frammentata e influenzando negativamente il dibattito pubblico, la coesione sociale e la capacità collettiva di affrontare problemi complessi.&lt;br /&gt;
&lt;br /&gt;
Infine, le &#039;&#039;filter bubble&#039;&#039; potrebbero condizionare anche il comportamento politico e le scelte culturali, poiché gli utenti ricevono informazioni selezionate in base alle loro preferenze, portando a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, p. 155-156.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rischi==&lt;br /&gt;
&lt;br /&gt;
Secondo diversi studiosi, la &#039;&#039;filter bubble&#039;&#039; comporta diversi rischi sia per l’utente sia per la società nel suo complesso, limitando l’accesso a informazioni diversificate e influenzando i processi cognitivi e sociali.&lt;br /&gt;
&lt;br /&gt;
===Ridotta capacità di confrontarsi con opinioni diverse===&lt;br /&gt;
La &#039;&#039;filter bubble&#039;&#039; tende ad amplificare il cosiddetto *pregiudizio di conferma* (confirmation bias), favorendo la fruizione di contenuti che confermano le idee già possedute e rendendo più difficile l’esposizione a informazioni che mettono in discussione le proprie convinzioni. Questo meccanismo riduce la capacità degli individui di confrontarsi con opinioni diverse e di rivedere criticamente le proprie posizioni.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, pp. 15-16.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Ridotta comprensione di punti di vista alternativi===&lt;br /&gt;
La mancanza di esposizione a prospettive differenti può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche e culturali. Studi sulle dinamiche delle piattaforme digitali mostrano come l’interazione selettiva contribuisca alla formazione di ambienti informativi omogenei, nei quali il confronto con idee alternative risulta fortemente ridotto.&amp;lt;ref&amp;gt;&#039;&#039;Social influence and unfollowing accelerate the emergence of echo chambers.&#039;&#039; arXiv:1905.03919&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;&#039;&#039; Echo chambers on social media: A comparative analysis.&#039;&#039; arXiv:2004.09603&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Maggiore vulnerabilità a influenze esterne===&lt;br /&gt;
Essere intrappolati in una &#039;&#039;filter bubble&#039;&#039; può rendere gli utenti più facilmente influenzabili da pubblicità mirate, narrazioni parziali o contenuti manipolativi. Pariser evidenzia che la personalizzazione dei contenuti può ridurre la rilevanza della sfera pubblica e limitare l’esposizione a informazioni importanti ma complesse, con possibili conseguenze sul funzionamento dei processi democratici.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039; , p. 151.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Polarizzazione e frammentazione sociale===&lt;br /&gt;
Quando ampi gruppi di utenti sono esposti prevalentemente a contenuti coerenti con le proprie convinzioni, si rafforzano le divisioni ideologiche e culturali. Questo fenomeno contribuisce alla polarizzazione del dibattito pubblico e alla frammentazione sociale, riducendo le opportunità di dialogo e di cooperazione tra individui con orientamenti diversi.&amp;lt;ref&amp;gt;&#039;&#039; Echo chambers on social media: A comparative analysis.&#039;&#039; arXiv:2004.09603&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Secondo diversi studi, la *filter bubble* rappresenta un rischio concreto per l’apertura mentale dell’individuo e per la qualità del confronto pubblico, limitando la pluralità informativa e favorendo dinamiche di chiusura cognitiva e sociale.&amp;lt;ref&amp;gt;&#039;&#039; Echo chambers on social media: A comparative analysis.&#039;&#039; arXiv:2004.09603&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rimedi ipotizzati==&lt;br /&gt;
&lt;br /&gt;
===Consultare fonti diverse===&lt;br /&gt;
Consultare notizie e contenuti provenienti da differenti piattaforme, media e orientamenti editoriali permette di ottenere una visione più completa della realtà e di ridurre il rischio di rimanere confinati in un ecosistema informativo limitato. Pariser evidenzia come la personalizzazione dei contenuti online possa ridurre la possibilità di entrare in contatto con punti di vista diversi, e sottolinea l’importanza di esporsi a prospettive differenti per favorire l’apprendimento e la creatività.&amp;lt;ref&amp;gt;Pariser, &#039;&#039; The Filter Bubble &#039;&#039; , pp. 15-17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Essere consapevoli del funzionamento degli algoritmi===&lt;br /&gt;
Comprendere il funzionamento degli algoritmi di personalizzazione, che selezionano i contenuti sulla base delle interazioni dell’utente, permette di riconoscere una possibile esposizione informativa limitata e di cercare attivamente punti di vista alternativi. Gli studi di Sasahara et al. (2020) mostrano come la selezione algoritmica possa rafforzare la polarizzazione e limitare la diversità informativa.&amp;lt;ref&amp;gt;Social influence and unfollowing accelerate the emergence of echo chambers. &#039;&#039; arXiv:1905.03919&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Usare piattaforme che promuovono la varietà dei contenuti===&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti o impostazioni che favoriscono la visualizzazione di contenuti meno filtrati o più diversificati. L’uso consapevole di tali strumenti può contribuire a ridurre l’impatto della bolla informativa e ad ampliare l’orizzonte informativo degli utenti. Cinelli et al. (2021) evidenziano l’efficacia della diversificazione dei contenuti nel ridurre gli effetti delle echo chambers.&amp;lt;ref&amp;gt;&#039;&#039; Echo chambers on social media: A comparative analysis.&#039;&#039; arXiv:2004.09603&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Adottare comportamenti digitali critici===&lt;br /&gt;
&lt;br /&gt;
Verificare l’affidabilità delle fonti e confrontare informazioni provenienti da contesti diversi è fondamentale per ridurre gli effetti della filter bubble e aumentare la consapevolezza digitale. Pariser evidenzia come la personalizzazione dei contenuti possa farci ignorare informazioni importanti ma complesse, mentre un uso consapevole di Internet permette di ampliare l’orizzonte informativo e sostenere la partecipazione civica.&lt;br /&gt;
&lt;br /&gt;
La personalizzazione tende a privilegiare ciò che è popolare o cliccato, trascurando questioni rilevanti ma meno immediate, come eventi internazionali o problemi sociali. Ricercare attivamente queste informazioni favorisce non solo la comprensione critica, ma anche il ruolo di cittadino informato.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, Penguin Press, 2011, pp. 74–76.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
*Pariser, E. (2011). &#039;&#039; The Filter Bubble: What the Internet Is Hiding from You. &#039;&#039; New York: Penguin Press.&lt;br /&gt;
&lt;br /&gt;
*Sasahara, K., Chen, W., Peng, H., Ciampaglia, G. L., Flammini, A., &amp;amp; Menczer, F. (2019). &#039;&#039; Social influence and unfollowing accelerate the emergence of echo chambers. &#039;&#039; arXiv:1905.03919. https://arxiv.org/abs/1905.03919&lt;br /&gt;
&lt;br /&gt;
*Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W., &amp;amp; Starnini, M. (2020). &#039;&#039; Echo chambers on social media: A comparative analysis.&#039;&#039; arXiv:2004.09603. https://arxiv.org/abs/2004.09603&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13763</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13763"/>
		<updated>2025-12-18T17:41:53Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La &#039;&#039;filter bubble&#039;&#039; è l’ambiente virtuale che ciascun utente costruisce su Internet quando sceglie solo i contenuti che gli piacciono. In questa bolla, l&#039;utente vede soprattutto informazioni simili a quelle che già conosce e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie.&lt;br /&gt;
&lt;br /&gt;
Il termine &#039;&#039;filter bubble&#039;&#039; significa “bolla di filtraggio” ed è stato coniato da Eli Pariser nel libro &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della &#039;&#039;filter bubble&#039;&#039;, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, pp. 7-9.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 15.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, il che ridurrebbe la loro capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati.&lt;br /&gt;
&lt;br /&gt;
Altre ricerche mostrano inoltre come i sistemi di raccomandazione possano aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;&#039;&#039;Social influence and unfollowing accelerate the emergence of echo chambers. &#039;&#039; arXiv:1905.03919&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Implicazioni sociali e culturali==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi potrebbero non influenzare solo ciò che un singolo utente vede, ma avere anche effetti più ampi sulla società e sulla cultura. Secondo Pariser, questo accade soprattutto quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, poiché le differenze tra gruppi con visioni diverse tenderebbero a essere enfatizzate, favorendo la polarizzazione sociale.&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno potrebbe ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le &#039;&#039;filter bubble&#039;&#039; potrebbero rafforzare stereotipi, diffondere disinformazione e limitare l’esposizione a prospettive diverse, creando una società più frammentata e influenzando negativamente il dibattito pubblico, la coesione sociale e la capacità collettiva di affrontare problemi complessi.&lt;br /&gt;
&lt;br /&gt;
Infine, le &#039;&#039;filter bubble&#039;&#039; potrebbero condizionare anche il comportamento politico e le scelte culturali, poiché gli utenti ricevono informazioni selezionate in base alle loro preferenze, portando a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, p. 155-156.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rischi==&lt;br /&gt;
&lt;br /&gt;
Secondo diversi studiosi, la &#039;&#039;filter bubble&#039;&#039; comporta diversi rischi sia per l’utente sia per la società nel suo complesso, limitando l’accesso a informazioni diversificate e influenzando i processi cognitivi e sociali.&lt;br /&gt;
&lt;br /&gt;
===Ridotta capacità di confrontarsi con opinioni diverse===&lt;br /&gt;
La &#039;&#039;filter bubble&#039;&#039; tende ad amplificare il cosiddetto *pregiudizio di conferma* (confirmation bias), favorendo la fruizione di contenuti che confermano le idee già possedute e rendendo più difficile l’esposizione a informazioni che mettono in discussione le proprie convinzioni. Questo meccanismo riduce la capacità degli individui di confrontarsi con opinioni diverse e di rivedere criticamente le proprie posizioni.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, pp. 15-16.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Ridotta comprensione di punti di vista alternativi===&lt;br /&gt;
La mancanza di esposizione a prospettive differenti può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche e culturali. Studi sulle dinamiche delle piattaforme digitali mostrano come l’interazione selettiva contribuisca alla formazione di ambienti informativi omogenei, nei quali il confronto con idee alternative risulta fortemente ridotto.&amp;lt;ref&amp;gt;Social influence and unfollowing accelerate the emergence of echo chambers. &#039;&#039; arXiv:1905.03919&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;&#039;&#039; Echo chambers on social media: A comparative analysis.&#039;&#039; arXiv:2004.09603&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Maggiore vulnerabilità a influenze esterne===&lt;br /&gt;
Essere intrappolati in una &#039;&#039;filter bubble&#039;&#039; può rendere gli utenti più facilmente influenzabili da pubblicità mirate, narrazioni parziali o contenuti manipolativi. Pariser evidenzia che la personalizzazione dei contenuti può ridurre la rilevanza della sfera pubblica e limitare l’esposizione a informazioni importanti ma complesse, con possibili conseguenze sul funzionamento dei processi democratici.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039; , p. 151.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Polarizzazione e frammentazione sociale===&lt;br /&gt;
Quando ampi gruppi di utenti sono esposti prevalentemente a contenuti coerenti con le proprie convinzioni, si rafforzano le divisioni ideologiche e culturali. Questo fenomeno contribuisce alla polarizzazione del dibattito pubblico e alla frammentazione sociale, riducendo le opportunità di dialogo e di cooperazione tra individui con orientamenti diversi.&amp;lt;ref&amp;gt;&#039;&#039; Echo chambers on social media: A comparative analysis.&#039;&#039; arXiv:2004.09603&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Secondo diversi studi, la *filter bubble* rappresenta un rischio concreto per l’apertura mentale dell’individuo e per la qualità del confronto pubblico, limitando la pluralità informativa e favorendo dinamiche di chiusura cognitiva e sociale.&amp;lt;ref&amp;gt;&#039;&#039; Echo chambers on social media: A comparative analysis.&#039;&#039; arXiv:2004.09603&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rimedi ipotizzati==&lt;br /&gt;
&lt;br /&gt;
===Consultare fonti diverse===&lt;br /&gt;
Consultare notizie e contenuti provenienti da differenti piattaforme, media e orientamenti editoriali permette di ottenere una visione più completa della realtà e di ridurre il rischio di rimanere confinati in un ecosistema informativo limitato. Pariser evidenzia come la personalizzazione dei contenuti online possa ridurre la possibilità di entrare in contatto con punti di vista diversi, e sottolinea l’importanza di esporsi a prospettive differenti per favorire l’apprendimento e la creatività.&amp;lt;ref&amp;gt;Pariser, &#039;&#039; The Filter Bubble &#039;&#039; , pp. 15-17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Essere consapevoli del funzionamento degli algoritmi===&lt;br /&gt;
Comprendere il funzionamento degli algoritmi di personalizzazione, che selezionano i contenuti sulla base delle interazioni dell’utente, permette di riconoscere una possibile esposizione informativa limitata e di cercare attivamente punti di vista alternativi. Gli studi di Sasahara et al. (2020) mostrano come la selezione algoritmica possa rafforzare la polarizzazione e limitare la diversità informativa.&amp;lt;ref&amp;gt;Social influence and unfollowing accelerate the emergence of echo chambers. &#039;&#039; arXiv:1905.03919&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Usare piattaforme che promuovono la varietà dei contenuti===&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti o impostazioni che favoriscono la visualizzazione di contenuti meno filtrati o più diversificati. L’uso consapevole di tali strumenti può contribuire a ridurre l’impatto della bolla informativa e ad ampliare l’orizzonte informativo degli utenti. Cinelli et al. (2021) evidenziano l’efficacia della diversificazione dei contenuti nel ridurre gli effetti delle echo chambers.&amp;lt;ref&amp;gt;&#039;&#039; Echo chambers on social media: A comparative analysis.&#039;&#039; arXiv:2004.09603&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Adottare comportamenti digitali critici===&lt;br /&gt;
Verificare l’affidabilità delle fonti, confrontare informazioni provenienti da contesti diversi e dialogare con persone che esprimono punti di vista differenti sono pratiche fondamentali per mitigare gli effetti della &#039;&#039;filter bubble&#039;&#039; e promuovere una maggiore consapevolezza digitale. Pariser sottolinea come la filter bubble possa farci ignorare informazioni importanti ma complesse e come l’uso consapevole di Internet permetta di ampliare l’orizzonte informativo e sostenere la partecipazione civica.&amp;lt;ref&amp;gt;Pariser, &#039;&#039; The Filter Bubble &#039;&#039; , pp. 74 , 75.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In particolare, l’autore osserva che la personalizzazione dei contenuti può nous faire passer à côté de sujets importants mais complexes, comme des événements internationaux ou des problèmes sociaux, qui touchent indirectement notre vie quotidienne. Rechercher activement ces informations et aller au‑delà des contenus populaires favorise non seulement la compréhension, mais aussi la conscience critique et le rôle de citoyen informé.&amp;lt;ref&amp;gt;Pariser, &#039;&#039; The Filter Bubble &#039;&#039;, pp. 74 , 75.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
*Pariser, E. (2011). &#039;&#039; The Filter Bubble: What the Internet Is Hiding from You. &#039;&#039; New York: Penguin Press.&lt;br /&gt;
&lt;br /&gt;
*Sasahara, K., Chen, W., Peng, H., Ciampaglia, G. L., Flammini, A., &amp;amp; Menczer, F. (2019). &#039;&#039; Social influence and unfollowing accelerate the emergence of echo chambers. &#039;&#039; arXiv:1905.03919. https://arxiv.org/abs/1905.03919&lt;br /&gt;
&lt;br /&gt;
*Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W., &amp;amp; Starnini, M. (2020). &#039;&#039; Echo chambers on social media: A comparative analysis.&#039;&#039; arXiv:2004.09603. https://arxiv.org/abs/2004.09603&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13711</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13711"/>
		<updated>2025-12-16T19:52:51Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La &#039;&#039;filter bubble&#039;&#039; è l’ambiente virtuale che ciascun utente costruisce su Internet quando sceglie solo i contenuti che gli piacciono. In questa bolla, l&#039;utente vede soprattutto informazioni simili a quelle che già conosce e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie.&lt;br /&gt;
&lt;br /&gt;
Il termine &#039;&#039;filter bubble&#039;&#039; significa “bolla di filtraggio” ed è stato coniato da Eli Pariser nel libro &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della &#039;&#039;filter bubble&#039;&#039;, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 15 , 16.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 15 , 16.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, il che ridurrebbe la loro capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;&amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Altre ricerche mostrano inoltre come i sistemi di raccomandazione possano aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;Applied Network Science (2024). Impact of recommender systems on information diversity.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Implicazioni sociali e culturali==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi potrebbero non influenzare solo ciò che un singolo utente vede, ma avere anche effetti più ampi sulla società e sulla cultura. Secondo Pariser, questo accade soprattutto quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, poiché le differenze tra gruppi con visioni diverse tenderebbero a essere enfatizzate, favorendo la polarizzazione sociale.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 5.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno potrebbe ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le &#039;&#039;filter bubble&#039;&#039; potrebbero rafforzare stereotipi, diffondere disinformazione e limitare l’esposizione a prospettive diverse, creando una società più frammentata e influenzando negativamente il dibattito pubblico, la coesione sociale e la capacità collettiva di affrontare problemi complessi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 155.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Infine, le &#039;&#039;filter bubble&#039;&#039; potrebbero condizionare anche il comportamento politico e le scelte culturali, poiché gli utenti ricevono informazioni selezionate in base alle loro preferenze, portando a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 225.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rischi==&lt;br /&gt;
&lt;br /&gt;
Secondo diversi studiosi, la &#039;&#039;filter bubble&#039;&#039; comporta diversi rischi sia per l’utente sia per la società nel suo complesso, limitando l’accesso a informazioni diversificate e influenzando i processi cognitivi e sociali.&lt;br /&gt;
&lt;br /&gt;
===Ridotta capacità di confrontarsi con opinioni diverse===&lt;br /&gt;
La &#039;&#039;filter bubble&#039;&#039; tende ad amplificare il cosiddetto *pregiudizio di conferma* (confirmation bias), favorendo la fruizione di contenuti che confermano le idee già possedute e rendendo più difficile l’esposizione a informazioni che mettono in discussione le proprie convinzioni. Questo meccanismo riduce la capacità degli individui di confrontarsi con opinioni diverse e di rivedere criticamente le proprie posizioni.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 2 , 3, 15 ,16.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Ridotta comprensione di punti di vista alternativi===&lt;br /&gt;
La mancanza di esposizione a prospettive differenti può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche e culturali. Studi sulle dinamiche delle piattaforme digitali mostrano come l’interazione selettiva contribuisca alla formazione di ambienti informativi omogenei, nei quali il confronto con idee alternative risulta fortemente ridotto.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Maggiore vulnerabilità a influenze esterne===&lt;br /&gt;
Essere intrappolati in una &#039;&#039;filter bubble&#039;&#039; può rendere gli utenti più facilmente influenzabili da pubblicità mirate, narrazioni parziali o contenuti manipolativi. Pariser evidenzia che la personalizzazione dei contenuti può ridurre la rilevanza della sfera pubblica e limitare l’esposizione a informazioni importanti ma complesse, con possibili conseguenze sul funzionamento dei processi democratici.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Polarizzazione e frammentazione sociale===&lt;br /&gt;
Quando ampi gruppi di utenti sono esposti prevalentemente a contenuti coerenti con le proprie convinzioni, si rafforzano le divisioni ideologiche e culturali. Questo fenomeno contribuisce alla polarizzazione del dibattito pubblico e alla frammentazione sociale, riducendo le opportunità di dialogo e di cooperazione tra individui con orientamenti diversi.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Secondo diversi studi, la *filter bubble* rappresenta un rischio concreto per l’apertura mentale dell’individuo e per la qualità del confronto pubblico, limitando la pluralità informativa e favorendo dinamiche di chiusura cognitiva e sociale.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rimedi ipotizzati==&lt;br /&gt;
&lt;br /&gt;
===Consultare fonti diverse===&lt;br /&gt;
Consultare notizie e contenuti provenienti da differenti piattaforme, media e orientamenti editoriali permette di ottenere una visione più completa della realtà e di ridurre il rischio di rimanere confinati in un ecosistema informativo limitato. Pariser evidenzia come la personalizzazione dei contenuti online possa ridurre la possibilità di entrare in contatto con punti di vista diversi, e sottolinea l’importanza di esporsi a prospettive differenti per favorire l’apprendimento e la creatività.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 2, 3, 15, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Essere consapevoli del funzionamento degli algoritmi===&lt;br /&gt;
Comprendere il funzionamento degli algoritmi di personalizzazione, che selezionano i contenuti sulla base delle interazioni dell’utente, permette di riconoscere una possibile esposizione informativa limitata e di cercare attivamente punti di vista alternativi. Gli studi di Sasahara et al. (2020) mostrano come la selezione algoritmica possa rafforzare la polarizzazione e limitare la diversità informativa.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Usare piattaforme che promuovono la varietà dei contenuti===&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti o impostazioni che favoriscono la visualizzazione di contenuti meno filtrati o più diversificati. L’uso consapevole di tali strumenti può contribuire a ridurre l’impatto della bolla informativa e ad ampliare l’orizzonte informativo degli utenti. Cinelli et al. (2021) evidenziano l’efficacia della diversificazione dei contenuti nel ridurre gli effetti delle echo chambers.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Adottare comportamenti digitali critici===&lt;br /&gt;
Verificare l’affidabilità delle fonti, confrontare informazioni provenienti da contesti diversi e dialogare con persone che esprimono punti di vista differenti sono pratiche fondamentali per mitigare gli effetti della &#039;&#039;filter bubble&#039;&#039; e promuovere una maggiore consapevolezza digitale. Pariser sottolinea come la filter bubble possa farci ignorare informazioni importanti ma complesse e come l’uso consapevole di Internet permetta di ampliare l’orizzonte informativo e sostenere la partecipazione civica.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 74 , 75.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In particolare, l’autore osserva che la personalizzazione dei contenuti può nous faire passer à côté de sujets importants mais complexes, comme des événements internationaux ou des problèmes sociaux, qui touchent indirectement notre vie quotidienne. Rechercher activement ces informations et aller au‑delà des contenus populaires favorise non seulement la compréhension, mais aussi la conscience critique et le rôle de citoyen informé.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 74 , 75.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. New York: Penguin Press.&lt;br /&gt;
&lt;br /&gt;
Sasahara, K., Chen, W., Peng, H., Ciampaglia, G. L., Flammini, A., &amp;amp; Menczer, F. (2019). Social influence and unfollowing accelerate the emergence of echo chambers. arXiv:1905.03919. https://arxiv.org/abs/1905.03919&lt;br /&gt;
&lt;br /&gt;
Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W., &amp;amp; Starnini, M. (2020). Echo chambers on social media: A comparative analysis. arXiv:2004.09603. https://arxiv.org/abs/2004.09603&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13710</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13710"/>
		<updated>2025-12-16T19:35:36Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* Funzionamento degli algoritmi */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La &#039;&#039;filter bubble&#039;&#039; è l’ambiente virtuale che ciascun utente costruisce su Internet quando sceglie solo i contenuti che gli piacciono. In questa bolla, l&#039;utente vede soprattutto informazioni simili a quelle che già conosce e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie.&lt;br /&gt;
&lt;br /&gt;
Il termine &#039;&#039;filter bubble&#039;&#039; significa “bolla di filtraggio” ed è stato coniato da Eli Pariser nel libro &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;. &amp;lt;ref&amp;gt;Pariser, The Filter Bubble, Introduzione.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della &#039;&#039;filter bubble&#039;&#039;, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 15 , 16.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 15 , 16.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, il che ridurrebbe la loro capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;&amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Altre ricerche mostrano inoltre come i sistemi di raccomandazione possano aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;Applied Network Science (2024). Impact of recommender systems on information diversity.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Implicazioni sociali e culturali==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi potrebbero non influenzare solo ciò che un singolo utente vede, ma avere anche effetti più ampi sulla società e sulla cultura. Secondo Pariser, questo accade soprattutto quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, poiché le differenze tra gruppi con visioni diverse tenderebbero a essere enfatizzate, favorendo la polarizzazione sociale.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 5.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno potrebbe ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le &#039;&#039;filter bubble&#039;&#039; potrebbero rafforzare stereotipi, diffondere disinformazione e limitare l’esposizione a prospettive diverse, creando una società più frammentata e influenzando negativamente il dibattito pubblico, la coesione sociale e la capacità collettiva di affrontare problemi complessi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 155.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Infine, le &#039;&#039;filter bubble&#039;&#039; potrebbero condizionare anche il comportamento politico e le scelte culturali, poiché gli utenti ricevono informazioni selezionate in base alle loro preferenze, portando a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 225.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rischi==&lt;br /&gt;
&lt;br /&gt;
Secondo diversi studiosi, la &#039;&#039;filter bubble&#039;&#039; comporta diversi rischi sia per l’utente sia per la società nel suo complesso, limitando l’accesso a informazioni diversificate e influenzando i processi cognitivi e sociali.&lt;br /&gt;
&lt;br /&gt;
===Ridotta capacità di confrontarsi con opinioni diverse===&lt;br /&gt;
La &#039;&#039;filter bubble&#039;&#039; tende ad amplificare il cosiddetto *pregiudizio di conferma* (confirmation bias), favorendo la fruizione di contenuti che confermano le idee già possedute e rendendo più difficile l’esposizione a informazioni che mettono in discussione le proprie convinzioni. Questo meccanismo riduce la capacità degli individui di confrontarsi con opinioni diverse e di rivedere criticamente le proprie posizioni.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 2 , 3, 15 ,16.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Ridotta comprensione di punti di vista alternativi===&lt;br /&gt;
La mancanza di esposizione a prospettive differenti può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche e culturali. Studi sulle dinamiche delle piattaforme digitali mostrano come l’interazione selettiva contribuisca alla formazione di ambienti informativi omogenei, nei quali il confronto con idee alternative risulta fortemente ridotto.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Maggiore vulnerabilità a influenze esterne===&lt;br /&gt;
Essere intrappolati in una &#039;&#039;filter bubble&#039;&#039; può rendere gli utenti più facilmente influenzabili da pubblicità mirate, narrazioni parziali o contenuti manipolativi. Pariser evidenzia che la personalizzazione dei contenuti può ridurre la rilevanza della sfera pubblica e limitare l’esposizione a informazioni importanti ma complesse, con possibili conseguenze sul funzionamento dei processi democratici.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Polarizzazione e frammentazione sociale===&lt;br /&gt;
Quando ampi gruppi di utenti sono esposti prevalentemente a contenuti coerenti con le proprie convinzioni, si rafforzano le divisioni ideologiche e culturali. Questo fenomeno contribuisce alla polarizzazione del dibattito pubblico e alla frammentazione sociale, riducendo le opportunità di dialogo e di cooperazione tra individui con orientamenti diversi.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Secondo diversi studi, la *filter bubble* rappresenta un rischio concreto per l’apertura mentale dell’individuo e per la qualità del confronto pubblico, limitando la pluralità informativa e favorendo dinamiche di chiusura cognitiva e sociale.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rimedi ipotizzati==&lt;br /&gt;
&lt;br /&gt;
===Consultare fonti diverse===&lt;br /&gt;
Consultare notizie e contenuti provenienti da differenti piattaforme, media e orientamenti editoriali permette di ottenere una visione più completa della realtà e di ridurre il rischio di rimanere confinati in un ecosistema informativo limitato. Pariser evidenzia come la personalizzazione dei contenuti online possa ridurre la possibilità di entrare in contatto con punti di vista diversi, e sottolinea l’importanza di esporsi a prospettive differenti per favorire l’apprendimento e la creatività.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 2, 3, 15, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Essere consapevoli del funzionamento degli algoritmi===&lt;br /&gt;
Comprendere il funzionamento degli algoritmi di personalizzazione, che selezionano i contenuti sulla base delle interazioni dell’utente, permette di riconoscere una possibile esposizione informativa limitata e di cercare attivamente punti di vista alternativi. Gli studi di Sasahara et al. (2020) mostrano come la selezione algoritmica possa rafforzare la polarizzazione e limitare la diversità informativa.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Usare piattaforme che promuovono la varietà dei contenuti===&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti o impostazioni che favoriscono la visualizzazione di contenuti meno filtrati o più diversificati. L’uso consapevole di tali strumenti può contribuire a ridurre l’impatto della bolla informativa e ad ampliare l’orizzonte informativo degli utenti. Cinelli et al. (2021) evidenziano l’efficacia della diversificazione dei contenuti nel ridurre gli effetti delle echo chambers.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Adottare comportamenti digitali critici===&lt;br /&gt;
Verificare l’affidabilità delle fonti, confrontare informazioni provenienti da contesti diversi e dialogare con persone che esprimono punti di vista differenti sono pratiche fondamentali per mitigare gli effetti della &#039;&#039;filter bubble&#039;&#039; e promuovere una maggiore consapevolezza digitale. Pariser sottolinea come la filter bubble possa farci ignorare informazioni importanti ma complesse e come l’uso consapevole di Internet permetta di ampliare l’orizzonte informativo e sostenere la partecipazione civica.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 74 , 75.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In particolare, l’autore osserva che la personalizzazione dei contenuti può nous faire passer à côté de sujets importants mais complexes, comme des événements internationaux ou des problèmes sociaux, qui touchent indirectement notre vie quotidienne. Rechercher activement ces informations et aller au‑delà des contenus populaires favorise non seulement la compréhension, mais aussi la conscience critique et le rôle de citoyen informé.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 74 , 75.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. New York: Penguin Press.&lt;br /&gt;
&lt;br /&gt;
Sasahara, K., Chen, W., Peng, H., Ciampaglia, G. L., Flammini, A., &amp;amp; Menczer, F. (2019). Social influence and unfollowing accelerate the emergence of echo chambers. arXiv:1905.03919. https://arxiv.org/abs/1905.03919&lt;br /&gt;
&lt;br /&gt;
Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W., &amp;amp; Starnini, M. (2020). Echo chambers on social media: A comparative analysis. arXiv:2004.09603. https://arxiv.org/abs/2004.09603&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13709</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13709"/>
		<updated>2025-12-16T19:33:32Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* Effetti ipotizzati */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La &#039;&#039;filter bubble&#039;&#039; è l’ambiente virtuale che ciascun utente costruisce su Internet quando sceglie solo i contenuti che gli piacciono. In questa bolla, l&#039;utente vede soprattutto informazioni simili a quelle che già conosce e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie.&lt;br /&gt;
&lt;br /&gt;
Il termine &#039;&#039;filter bubble&#039;&#039; significa “bolla di filtraggio” ed è stato coniato da Eli Pariser nel libro &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;. &amp;lt;ref&amp;gt;Pariser, The Filter Bubble, Introduzione.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della &#039;&#039;filter bubble&#039;&#039;, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 15 , 16.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, il che ridurrebbe la loro capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;&amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Altre ricerche mostrano inoltre come i sistemi di raccomandazione possano aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;Applied Network Science (2024). Impact of recommender systems on information diversity.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Implicazioni sociali e culturali==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi potrebbero non influenzare solo ciò che un singolo utente vede, ma avere anche effetti più ampi sulla società e sulla cultura. Secondo Pariser, questo accade soprattutto quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, poiché le differenze tra gruppi con visioni diverse tenderebbero a essere enfatizzate, favorendo la polarizzazione sociale.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 5.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno potrebbe ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le &#039;&#039;filter bubble&#039;&#039; potrebbero rafforzare stereotipi, diffondere disinformazione e limitare l’esposizione a prospettive diverse, creando una società più frammentata e influenzando negativamente il dibattito pubblico, la coesione sociale e la capacità collettiva di affrontare problemi complessi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 155.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Infine, le &#039;&#039;filter bubble&#039;&#039; potrebbero condizionare anche il comportamento politico e le scelte culturali, poiché gli utenti ricevono informazioni selezionate in base alle loro preferenze, portando a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 225.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rischi==&lt;br /&gt;
&lt;br /&gt;
Secondo diversi studiosi, la &#039;&#039;filter bubble&#039;&#039; comporta diversi rischi sia per l’utente sia per la società nel suo complesso, limitando l’accesso a informazioni diversificate e influenzando i processi cognitivi e sociali.&lt;br /&gt;
&lt;br /&gt;
===Ridotta capacità di confrontarsi con opinioni diverse===&lt;br /&gt;
La &#039;&#039;filter bubble&#039;&#039; tende ad amplificare il cosiddetto *pregiudizio di conferma* (confirmation bias), favorendo la fruizione di contenuti che confermano le idee già possedute e rendendo più difficile l’esposizione a informazioni che mettono in discussione le proprie convinzioni. Questo meccanismo riduce la capacità degli individui di confrontarsi con opinioni diverse e di rivedere criticamente le proprie posizioni.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 2 , 3, 15 ,16.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Ridotta comprensione di punti di vista alternativi===&lt;br /&gt;
La mancanza di esposizione a prospettive differenti può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche e culturali. Studi sulle dinamiche delle piattaforme digitali mostrano come l’interazione selettiva contribuisca alla formazione di ambienti informativi omogenei, nei quali il confronto con idee alternative risulta fortemente ridotto.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Maggiore vulnerabilità a influenze esterne===&lt;br /&gt;
Essere intrappolati in una &#039;&#039;filter bubble&#039;&#039; può rendere gli utenti più facilmente influenzabili da pubblicità mirate, narrazioni parziali o contenuti manipolativi. Pariser evidenzia che la personalizzazione dei contenuti può ridurre la rilevanza della sfera pubblica e limitare l’esposizione a informazioni importanti ma complesse, con possibili conseguenze sul funzionamento dei processi democratici.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Polarizzazione e frammentazione sociale===&lt;br /&gt;
Quando ampi gruppi di utenti sono esposti prevalentemente a contenuti coerenti con le proprie convinzioni, si rafforzano le divisioni ideologiche e culturali. Questo fenomeno contribuisce alla polarizzazione del dibattito pubblico e alla frammentazione sociale, riducendo le opportunità di dialogo e di cooperazione tra individui con orientamenti diversi.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Secondo diversi studi, la *filter bubble* rappresenta un rischio concreto per l’apertura mentale dell’individuo e per la qualità del confronto pubblico, limitando la pluralità informativa e favorendo dinamiche di chiusura cognitiva e sociale.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rimedi ipotizzati==&lt;br /&gt;
&lt;br /&gt;
===Consultare fonti diverse===&lt;br /&gt;
Consultare notizie e contenuti provenienti da differenti piattaforme, media e orientamenti editoriali permette di ottenere una visione più completa della realtà e di ridurre il rischio di rimanere confinati in un ecosistema informativo limitato. Pariser evidenzia come la personalizzazione dei contenuti online possa ridurre la possibilità di entrare in contatto con punti di vista diversi, e sottolinea l’importanza di esporsi a prospettive differenti per favorire l’apprendimento e la creatività.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 2, 3, 15, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Essere consapevoli del funzionamento degli algoritmi===&lt;br /&gt;
Comprendere il funzionamento degli algoritmi di personalizzazione, che selezionano i contenuti sulla base delle interazioni dell’utente, permette di riconoscere una possibile esposizione informativa limitata e di cercare attivamente punti di vista alternativi. Gli studi di Sasahara et al. (2020) mostrano come la selezione algoritmica possa rafforzare la polarizzazione e limitare la diversità informativa.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Usare piattaforme che promuovono la varietà dei contenuti===&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti o impostazioni che favoriscono la visualizzazione di contenuti meno filtrati o più diversificati. L’uso consapevole di tali strumenti può contribuire a ridurre l’impatto della bolla informativa e ad ampliare l’orizzonte informativo degli utenti. Cinelli et al. (2021) evidenziano l’efficacia della diversificazione dei contenuti nel ridurre gli effetti delle echo chambers.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Adottare comportamenti digitali critici===&lt;br /&gt;
Verificare l’affidabilità delle fonti, confrontare informazioni provenienti da contesti diversi e dialogare con persone che esprimono punti di vista differenti sono pratiche fondamentali per mitigare gli effetti della &#039;&#039;filter bubble&#039;&#039; e promuovere una maggiore consapevolezza digitale. Pariser sottolinea come la filter bubble possa farci ignorare informazioni importanti ma complesse e come l’uso consapevole di Internet permetta di ampliare l’orizzonte informativo e sostenere la partecipazione civica.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 74 , 75.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In particolare, l’autore osserva che la personalizzazione dei contenuti può nous faire passer à côté de sujets importants mais complexes, comme des événements internationaux ou des problèmes sociaux, qui touchent indirectement notre vie quotidienne. Rechercher activement ces informations et aller au‑delà des contenus populaires favorise non seulement la compréhension, mais aussi la conscience critique et le rôle de citoyen informé.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 74 , 75.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. New York: Penguin Press.&lt;br /&gt;
&lt;br /&gt;
Sasahara, K., Chen, W., Peng, H., Ciampaglia, G. L., Flammini, A., &amp;amp; Menczer, F. (2019). Social influence and unfollowing accelerate the emergence of echo chambers. arXiv:1905.03919. https://arxiv.org/abs/1905.03919&lt;br /&gt;
&lt;br /&gt;
Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W., &amp;amp; Starnini, M. (2020). Echo chambers on social media: A comparative analysis. arXiv:2004.09603. https://arxiv.org/abs/2004.09603&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13708</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13708"/>
		<updated>2025-12-16T18:10:38Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* Maggiore vulnerabilità a influenze esterne */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La &#039;&#039;filter bubble&#039;&#039; è l’ambiente virtuale che ciascun utente costruisce su Internet quando sceglie solo i contenuti che gli piacciono. In questa bolla, l&#039;utente vede soprattutto informazioni simili a quelle che già conosce e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie.&lt;br /&gt;
&lt;br /&gt;
Il termine &#039;&#039;filter bubble&#039;&#039; significa “bolla di filtraggio” ed è stato coniato da Eli Pariser nel libro &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;. &amp;lt;ref&amp;gt;Pariser, The Filter Bubble, Introduzione.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della &#039;&#039;filter bubble&#039;&#039;, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 40.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, il che ridurrebbe la loro capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;&amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Altre ricerche mostrano inoltre come i sistemi di raccomandazione possano aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;Applied Network Science (2024). Impact of recommender systems on information diversity.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Implicazioni sociali e culturali==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi potrebbero non influenzare solo ciò che un singolo utente vede, ma avere anche effetti più ampi sulla società e sulla cultura. Secondo Pariser, questo accade soprattutto quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, poiché le differenze tra gruppi con visioni diverse tenderebbero a essere enfatizzate, favorendo la polarizzazione sociale.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 5.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno potrebbe ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le &#039;&#039;filter bubble&#039;&#039; potrebbero rafforzare stereotipi, diffondere disinformazione e limitare l’esposizione a prospettive diverse, creando una società più frammentata e influenzando negativamente il dibattito pubblico, la coesione sociale e la capacità collettiva di affrontare problemi complessi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 155.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Infine, le &#039;&#039;filter bubble&#039;&#039; potrebbero condizionare anche il comportamento politico e le scelte culturali, poiché gli utenti ricevono informazioni selezionate in base alle loro preferenze, portando a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 225.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rischi==&lt;br /&gt;
&lt;br /&gt;
Secondo diversi studiosi, la &#039;&#039;filter bubble&#039;&#039; comporta diversi rischi sia per l’utente sia per la società nel suo complesso, limitando l’accesso a informazioni diversificate e influenzando i processi cognitivi e sociali.&lt;br /&gt;
&lt;br /&gt;
===Ridotta capacità di confrontarsi con opinioni diverse===&lt;br /&gt;
La &#039;&#039;filter bubble&#039;&#039; tende ad amplificare il cosiddetto *pregiudizio di conferma* (confirmation bias), favorendo la fruizione di contenuti che confermano le idee già possedute e rendendo più difficile l’esposizione a informazioni che mettono in discussione le proprie convinzioni. Questo meccanismo riduce la capacità degli individui di confrontarsi con opinioni diverse e di rivedere criticamente le proprie posizioni.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 2 , 3, 15 ,16.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Ridotta comprensione di punti di vista alternativi===&lt;br /&gt;
La mancanza di esposizione a prospettive differenti può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche e culturali. Studi sulle dinamiche delle piattaforme digitali mostrano come l’interazione selettiva contribuisca alla formazione di ambienti informativi omogenei, nei quali il confronto con idee alternative risulta fortemente ridotto.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Maggiore vulnerabilità a influenze esterne===&lt;br /&gt;
Essere intrappolati in una &#039;&#039;filter bubble&#039;&#039; può rendere gli utenti più facilmente influenzabili da pubblicità mirate, narrazioni parziali o contenuti manipolativi. Pariser evidenzia che la personalizzazione dei contenuti può ridurre la rilevanza della sfera pubblica e limitare l’esposizione a informazioni importanti ma complesse, con possibili conseguenze sul funzionamento dei processi democratici.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Polarizzazione e frammentazione sociale===&lt;br /&gt;
Quando ampi gruppi di utenti sono esposti prevalentemente a contenuti coerenti con le proprie convinzioni, si rafforzano le divisioni ideologiche e culturali. Questo fenomeno contribuisce alla polarizzazione del dibattito pubblico e alla frammentazione sociale, riducendo le opportunità di dialogo e di cooperazione tra individui con orientamenti diversi.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Secondo diversi studi, la *filter bubble* rappresenta un rischio concreto per l’apertura mentale dell’individuo e per la qualità del confronto pubblico, limitando la pluralità informativa e favorendo dinamiche di chiusura cognitiva e sociale.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rimedi ipotizzati==&lt;br /&gt;
&lt;br /&gt;
===Consultare fonti diverse===&lt;br /&gt;
Consultare notizie e contenuti provenienti da differenti piattaforme, media e orientamenti editoriali permette di ottenere una visione più completa della realtà e di ridurre il rischio di rimanere confinati in un ecosistema informativo limitato. Pariser evidenzia come la personalizzazione dei contenuti online possa ridurre la possibilità di entrare in contatto con punti di vista diversi, e sottolinea l’importanza di esporsi a prospettive differenti per favorire l’apprendimento e la creatività.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 2, 3, 15, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Essere consapevoli del funzionamento degli algoritmi===&lt;br /&gt;
Comprendere il funzionamento degli algoritmi di personalizzazione, che selezionano i contenuti sulla base delle interazioni dell’utente, permette di riconoscere una possibile esposizione informativa limitata e di cercare attivamente punti di vista alternativi. Gli studi di Sasahara et al. (2020) mostrano come la selezione algoritmica possa rafforzare la polarizzazione e limitare la diversità informativa.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Usare piattaforme che promuovono la varietà dei contenuti===&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti o impostazioni che favoriscono la visualizzazione di contenuti meno filtrati o più diversificati. L’uso consapevole di tali strumenti può contribuire a ridurre l’impatto della bolla informativa e ad ampliare l’orizzonte informativo degli utenti. Cinelli et al. (2021) evidenziano l’efficacia della diversificazione dei contenuti nel ridurre gli effetti delle echo chambers.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Adottare comportamenti digitali critici===&lt;br /&gt;
Verificare l’affidabilità delle fonti, confrontare informazioni provenienti da contesti diversi e dialogare con persone che esprimono punti di vista differenti sono pratiche fondamentali per mitigare gli effetti della &#039;&#039;filter bubble&#039;&#039; e promuovere una maggiore consapevolezza digitale. Pariser sottolinea come la filter bubble possa farci ignorare informazioni importanti ma complesse e come l’uso consapevole di Internet permetta di ampliare l’orizzonte informativo e sostenere la partecipazione civica.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 74 , 75.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In particolare, l’autore osserva che la personalizzazione dei contenuti può nous faire passer à côté de sujets importants mais complexes, comme des événements internationaux ou des problèmes sociaux, qui touchent indirectement notre vie quotidienne. Rechercher activement ces informations et aller au‑delà des contenus populaires favorise non seulement la compréhension, mais aussi la conscience critique et le rôle de citoyen informé.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 74 , 75.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. New York: Penguin Press.&lt;br /&gt;
&lt;br /&gt;
Sasahara, K., Chen, W., Peng, H., Ciampaglia, G. L., Flammini, A., &amp;amp; Menczer, F. (2019). Social influence and unfollowing accelerate the emergence of echo chambers. arXiv:1905.03919. https://arxiv.org/abs/1905.03919&lt;br /&gt;
&lt;br /&gt;
Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W., &amp;amp; Starnini, M. (2020). Echo chambers on social media: A comparative analysis. arXiv:2004.09603. https://arxiv.org/abs/2004.09603&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13707</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13707"/>
		<updated>2025-12-16T18:06:21Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* Bibliografia */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La &#039;&#039;filter bubble&#039;&#039; è l’ambiente virtuale che ciascun utente costruisce su Internet quando sceglie solo i contenuti che gli piacciono. In questa bolla, l&#039;utente vede soprattutto informazioni simili a quelle che già conosce e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie.&lt;br /&gt;
&lt;br /&gt;
Il termine &#039;&#039;filter bubble&#039;&#039; significa “bolla di filtraggio” ed è stato coniato da Eli Pariser nel libro &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;. &amp;lt;ref&amp;gt;Pariser, The Filter Bubble, Introduzione.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della &#039;&#039;filter bubble&#039;&#039;, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 40.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, il che ridurrebbe la loro capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;&amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Altre ricerche mostrano inoltre come i sistemi di raccomandazione possano aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;Applied Network Science (2024). Impact of recommender systems on information diversity.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Implicazioni sociali e culturali==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi potrebbero non influenzare solo ciò che un singolo utente vede, ma avere anche effetti più ampi sulla società e sulla cultura. Secondo Pariser, questo accade soprattutto quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, poiché le differenze tra gruppi con visioni diverse tenderebbero a essere enfatizzate, favorendo la polarizzazione sociale.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 5.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno potrebbe ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le &#039;&#039;filter bubble&#039;&#039; potrebbero rafforzare stereotipi, diffondere disinformazione e limitare l’esposizione a prospettive diverse, creando una società più frammentata e influenzando negativamente il dibattito pubblico, la coesione sociale e la capacità collettiva di affrontare problemi complessi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 155.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Infine, le &#039;&#039;filter bubble&#039;&#039; potrebbero condizionare anche il comportamento politico e le scelte culturali, poiché gli utenti ricevono informazioni selezionate in base alle loro preferenze, portando a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 225.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rischi==&lt;br /&gt;
&lt;br /&gt;
Secondo diversi studiosi, la &#039;&#039;filter bubble&#039;&#039; comporta diversi rischi sia per l’utente sia per la società nel suo complesso, limitando l’accesso a informazioni diversificate e influenzando i processi cognitivi e sociali.&lt;br /&gt;
&lt;br /&gt;
===Ridotta capacità di confrontarsi con opinioni diverse===&lt;br /&gt;
La &#039;&#039;filter bubble&#039;&#039; tende ad amplificare il cosiddetto *pregiudizio di conferma* (confirmation bias), favorendo la fruizione di contenuti che confermano le idee già possedute e rendendo più difficile l’esposizione a informazioni che mettono in discussione le proprie convinzioni. Questo meccanismo riduce la capacità degli individui di confrontarsi con opinioni diverse e di rivedere criticamente le proprie posizioni.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 2 , 3, 15 ,16.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Ridotta comprensione di punti di vista alternativi===&lt;br /&gt;
La mancanza di esposizione a prospettive differenti può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche e culturali. Studi sulle dinamiche delle piattaforme digitali mostrano come l’interazione selettiva contribuisca alla formazione di ambienti informativi omogenei, nei quali il confronto con idee alternative risulta fortemente ridotto.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Maggiore vulnerabilità a influenze esterne===&lt;br /&gt;
Essere intrappolati in una bolla informativa può rendere gli utenti più facilmente influenzabili da pubblicità mirate, narrazioni parziali o contenuti manipolativi. La personalizzazione dei contenuti, basata su segnali di interazione, può favorire decisioni fondate su informazioni incomplete e aumentare il rischio di disinformazione, con possibili conseguenze anche sul funzionamento dei processi democratici.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Polarizzazione e frammentazione sociale===&lt;br /&gt;
Quando ampi gruppi di utenti sono esposti prevalentemente a contenuti coerenti con le proprie convinzioni, si rafforzano le divisioni ideologiche e culturali. Questo fenomeno contribuisce alla polarizzazione del dibattito pubblico e alla frammentazione sociale, riducendo le opportunità di dialogo e di cooperazione tra individui con orientamenti diversi.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Secondo diversi studi, la *filter bubble* rappresenta un rischio concreto per l’apertura mentale dell’individuo e per la qualità del confronto pubblico, limitando la pluralità informativa e favorendo dinamiche di chiusura cognitiva e sociale.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rimedi ipotizzati==&lt;br /&gt;
&lt;br /&gt;
===Consultare fonti diverse===&lt;br /&gt;
Consultare notizie e contenuti provenienti da differenti piattaforme, media e orientamenti editoriali permette di ottenere una visione più completa della realtà e di ridurre il rischio di rimanere confinati in un ecosistema informativo limitato. Pariser evidenzia come la personalizzazione dei contenuti online possa ridurre la possibilità di entrare in contatto con punti di vista diversi, e sottolinea l’importanza di esporsi a prospettive differenti per favorire l’apprendimento e la creatività.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 2, 3, 15, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Essere consapevoli del funzionamento degli algoritmi===&lt;br /&gt;
Comprendere il funzionamento degli algoritmi di personalizzazione, che selezionano i contenuti sulla base delle interazioni dell’utente, permette di riconoscere una possibile esposizione informativa limitata e di cercare attivamente punti di vista alternativi. Gli studi di Sasahara et al. (2020) mostrano come la selezione algoritmica possa rafforzare la polarizzazione e limitare la diversità informativa.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Usare piattaforme che promuovono la varietà dei contenuti===&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti o impostazioni che favoriscono la visualizzazione di contenuti meno filtrati o più diversificati. L’uso consapevole di tali strumenti può contribuire a ridurre l’impatto della bolla informativa e ad ampliare l’orizzonte informativo degli utenti. Cinelli et al. (2021) evidenziano l’efficacia della diversificazione dei contenuti nel ridurre gli effetti delle echo chambers.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Adottare comportamenti digitali critici===&lt;br /&gt;
Verificare l’affidabilità delle fonti, confrontare informazioni provenienti da contesti diversi e dialogare con persone che esprimono punti di vista differenti sono pratiche fondamentali per mitigare gli effetti della &#039;&#039;filter bubble&#039;&#039; e promuovere una maggiore consapevolezza digitale. Pariser sottolinea come la filter bubble possa farci ignorare informazioni importanti ma complesse e come l’uso consapevole di Internet permetta di ampliare l’orizzonte informativo e sostenere la partecipazione civica.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 74 , 75.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In particolare, l’autore osserva che la personalizzazione dei contenuti può nous faire passer à côté de sujets importants mais complexes, comme des événements internationaux ou des problèmes sociaux, qui touchent indirectement notre vie quotidienne. Rechercher activement ces informations et aller au‑delà des contenus populaires favorise non seulement la compréhension, mais aussi la conscience critique et le rôle de citoyen informé.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 74 , 75.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. New York: Penguin Press.&lt;br /&gt;
&lt;br /&gt;
Sasahara, K., Chen, W., Peng, H., Ciampaglia, G. L., Flammini, A., &amp;amp; Menczer, F. (2019). Social influence and unfollowing accelerate the emergence of echo chambers. arXiv:1905.03919. https://arxiv.org/abs/1905.03919&lt;br /&gt;
&lt;br /&gt;
Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W., &amp;amp; Starnini, M. (2020). Echo chambers on social media: A comparative analysis. arXiv:2004.09603. https://arxiv.org/abs/2004.09603&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13706</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13706"/>
		<updated>2025-12-16T18:05:49Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* Adottare comportamenti digitali critici */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La &#039;&#039;filter bubble&#039;&#039; è l’ambiente virtuale che ciascun utente costruisce su Internet quando sceglie solo i contenuti che gli piacciono. In questa bolla, l&#039;utente vede soprattutto informazioni simili a quelle che già conosce e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie.&lt;br /&gt;
&lt;br /&gt;
Il termine &#039;&#039;filter bubble&#039;&#039; significa “bolla di filtraggio” ed è stato coniato da Eli Pariser nel libro &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;. &amp;lt;ref&amp;gt;Pariser, The Filter Bubble, Introduzione.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della &#039;&#039;filter bubble&#039;&#039;, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 40.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, il che ridurrebbe la loro capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;&amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Altre ricerche mostrano inoltre come i sistemi di raccomandazione possano aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;Applied Network Science (2024). Impact of recommender systems on information diversity.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Implicazioni sociali e culturali==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi potrebbero non influenzare solo ciò che un singolo utente vede, ma avere anche effetti più ampi sulla società e sulla cultura. Secondo Pariser, questo accade soprattutto quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, poiché le differenze tra gruppi con visioni diverse tenderebbero a essere enfatizzate, favorendo la polarizzazione sociale.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 5.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno potrebbe ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le &#039;&#039;filter bubble&#039;&#039; potrebbero rafforzare stereotipi, diffondere disinformazione e limitare l’esposizione a prospettive diverse, creando una società più frammentata e influenzando negativamente il dibattito pubblico, la coesione sociale e la capacità collettiva di affrontare problemi complessi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 155.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Infine, le &#039;&#039;filter bubble&#039;&#039; potrebbero condizionare anche il comportamento politico e le scelte culturali, poiché gli utenti ricevono informazioni selezionate in base alle loro preferenze, portando a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 225.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rischi==&lt;br /&gt;
&lt;br /&gt;
Secondo diversi studiosi, la &#039;&#039;filter bubble&#039;&#039; comporta diversi rischi sia per l’utente sia per la società nel suo complesso, limitando l’accesso a informazioni diversificate e influenzando i processi cognitivi e sociali.&lt;br /&gt;
&lt;br /&gt;
===Ridotta capacità di confrontarsi con opinioni diverse===&lt;br /&gt;
La &#039;&#039;filter bubble&#039;&#039; tende ad amplificare il cosiddetto *pregiudizio di conferma* (confirmation bias), favorendo la fruizione di contenuti che confermano le idee già possedute e rendendo più difficile l’esposizione a informazioni che mettono in discussione le proprie convinzioni. Questo meccanismo riduce la capacità degli individui di confrontarsi con opinioni diverse e di rivedere criticamente le proprie posizioni.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 2 , 3, 15 ,16.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Ridotta comprensione di punti di vista alternativi===&lt;br /&gt;
La mancanza di esposizione a prospettive differenti può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche e culturali. Studi sulle dinamiche delle piattaforme digitali mostrano come l’interazione selettiva contribuisca alla formazione di ambienti informativi omogenei, nei quali il confronto con idee alternative risulta fortemente ridotto.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Maggiore vulnerabilità a influenze esterne===&lt;br /&gt;
Essere intrappolati in una bolla informativa può rendere gli utenti più facilmente influenzabili da pubblicità mirate, narrazioni parziali o contenuti manipolativi. La personalizzazione dei contenuti, basata su segnali di interazione, può favorire decisioni fondate su informazioni incomplete e aumentare il rischio di disinformazione, con possibili conseguenze anche sul funzionamento dei processi democratici.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Polarizzazione e frammentazione sociale===&lt;br /&gt;
Quando ampi gruppi di utenti sono esposti prevalentemente a contenuti coerenti con le proprie convinzioni, si rafforzano le divisioni ideologiche e culturali. Questo fenomeno contribuisce alla polarizzazione del dibattito pubblico e alla frammentazione sociale, riducendo le opportunità di dialogo e di cooperazione tra individui con orientamenti diversi.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Secondo diversi studi, la *filter bubble* rappresenta un rischio concreto per l’apertura mentale dell’individuo e per la qualità del confronto pubblico, limitando la pluralità informativa e favorendo dinamiche di chiusura cognitiva e sociale.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rimedi ipotizzati==&lt;br /&gt;
&lt;br /&gt;
===Consultare fonti diverse===&lt;br /&gt;
Consultare notizie e contenuti provenienti da differenti piattaforme, media e orientamenti editoriali permette di ottenere una visione più completa della realtà e di ridurre il rischio di rimanere confinati in un ecosistema informativo limitato. Pariser evidenzia come la personalizzazione dei contenuti online possa ridurre la possibilità di entrare in contatto con punti di vista diversi, e sottolinea l’importanza di esporsi a prospettive differenti per favorire l’apprendimento e la creatività.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 2, 3, 15, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Essere consapevoli del funzionamento degli algoritmi===&lt;br /&gt;
Comprendere il funzionamento degli algoritmi di personalizzazione, che selezionano i contenuti sulla base delle interazioni dell’utente, permette di riconoscere una possibile esposizione informativa limitata e di cercare attivamente punti di vista alternativi. Gli studi di Sasahara et al. (2020) mostrano come la selezione algoritmica possa rafforzare la polarizzazione e limitare la diversità informativa.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Usare piattaforme che promuovono la varietà dei contenuti===&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti o impostazioni che favoriscono la visualizzazione di contenuti meno filtrati o più diversificati. L’uso consapevole di tali strumenti può contribuire a ridurre l’impatto della bolla informativa e ad ampliare l’orizzonte informativo degli utenti. Cinelli et al. (2021) evidenziano l’efficacia della diversificazione dei contenuti nel ridurre gli effetti delle echo chambers.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Adottare comportamenti digitali critici===&lt;br /&gt;
Verificare l’affidabilità delle fonti, confrontare informazioni provenienti da contesti diversi e dialogare con persone che esprimono punti di vista differenti sono pratiche fondamentali per mitigare gli effetti della &#039;&#039;filter bubble&#039;&#039; e promuovere una maggiore consapevolezza digitale. Pariser sottolinea come la filter bubble possa farci ignorare informazioni importanti ma complesse e come l’uso consapevole di Internet permetta di ampliare l’orizzonte informativo e sostenere la partecipazione civica.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 74 , 75.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In particolare, l’autore osserva che la personalizzazione dei contenuti può nous faire passer à côté de sujets importants mais complexes, comme des événements internationaux ou des problèmes sociaux, qui touchent indirectement notre vie quotidienne. Rechercher activement ces informations et aller au‑delà des contenus populaires favorise non seulement la compréhension, mais aussi la conscience critique et le rôle de citoyen informé.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 74 , 75.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. New York: Penguin Press.&lt;br /&gt;
&lt;br /&gt;
Sasahara, K., Chen, W., Peng, H., Ciampaglia, G. L., Flammini, A., &amp;amp; Menczer, F. (2019). Social influence and unfollowing accelerate the emergence of echo chambers. arXiv:1905.03919. https://arxiv.org/abs/1905.03919&lt;br /&gt;
&lt;br /&gt;
Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W., &amp;amp; Starnini, M. (2020). Echo chambers on social media: A comparative analysis. arXiv:2004.09603. https://arxiv.org/abs/2004.09603&lt;br /&gt;
&lt;br /&gt;
Benkler, Y. (2001). Of sirens and Amish children: Autonomy, information, and law. New York University Law Review, 76(3), 109–156.&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13705</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13705"/>
		<updated>2025-12-16T17:47:14Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* Ridotta capacità di confrontarsi con opinioni diverse */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La &#039;&#039;filter bubble&#039;&#039; è l’ambiente virtuale che ciascun utente costruisce su Internet quando sceglie solo i contenuti che gli piacciono. In questa bolla, l&#039;utente vede soprattutto informazioni simili a quelle che già conosce e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie.&lt;br /&gt;
&lt;br /&gt;
Il termine &#039;&#039;filter bubble&#039;&#039; significa “bolla di filtraggio” ed è stato coniato da Eli Pariser nel libro &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;. &amp;lt;ref&amp;gt;Pariser, The Filter Bubble, Introduzione.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della &#039;&#039;filter bubble&#039;&#039;, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 40.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, il che ridurrebbe la loro capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;&amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Altre ricerche mostrano inoltre come i sistemi di raccomandazione possano aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;Applied Network Science (2024). Impact of recommender systems on information diversity.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Implicazioni sociali e culturali==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi potrebbero non influenzare solo ciò che un singolo utente vede, ma avere anche effetti più ampi sulla società e sulla cultura. Secondo Pariser, questo accade soprattutto quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, poiché le differenze tra gruppi con visioni diverse tenderebbero a essere enfatizzate, favorendo la polarizzazione sociale.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 5.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno potrebbe ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le &#039;&#039;filter bubble&#039;&#039; potrebbero rafforzare stereotipi, diffondere disinformazione e limitare l’esposizione a prospettive diverse, creando una società più frammentata e influenzando negativamente il dibattito pubblico, la coesione sociale e la capacità collettiva di affrontare problemi complessi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 155.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Infine, le &#039;&#039;filter bubble&#039;&#039; potrebbero condizionare anche il comportamento politico e le scelte culturali, poiché gli utenti ricevono informazioni selezionate in base alle loro preferenze, portando a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 225.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rischi==&lt;br /&gt;
&lt;br /&gt;
Secondo diversi studiosi, la &#039;&#039;filter bubble&#039;&#039; comporta diversi rischi sia per l’utente sia per la società nel suo complesso, limitando l’accesso a informazioni diversificate e influenzando i processi cognitivi e sociali.&lt;br /&gt;
&lt;br /&gt;
===Ridotta capacità di confrontarsi con opinioni diverse===&lt;br /&gt;
La &#039;&#039;filter bubble&#039;&#039; tende ad amplificare il cosiddetto *pregiudizio di conferma* (confirmation bias), favorendo la fruizione di contenuti che confermano le idee già possedute e rendendo più difficile l’esposizione a informazioni che mettono in discussione le proprie convinzioni. Questo meccanismo riduce la capacità degli individui di confrontarsi con opinioni diverse e di rivedere criticamente le proprie posizioni.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 2 , 3, 15 ,16.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Ridotta comprensione di punti di vista alternativi===&lt;br /&gt;
La mancanza di esposizione a prospettive differenti può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche e culturali. Studi sulle dinamiche delle piattaforme digitali mostrano come l’interazione selettiva contribuisca alla formazione di ambienti informativi omogenei, nei quali il confronto con idee alternative risulta fortemente ridotto.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Maggiore vulnerabilità a influenze esterne===&lt;br /&gt;
Essere intrappolati in una bolla informativa può rendere gli utenti più facilmente influenzabili da pubblicità mirate, narrazioni parziali o contenuti manipolativi. La personalizzazione dei contenuti, basata su segnali di interazione, può favorire decisioni fondate su informazioni incomplete e aumentare il rischio di disinformazione, con possibili conseguenze anche sul funzionamento dei processi democratici.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Polarizzazione e frammentazione sociale===&lt;br /&gt;
Quando ampi gruppi di utenti sono esposti prevalentemente a contenuti coerenti con le proprie convinzioni, si rafforzano le divisioni ideologiche e culturali. Questo fenomeno contribuisce alla polarizzazione del dibattito pubblico e alla frammentazione sociale, riducendo le opportunità di dialogo e di cooperazione tra individui con orientamenti diversi.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Secondo diversi studi, la *filter bubble* rappresenta un rischio concreto per l’apertura mentale dell’individuo e per la qualità del confronto pubblico, limitando la pluralità informativa e favorendo dinamiche di chiusura cognitiva e sociale.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rimedi ipotizzati==&lt;br /&gt;
&lt;br /&gt;
===Consultare fonti diverse===&lt;br /&gt;
Consultare notizie e contenuti provenienti da differenti piattaforme, media e orientamenti editoriali permette di ottenere una visione più completa della realtà e di ridurre il rischio di rimanere confinati in un ecosistema informativo limitato. Pariser evidenzia come la personalizzazione dei contenuti online possa ridurre la possibilità di entrare in contatto con punti di vista diversi, e sottolinea l’importanza di esporsi a prospettive differenti per favorire l’apprendimento e la creatività.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 2, 3, 15, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Essere consapevoli del funzionamento degli algoritmi===&lt;br /&gt;
Comprendere il funzionamento degli algoritmi di personalizzazione, che selezionano i contenuti sulla base delle interazioni dell’utente, permette di riconoscere una possibile esposizione informativa limitata e di cercare attivamente punti di vista alternativi. Gli studi di Sasahara et al. (2020) mostrano come la selezione algoritmica possa rafforzare la polarizzazione e limitare la diversità informativa.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Usare piattaforme che promuovono la varietà dei contenuti===&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti o impostazioni che favoriscono la visualizzazione di contenuti meno filtrati o più diversificati. L’uso consapevole di tali strumenti può contribuire a ridurre l’impatto della bolla informativa e ad ampliare l’orizzonte informativo degli utenti. Cinelli et al. (2021) evidenziano l’efficacia della diversificazione dei contenuti nel ridurre gli effetti delle echo chambers.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Adottare comportamenti digitali critici===&lt;br /&gt;
Verificare l’affidabilità delle fonti, confrontare informazioni provenienti da contesti diversi e dialogare con persone che esprimono punti di vista differenti sono pratiche fondamentali per mitigare gli effetti della &#039;&#039;filter bubble&#039;&#039; e promuovere una maggiore consapevolezza digitale. Studi su creatività e apprendimento (Benkler, 2001; Nemeth &amp;amp; Kwan, 2010; Johnson, 2010) mostrano come l’esposizione a idee e prospettive diverse favorisca l’innovazione e l’apertura mentale.&amp;lt;ref&amp;gt;Benkler, 2001.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, adottare un approccio critico all’uso delle piattaforme digitali, prestare attenzione alle fonti informative e ricercare attivamente la diversità dei contenuti rappresenta una strategia efficace per ridurre gli effetti della &#039;&#039;filter bubble&#039;&#039; e favorire una comprensione più articolata della realtà.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. New York: Penguin Press.&lt;br /&gt;
&lt;br /&gt;
Sasahara, K., Chen, W., Peng, H., Ciampaglia, G. L., Flammini, A., &amp;amp; Menczer, F. (2019). Social influence and unfollowing accelerate the emergence of echo chambers. arXiv:1905.03919. https://arxiv.org/abs/1905.03919&lt;br /&gt;
&lt;br /&gt;
Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W., &amp;amp; Starnini, M. (2020). Echo chambers on social media: A comparative analysis. arXiv:2004.09603. https://arxiv.org/abs/2004.09603&lt;br /&gt;
&lt;br /&gt;
Benkler, Y. (2001). Of sirens and Amish children: Autonomy, information, and law. New York University Law Review, 76(3), 109–156.&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13704</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13704"/>
		<updated>2025-12-16T17:44:22Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* Consultare fonti diverse */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La &#039;&#039;filter bubble&#039;&#039; è l’ambiente virtuale che ciascun utente costruisce su Internet quando sceglie solo i contenuti che gli piacciono. In questa bolla, l&#039;utente vede soprattutto informazioni simili a quelle che già conosce e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie.&lt;br /&gt;
&lt;br /&gt;
Il termine &#039;&#039;filter bubble&#039;&#039; significa “bolla di filtraggio” ed è stato coniato da Eli Pariser nel libro &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;. &amp;lt;ref&amp;gt;Pariser, The Filter Bubble, Introduzione.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della &#039;&#039;filter bubble&#039;&#039;, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 40.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, il che ridurrebbe la loro capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;&amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Altre ricerche mostrano inoltre come i sistemi di raccomandazione possano aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;Applied Network Science (2024). Impact of recommender systems on information diversity.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Implicazioni sociali e culturali==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi potrebbero non influenzare solo ciò che un singolo utente vede, ma avere anche effetti più ampi sulla società e sulla cultura. Secondo Pariser, questo accade soprattutto quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, poiché le differenze tra gruppi con visioni diverse tenderebbero a essere enfatizzate, favorendo la polarizzazione sociale.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 5.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno potrebbe ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le &#039;&#039;filter bubble&#039;&#039; potrebbero rafforzare stereotipi, diffondere disinformazione e limitare l’esposizione a prospettive diverse, creando una società più frammentata e influenzando negativamente il dibattito pubblico, la coesione sociale e la capacità collettiva di affrontare problemi complessi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 155.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Infine, le &#039;&#039;filter bubble&#039;&#039; potrebbero condizionare anche il comportamento politico e le scelte culturali, poiché gli utenti ricevono informazioni selezionate in base alle loro preferenze, portando a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 225.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rischi==&lt;br /&gt;
&lt;br /&gt;
Secondo diversi studiosi, la &#039;&#039;filter bubble&#039;&#039; comporta diversi rischi sia per l’utente sia per la società nel suo complesso, limitando l’accesso a informazioni diversificate e influenzando i processi cognitivi e sociali.&lt;br /&gt;
&lt;br /&gt;
===Ridotta capacità di confrontarsi con opinioni diverse===&lt;br /&gt;
La &#039;&#039;filter bubble&#039;&#039; tende ad amplificare il cosiddetto *pregiudizio di conferma* (confirmation bias), favorendo la fruizione di contenuti che confermano le idee già possedute e rendendo più difficile l’esposizione a informazioni che mettono in discussione le proprie convinzioni. Questo meccanismo riduce la capacità degli individui di confrontarsi con opinioni diverse e di rivedere criticamente le proprie posizioni.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 88.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Ridotta comprensione di punti di vista alternativi===&lt;br /&gt;
La mancanza di esposizione a prospettive differenti può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche e culturali. Studi sulle dinamiche delle piattaforme digitali mostrano come l’interazione selettiva contribuisca alla formazione di ambienti informativi omogenei, nei quali il confronto con idee alternative risulta fortemente ridotto.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Maggiore vulnerabilità a influenze esterne===&lt;br /&gt;
Essere intrappolati in una bolla informativa può rendere gli utenti più facilmente influenzabili da pubblicità mirate, narrazioni parziali o contenuti manipolativi. La personalizzazione dei contenuti, basata su segnali di interazione, può favorire decisioni fondate su informazioni incomplete e aumentare il rischio di disinformazione, con possibili conseguenze anche sul funzionamento dei processi democratici.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Polarizzazione e frammentazione sociale===&lt;br /&gt;
Quando ampi gruppi di utenti sono esposti prevalentemente a contenuti coerenti con le proprie convinzioni, si rafforzano le divisioni ideologiche e culturali. Questo fenomeno contribuisce alla polarizzazione del dibattito pubblico e alla frammentazione sociale, riducendo le opportunità di dialogo e di cooperazione tra individui con orientamenti diversi.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Secondo diversi studi, la *filter bubble* rappresenta un rischio concreto per l’apertura mentale dell’individuo e per la qualità del confronto pubblico, limitando la pluralità informativa e favorendo dinamiche di chiusura cognitiva e sociale.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rimedi ipotizzati==&lt;br /&gt;
&lt;br /&gt;
===Consultare fonti diverse===&lt;br /&gt;
Consultare notizie e contenuti provenienti da differenti piattaforme, media e orientamenti editoriali permette di ottenere una visione più completa della realtà e di ridurre il rischio di rimanere confinati in un ecosistema informativo limitato. Pariser evidenzia come la personalizzazione dei contenuti online possa ridurre la possibilità di entrare in contatto con punti di vista diversi, e sottolinea l’importanza di esporsi a prospettive differenti per favorire l’apprendimento e la creatività.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 2, 3, 15, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Essere consapevoli del funzionamento degli algoritmi===&lt;br /&gt;
Comprendere il funzionamento degli algoritmi di personalizzazione, che selezionano i contenuti sulla base delle interazioni dell’utente, permette di riconoscere una possibile esposizione informativa limitata e di cercare attivamente punti di vista alternativi. Gli studi di Sasahara et al. (2020) mostrano come la selezione algoritmica possa rafforzare la polarizzazione e limitare la diversità informativa.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Usare piattaforme che promuovono la varietà dei contenuti===&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti o impostazioni che favoriscono la visualizzazione di contenuti meno filtrati o più diversificati. L’uso consapevole di tali strumenti può contribuire a ridurre l’impatto della bolla informativa e ad ampliare l’orizzonte informativo degli utenti. Cinelli et al. (2021) evidenziano l’efficacia della diversificazione dei contenuti nel ridurre gli effetti delle echo chambers.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Adottare comportamenti digitali critici===&lt;br /&gt;
Verificare l’affidabilità delle fonti, confrontare informazioni provenienti da contesti diversi e dialogare con persone che esprimono punti di vista differenti sono pratiche fondamentali per mitigare gli effetti della &#039;&#039;filter bubble&#039;&#039; e promuovere una maggiore consapevolezza digitale. Studi su creatività e apprendimento (Benkler, 2001; Nemeth &amp;amp; Kwan, 2010; Johnson, 2010) mostrano come l’esposizione a idee e prospettive diverse favorisca l’innovazione e l’apertura mentale.&amp;lt;ref&amp;gt;Benkler, 2001.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, adottare un approccio critico all’uso delle piattaforme digitali, prestare attenzione alle fonti informative e ricercare attivamente la diversità dei contenuti rappresenta una strategia efficace per ridurre gli effetti della &#039;&#039;filter bubble&#039;&#039; e favorire una comprensione più articolata della realtà.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. New York: Penguin Press.&lt;br /&gt;
&lt;br /&gt;
Sasahara, K., Chen, W., Peng, H., Ciampaglia, G. L., Flammini, A., &amp;amp; Menczer, F. (2019). Social influence and unfollowing accelerate the emergence of echo chambers. arXiv:1905.03919. https://arxiv.org/abs/1905.03919&lt;br /&gt;
&lt;br /&gt;
Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W., &amp;amp; Starnini, M. (2020). Echo chambers on social media: A comparative analysis. arXiv:2004.09603. https://arxiv.org/abs/2004.09603&lt;br /&gt;
&lt;br /&gt;
Benkler, Y. (2001). Of sirens and Amish children: Autonomy, information, and law. New York University Law Review, 76(3), 109–156.&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13703</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13703"/>
		<updated>2025-12-16T17:29:47Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* Polarizzazione e frammentazione sociale */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La &#039;&#039;filter bubble&#039;&#039; è l’ambiente virtuale che ciascun utente costruisce su Internet quando sceglie solo i contenuti che gli piacciono. In questa bolla, l&#039;utente vede soprattutto informazioni simili a quelle che già conosce e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie.&lt;br /&gt;
&lt;br /&gt;
Il termine &#039;&#039;filter bubble&#039;&#039; significa “bolla di filtraggio” ed è stato coniato da Eli Pariser nel libro &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;. &amp;lt;ref&amp;gt;Pariser, The Filter Bubble, Introduzione.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della &#039;&#039;filter bubble&#039;&#039;, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 40.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, il che ridurrebbe la loro capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;&amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Altre ricerche mostrano inoltre come i sistemi di raccomandazione possano aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;Applied Network Science (2024). Impact of recommender systems on information diversity.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Implicazioni sociali e culturali==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi potrebbero non influenzare solo ciò che un singolo utente vede, ma avere anche effetti più ampi sulla società e sulla cultura. Secondo Pariser, questo accade soprattutto quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, poiché le differenze tra gruppi con visioni diverse tenderebbero a essere enfatizzate, favorendo la polarizzazione sociale.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 5.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno potrebbe ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le &#039;&#039;filter bubble&#039;&#039; potrebbero rafforzare stereotipi, diffondere disinformazione e limitare l’esposizione a prospettive diverse, creando una società più frammentata e influenzando negativamente il dibattito pubblico, la coesione sociale e la capacità collettiva di affrontare problemi complessi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 155.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Infine, le &#039;&#039;filter bubble&#039;&#039; potrebbero condizionare anche il comportamento politico e le scelte culturali, poiché gli utenti ricevono informazioni selezionate in base alle loro preferenze, portando a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 225.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rischi==&lt;br /&gt;
&lt;br /&gt;
Secondo diversi studiosi, la &#039;&#039;filter bubble&#039;&#039; comporta diversi rischi sia per l’utente sia per la società nel suo complesso, limitando l’accesso a informazioni diversificate e influenzando i processi cognitivi e sociali.&lt;br /&gt;
&lt;br /&gt;
===Ridotta capacità di confrontarsi con opinioni diverse===&lt;br /&gt;
La &#039;&#039;filter bubble&#039;&#039; tende ad amplificare il cosiddetto *pregiudizio di conferma* (confirmation bias), favorendo la fruizione di contenuti che confermano le idee già possedute e rendendo più difficile l’esposizione a informazioni che mettono in discussione le proprie convinzioni. Questo meccanismo riduce la capacità degli individui di confrontarsi con opinioni diverse e di rivedere criticamente le proprie posizioni.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 88.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Ridotta comprensione di punti di vista alternativi===&lt;br /&gt;
La mancanza di esposizione a prospettive differenti può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche e culturali. Studi sulle dinamiche delle piattaforme digitali mostrano come l’interazione selettiva contribuisca alla formazione di ambienti informativi omogenei, nei quali il confronto con idee alternative risulta fortemente ridotto.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Maggiore vulnerabilità a influenze esterne===&lt;br /&gt;
Essere intrappolati in una bolla informativa può rendere gli utenti più facilmente influenzabili da pubblicità mirate, narrazioni parziali o contenuti manipolativi. La personalizzazione dei contenuti, basata su segnali di interazione, può favorire decisioni fondate su informazioni incomplete e aumentare il rischio di disinformazione, con possibili conseguenze anche sul funzionamento dei processi democratici.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Polarizzazione e frammentazione sociale===&lt;br /&gt;
Quando ampi gruppi di utenti sono esposti prevalentemente a contenuti coerenti con le proprie convinzioni, si rafforzano le divisioni ideologiche e culturali. Questo fenomeno contribuisce alla polarizzazione del dibattito pubblico e alla frammentazione sociale, riducendo le opportunità di dialogo e di cooperazione tra individui con orientamenti diversi.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Secondo diversi studi, la *filter bubble* rappresenta un rischio concreto per l’apertura mentale dell’individuo e per la qualità del confronto pubblico, limitando la pluralità informativa e favorendo dinamiche di chiusura cognitiva e sociale.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rimedi ipotizzati==&lt;br /&gt;
&lt;br /&gt;
===Consultare fonti diverse===&lt;br /&gt;
Consultare notizie e contenuti provenienti da differenti piattaforme, media e orientamenti editoriali permette di ottenere una visione più completa della realtà e di ridurre il rischio di rimanere confinati in un ecosistema informativo limitato. Pariser evidenzia come la personalizzazione dei contenuti online possa ridurre la possibilità di entrare in contatto con punti di vista diversi, e sottolinea l’importanza di esporsi a prospettive differenti per favorire l’apprendimento e la creatività.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 2, 3, 4, 15, 16, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Essere consapevoli del funzionamento degli algoritmi===&lt;br /&gt;
Comprendere il funzionamento degli algoritmi di personalizzazione, che selezionano i contenuti sulla base delle interazioni dell’utente, permette di riconoscere una possibile esposizione informativa limitata e di cercare attivamente punti di vista alternativi. Gli studi di Sasahara et al. (2020) mostrano come la selezione algoritmica possa rafforzare la polarizzazione e limitare la diversità informativa.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Usare piattaforme che promuovono la varietà dei contenuti===&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti o impostazioni che favoriscono la visualizzazione di contenuti meno filtrati o più diversificati. L’uso consapevole di tali strumenti può contribuire a ridurre l’impatto della bolla informativa e ad ampliare l’orizzonte informativo degli utenti. Cinelli et al. (2021) evidenziano l’efficacia della diversificazione dei contenuti nel ridurre gli effetti delle echo chambers.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Adottare comportamenti digitali critici===&lt;br /&gt;
Verificare l’affidabilità delle fonti, confrontare informazioni provenienti da contesti diversi e dialogare con persone che esprimono punti di vista differenti sono pratiche fondamentali per mitigare gli effetti della &#039;&#039;filter bubble&#039;&#039; e promuovere una maggiore consapevolezza digitale. Studi su creatività e apprendimento (Benkler, 2001; Nemeth &amp;amp; Kwan, 2010; Johnson, 2010) mostrano come l’esposizione a idee e prospettive diverse favorisca l’innovazione e l’apertura mentale.&amp;lt;ref&amp;gt;Benkler, 2001.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, adottare un approccio critico all’uso delle piattaforme digitali, prestare attenzione alle fonti informative e ricercare attivamente la diversità dei contenuti rappresenta una strategia efficace per ridurre gli effetti della &#039;&#039;filter bubble&#039;&#039; e favorire una comprensione più articolata della realtà.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. New York: Penguin Press.&lt;br /&gt;
&lt;br /&gt;
Sasahara, K., Chen, W., Peng, H., Ciampaglia, G. L., Flammini, A., &amp;amp; Menczer, F. (2019). Social influence and unfollowing accelerate the emergence of echo chambers. arXiv:1905.03919. https://arxiv.org/abs/1905.03919&lt;br /&gt;
&lt;br /&gt;
Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W., &amp;amp; Starnini, M. (2020). Echo chambers on social media: A comparative analysis. arXiv:2004.09603. https://arxiv.org/abs/2004.09603&lt;br /&gt;
&lt;br /&gt;
Benkler, Y. (2001). Of sirens and Amish children: Autonomy, information, and law. New York University Law Review, 76(3), 109–156.&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13702</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13702"/>
		<updated>2025-12-16T16:50:34Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* Ridotta capacità di confrontarsi con opinioni diverse */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La &#039;&#039;filter bubble&#039;&#039; è l’ambiente virtuale che ciascun utente costruisce su Internet quando sceglie solo i contenuti che gli piacciono. In questa bolla, l&#039;utente vede soprattutto informazioni simili a quelle che già conosce e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie.&lt;br /&gt;
&lt;br /&gt;
Il termine &#039;&#039;filter bubble&#039;&#039; significa “bolla di filtraggio” ed è stato coniato da Eli Pariser nel libro &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;. &amp;lt;ref&amp;gt;Pariser, The Filter Bubble, Introduzione.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della &#039;&#039;filter bubble&#039;&#039;, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 40.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, il che ridurrebbe la loro capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;&amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Altre ricerche mostrano inoltre come i sistemi di raccomandazione possano aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;Applied Network Science (2024). Impact of recommender systems on information diversity.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Implicazioni sociali e culturali==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi potrebbero non influenzare solo ciò che un singolo utente vede, ma avere anche effetti più ampi sulla società e sulla cultura. Secondo Pariser, questo accade soprattutto quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, poiché le differenze tra gruppi con visioni diverse tenderebbero a essere enfatizzate, favorendo la polarizzazione sociale.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 5.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno potrebbe ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le &#039;&#039;filter bubble&#039;&#039; potrebbero rafforzare stereotipi, diffondere disinformazione e limitare l’esposizione a prospettive diverse, creando una società più frammentata e influenzando negativamente il dibattito pubblico, la coesione sociale e la capacità collettiva di affrontare problemi complessi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 155.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Infine, le &#039;&#039;filter bubble&#039;&#039; potrebbero condizionare anche il comportamento politico e le scelte culturali, poiché gli utenti ricevono informazioni selezionate in base alle loro preferenze, portando a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 225.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rischi==&lt;br /&gt;
&lt;br /&gt;
Secondo diversi studiosi, la &#039;&#039;filter bubble&#039;&#039; comporta diversi rischi sia per l’utente sia per la società nel suo complesso, limitando l’accesso a informazioni diversificate e influenzando i processi cognitivi e sociali.&lt;br /&gt;
&lt;br /&gt;
===Ridotta capacità di confrontarsi con opinioni diverse===&lt;br /&gt;
La &#039;&#039;filter bubble&#039;&#039; tende ad amplificare il cosiddetto *pregiudizio di conferma* (confirmation bias), favorendo la fruizione di contenuti che confermano le idee già possedute e rendendo più difficile l’esposizione a informazioni che mettono in discussione le proprie convinzioni. Questo meccanismo riduce la capacità degli individui di confrontarsi con opinioni diverse e di rivedere criticamente le proprie posizioni.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 88.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Ridotta comprensione di punti di vista alternativi===&lt;br /&gt;
La mancanza di esposizione a prospettive differenti può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche e culturali. Studi sulle dinamiche delle piattaforme digitali mostrano come l’interazione selettiva contribuisca alla formazione di ambienti informativi omogenei, nei quali il confronto con idee alternative risulta fortemente ridotto.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Maggiore vulnerabilità a influenze esterne===&lt;br /&gt;
Essere intrappolati in una bolla informativa può rendere gli utenti più facilmente influenzabili da pubblicità mirate, narrazioni parziali o contenuti manipolativi. La personalizzazione dei contenuti, basata su segnali di interazione, può favorire decisioni fondate su informazioni incomplete e aumentare il rischio di disinformazione, con possibili conseguenze anche sul funzionamento dei processi democratici.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Polarizzazione e frammentazione sociale===&lt;br /&gt;
Quando ampi gruppi di utenti sono esposti prevalentemente a contenuti coerenti con le proprie convinzioni, si rafforzano le divisioni ideologiche e culturali. Questo fenomeno contribuisce alla polarizzazione del dibattito pubblico e alla frammentazione sociale, riducendo le opportunità di dialogo e di cooperazione tra individui con orientamenti diversi.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, la &#039;&#039;filter bubble&#039;&#039; rappresenta un rischio concreto per l’apertura mentale dell’individuo e per la qualità del confronto pubblico, limitando la pluralità informativa e favorendo dinamiche di chiusura cognitiva e sociale.&lt;br /&gt;
&lt;br /&gt;
==Rimedi ipotizzati==&lt;br /&gt;
&lt;br /&gt;
===Consultare fonti diverse===&lt;br /&gt;
Consultare notizie e contenuti provenienti da differenti piattaforme, media e orientamenti editoriali permette di ottenere una visione più completa della realtà e di ridurre il rischio di rimanere confinati in un ecosistema informativo limitato. Pariser evidenzia come la personalizzazione dei contenuti online possa ridurre la possibilità di entrare in contatto con punti di vista diversi, e sottolinea l’importanza di esporsi a prospettive differenti per favorire l’apprendimento e la creatività.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 2, 3, 4, 15, 16, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Essere consapevoli del funzionamento degli algoritmi===&lt;br /&gt;
Comprendere il funzionamento degli algoritmi di personalizzazione, che selezionano i contenuti sulla base delle interazioni dell’utente, permette di riconoscere una possibile esposizione informativa limitata e di cercare attivamente punti di vista alternativi. Gli studi di Sasahara et al. (2020) mostrano come la selezione algoritmica possa rafforzare la polarizzazione e limitare la diversità informativa.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Usare piattaforme che promuovono la varietà dei contenuti===&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti o impostazioni che favoriscono la visualizzazione di contenuti meno filtrati o più diversificati. L’uso consapevole di tali strumenti può contribuire a ridurre l’impatto della bolla informativa e ad ampliare l’orizzonte informativo degli utenti. Cinelli et al. (2021) evidenziano l’efficacia della diversificazione dei contenuti nel ridurre gli effetti delle echo chambers.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Adottare comportamenti digitali critici===&lt;br /&gt;
Verificare l’affidabilità delle fonti, confrontare informazioni provenienti da contesti diversi e dialogare con persone che esprimono punti di vista differenti sono pratiche fondamentali per mitigare gli effetti della &#039;&#039;filter bubble&#039;&#039; e promuovere una maggiore consapevolezza digitale. Studi su creatività e apprendimento (Benkler, 2001; Nemeth &amp;amp; Kwan, 2010; Johnson, 2010) mostrano come l’esposizione a idee e prospettive diverse favorisca l’innovazione e l’apertura mentale.&amp;lt;ref&amp;gt;Benkler, 2001.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, adottare un approccio critico all’uso delle piattaforme digitali, prestare attenzione alle fonti informative e ricercare attivamente la diversità dei contenuti rappresenta una strategia efficace per ridurre gli effetti della &#039;&#039;filter bubble&#039;&#039; e favorire una comprensione più articolata della realtà.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. New York: Penguin Press.&lt;br /&gt;
&lt;br /&gt;
Sasahara, K., Chen, W., Peng, H., Ciampaglia, G. L., Flammini, A., &amp;amp; Menczer, F. (2019). Social influence and unfollowing accelerate the emergence of echo chambers. arXiv:1905.03919. https://arxiv.org/abs/1905.03919&lt;br /&gt;
&lt;br /&gt;
Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W., &amp;amp; Starnini, M. (2020). Echo chambers on social media: A comparative analysis. arXiv:2004.09603. https://arxiv.org/abs/2004.09603&lt;br /&gt;
&lt;br /&gt;
Benkler, Y. (2001). Of sirens and Amish children: Autonomy, information, and law. New York University Law Review, 76(3), 109–156.&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13701</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13701"/>
		<updated>2025-12-16T16:45:45Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* Ridotta capacità di confrontarsi con opinioni diverse */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La &#039;&#039;filter bubble&#039;&#039; è l’ambiente virtuale che ciascun utente costruisce su Internet quando sceglie solo i contenuti che gli piacciono. In questa bolla, l&#039;utente vede soprattutto informazioni simili a quelle che già conosce e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie.&lt;br /&gt;
&lt;br /&gt;
Il termine &#039;&#039;filter bubble&#039;&#039; significa “bolla di filtraggio” ed è stato coniato da Eli Pariser nel libro &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;. &amp;lt;ref&amp;gt;Pariser, The Filter Bubble, Introduzione.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della &#039;&#039;filter bubble&#039;&#039;, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 40.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, il che ridurrebbe la loro capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;&amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Altre ricerche mostrano inoltre come i sistemi di raccomandazione possano aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;Applied Network Science (2024). Impact of recommender systems on information diversity.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Implicazioni sociali e culturali==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi potrebbero non influenzare solo ciò che un singolo utente vede, ma avere anche effetti più ampi sulla società e sulla cultura. Secondo Pariser, questo accade soprattutto quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, poiché le differenze tra gruppi con visioni diverse tenderebbero a essere enfatizzate, favorendo la polarizzazione sociale.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 5.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno potrebbe ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le &#039;&#039;filter bubble&#039;&#039; potrebbero rafforzare stereotipi, diffondere disinformazione e limitare l’esposizione a prospettive diverse, creando una società più frammentata e influenzando negativamente il dibattito pubblico, la coesione sociale e la capacità collettiva di affrontare problemi complessi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 155.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Infine, le &#039;&#039;filter bubble&#039;&#039; potrebbero condizionare anche il comportamento politico e le scelte culturali, poiché gli utenti ricevono informazioni selezionate in base alle loro preferenze, portando a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 225.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rischi==&lt;br /&gt;
&lt;br /&gt;
Secondo diversi studiosi, la &#039;&#039;filter bubble&#039;&#039; comporta diversi rischi sia per l’utente sia per la società nel suo complesso, limitando l’accesso a informazioni diversificate e influenzando i processi cognitivi e sociali.&lt;br /&gt;
&lt;br /&gt;
===Ridotta capacità di confrontarsi con opinioni diverse===&lt;br /&gt;
La *filter bubble* tende ad amplificare il cosiddetto *pregiudizio di conferma* (confirmation bias), favorendo la fruizione di contenuti che confermano le idee già possedute e rendendo più difficile l’esposizione a informazioni che mettono in discussione le proprie convinzioni. Questo meccanismo riduce la capacità degli individui di confrontarsi con opinioni diverse e di rivedere criticamente le proprie posizioni.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 88.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Ridotta comprensione di punti di vista alternativi===&lt;br /&gt;
La mancanza di esposizione a prospettive differenti può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche e culturali. Studi sulle dinamiche delle piattaforme digitali mostrano come l’interazione selettiva contribuisca alla formazione di ambienti informativi omogenei, nei quali il confronto con idee alternative risulta fortemente ridotto.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Maggiore vulnerabilità a influenze esterne===&lt;br /&gt;
Essere intrappolati in una bolla informativa può rendere gli utenti più facilmente influenzabili da pubblicità mirate, narrazioni parziali o contenuti manipolativi. La personalizzazione dei contenuti, basata su segnali di interazione, può favorire decisioni fondate su informazioni incomplete e aumentare il rischio di disinformazione, con possibili conseguenze anche sul funzionamento dei processi democratici.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Polarizzazione e frammentazione sociale===&lt;br /&gt;
Quando ampi gruppi di utenti sono esposti prevalentemente a contenuti coerenti con le proprie convinzioni, si rafforzano le divisioni ideologiche e culturali. Questo fenomeno contribuisce alla polarizzazione del dibattito pubblico e alla frammentazione sociale, riducendo le opportunità di dialogo e di cooperazione tra individui con orientamenti diversi.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, la &#039;&#039;filter bubble&#039;&#039; rappresenta un rischio concreto per l’apertura mentale dell’individuo e per la qualità del confronto pubblico, limitando la pluralità informativa e favorendo dinamiche di chiusura cognitiva e sociale.&lt;br /&gt;
&lt;br /&gt;
==Rimedi ipotizzati==&lt;br /&gt;
&lt;br /&gt;
===Consultare fonti diverse===&lt;br /&gt;
Consultare notizie e contenuti provenienti da differenti piattaforme, media e orientamenti editoriali permette di ottenere una visione più completa della realtà e di ridurre il rischio di rimanere confinati in un ecosistema informativo limitato. Pariser evidenzia come la personalizzazione dei contenuti online possa ridurre la possibilità di entrare in contatto con punti di vista diversi, e sottolinea l’importanza di esporsi a prospettive differenti per favorire l’apprendimento e la creatività.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 2, 3, 4, 15, 16, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Essere consapevoli del funzionamento degli algoritmi===&lt;br /&gt;
Comprendere il funzionamento degli algoritmi di personalizzazione, che selezionano i contenuti sulla base delle interazioni dell’utente, permette di riconoscere una possibile esposizione informativa limitata e di cercare attivamente punti di vista alternativi. Gli studi di Sasahara et al. (2020) mostrano come la selezione algoritmica possa rafforzare la polarizzazione e limitare la diversità informativa.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Usare piattaforme che promuovono la varietà dei contenuti===&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti o impostazioni che favoriscono la visualizzazione di contenuti meno filtrati o più diversificati. L’uso consapevole di tali strumenti può contribuire a ridurre l’impatto della bolla informativa e ad ampliare l’orizzonte informativo degli utenti. Cinelli et al. (2021) evidenziano l’efficacia della diversificazione dei contenuti nel ridurre gli effetti delle echo chambers.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Adottare comportamenti digitali critici===&lt;br /&gt;
Verificare l’affidabilità delle fonti, confrontare informazioni provenienti da contesti diversi e dialogare con persone che esprimono punti di vista differenti sono pratiche fondamentali per mitigare gli effetti della &#039;&#039;filter bubble&#039;&#039; e promuovere una maggiore consapevolezza digitale. Studi su creatività e apprendimento (Benkler, 2001; Nemeth &amp;amp; Kwan, 2010; Johnson, 2010) mostrano come l’esposizione a idee e prospettive diverse favorisca l’innovazione e l’apertura mentale.&amp;lt;ref&amp;gt;Benkler, 2001.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, adottare un approccio critico all’uso delle piattaforme digitali, prestare attenzione alle fonti informative e ricercare attivamente la diversità dei contenuti rappresenta una strategia efficace per ridurre gli effetti della &#039;&#039;filter bubble&#039;&#039; e favorire una comprensione più articolata della realtà.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. New York: Penguin Press.&lt;br /&gt;
&lt;br /&gt;
Sasahara, K., Chen, W., Peng, H., Ciampaglia, G. L., Flammini, A., &amp;amp; Menczer, F. (2019). Social influence and unfollowing accelerate the emergence of echo chambers. arXiv:1905.03919. https://arxiv.org/abs/1905.03919&lt;br /&gt;
&lt;br /&gt;
Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W., &amp;amp; Starnini, M. (2020). Echo chambers on social media: A comparative analysis. arXiv:2004.09603. https://arxiv.org/abs/2004.09603&lt;br /&gt;
&lt;br /&gt;
Benkler, Y. (2001). Of sirens and Amish children: Autonomy, information, and law. New York University Law Review, 76(3), 109–156.&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13700</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13700"/>
		<updated>2025-12-16T16:31:56Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* Rischi */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La &#039;&#039;filter bubble&#039;&#039; è l’ambiente virtuale che ciascun utente costruisce su Internet quando sceglie solo i contenuti che gli piacciono. In questa bolla, l&#039;utente vede soprattutto informazioni simili a quelle che già conosce e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie.&lt;br /&gt;
&lt;br /&gt;
Il termine &#039;&#039;filter bubble&#039;&#039; significa “bolla di filtraggio” ed è stato coniato da Eli Pariser nel libro &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;. &amp;lt;ref&amp;gt;Pariser, The Filter Bubble, Introduzione.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della &#039;&#039;filter bubble&#039;&#039;, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 40.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, il che ridurrebbe la loro capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;&amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Altre ricerche mostrano inoltre come i sistemi di raccomandazione possano aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;Applied Network Science (2024). Impact of recommender systems on information diversity.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Implicazioni sociali e culturali==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi potrebbero non influenzare solo ciò che un singolo utente vede, ma avere anche effetti più ampi sulla società e sulla cultura. Secondo Pariser, questo accade soprattutto quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, poiché le differenze tra gruppi con visioni diverse tenderebbero a essere enfatizzate, favorendo la polarizzazione sociale.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 5.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno potrebbe ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le &#039;&#039;filter bubble&#039;&#039; potrebbero rafforzare stereotipi, diffondere disinformazione e limitare l’esposizione a prospettive diverse, creando una società più frammentata e influenzando negativamente il dibattito pubblico, la coesione sociale e la capacità collettiva di affrontare problemi complessi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 155.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Infine, le &#039;&#039;filter bubble&#039;&#039; potrebbero condizionare anche il comportamento politico e le scelte culturali, poiché gli utenti ricevono informazioni selezionate in base alle loro preferenze, portando a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 225.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rischi==&lt;br /&gt;
&lt;br /&gt;
Secondo diversi studiosi, la &#039;&#039;filter bubble&#039;&#039; comporta diversi rischi sia per l’utente sia per la società nel suo complesso, limitando l’accesso a informazioni diversificate e influenzando i processi cognitivi e sociali.&lt;br /&gt;
&lt;br /&gt;
===Ridotta capacità di confrontarsi con opinioni diverse===&lt;br /&gt;
La &#039;&#039;filter bubble&#039;&#039; tende ad amplificare il &#039;&#039;confirmation bias&#039;&#039;, favorendo la fruizione di contenuti che confermano le idee già possedute e rendendo più difficile l’esposizione a informazioni che mettono in discussione le proprie convinzioni. Questo meccanismo riduce la capacità degli individui di confrontarsi con opinioni diverse e di rivedere criticamente le proprie posizioni.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 88.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Ridotta comprensione di punti di vista alternativi===&lt;br /&gt;
La mancanza di esposizione a prospettive differenti può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche e culturali. Studi sulle dinamiche delle piattaforme digitali mostrano come l’interazione selettiva contribuisca alla formazione di ambienti informativi omogenei, nei quali il confronto con idee alternative risulta fortemente ridotto.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Maggiore vulnerabilità a influenze esterne===&lt;br /&gt;
Essere intrappolati in una bolla informativa può rendere gli utenti più facilmente influenzabili da pubblicità mirate, narrazioni parziali o contenuti manipolativi. La personalizzazione dei contenuti, basata su segnali di interazione, può favorire decisioni fondate su informazioni incomplete e aumentare il rischio di disinformazione, con possibili conseguenze anche sul funzionamento dei processi democratici.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Polarizzazione e frammentazione sociale===&lt;br /&gt;
Quando ampi gruppi di utenti sono esposti prevalentemente a contenuti coerenti con le proprie convinzioni, si rafforzano le divisioni ideologiche e culturali. Questo fenomeno contribuisce alla polarizzazione del dibattito pubblico e alla frammentazione sociale, riducendo le opportunità di dialogo e di cooperazione tra individui con orientamenti diversi.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, la &#039;&#039;filter bubble&#039;&#039; rappresenta un rischio concreto per l’apertura mentale dell’individuo e per la qualità del confronto pubblico, limitando la pluralità informativa e favorendo dinamiche di chiusura cognitiva e sociale.&lt;br /&gt;
&lt;br /&gt;
==Rimedi ipotizzati==&lt;br /&gt;
&lt;br /&gt;
===Consultare fonti diverse===&lt;br /&gt;
Consultare notizie e contenuti provenienti da differenti piattaforme, media e orientamenti editoriali permette di ottenere una visione più completa della realtà e di ridurre il rischio di rimanere confinati in un ecosistema informativo limitato. Pariser evidenzia come la personalizzazione dei contenuti online possa ridurre la possibilità di entrare in contatto con punti di vista diversi, e sottolinea l’importanza di esporsi a prospettive differenti per favorire l’apprendimento e la creatività.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 2, 3, 4, 15, 16, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Essere consapevoli del funzionamento degli algoritmi===&lt;br /&gt;
Comprendere il funzionamento degli algoritmi di personalizzazione, che selezionano i contenuti sulla base delle interazioni dell’utente, permette di riconoscere una possibile esposizione informativa limitata e di cercare attivamente punti di vista alternativi. Gli studi di Sasahara et al. (2020) mostrano come la selezione algoritmica possa rafforzare la polarizzazione e limitare la diversità informativa.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Usare piattaforme che promuovono la varietà dei contenuti===&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti o impostazioni che favoriscono la visualizzazione di contenuti meno filtrati o più diversificati. L’uso consapevole di tali strumenti può contribuire a ridurre l’impatto della bolla informativa e ad ampliare l’orizzonte informativo degli utenti. Cinelli et al. (2021) evidenziano l’efficacia della diversificazione dei contenuti nel ridurre gli effetti delle echo chambers.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Adottare comportamenti digitali critici===&lt;br /&gt;
Verificare l’affidabilità delle fonti, confrontare informazioni provenienti da contesti diversi e dialogare con persone che esprimono punti di vista differenti sono pratiche fondamentali per mitigare gli effetti della &#039;&#039;filter bubble&#039;&#039; e promuovere una maggiore consapevolezza digitale. Studi su creatività e apprendimento (Benkler, 2001; Nemeth &amp;amp; Kwan, 2010; Johnson, 2010) mostrano come l’esposizione a idee e prospettive diverse favorisca l’innovazione e l’apertura mentale.&amp;lt;ref&amp;gt;Benkler, 2001.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, adottare un approccio critico all’uso delle piattaforme digitali, prestare attenzione alle fonti informative e ricercare attivamente la diversità dei contenuti rappresenta una strategia efficace per ridurre gli effetti della &#039;&#039;filter bubble&#039;&#039; e favorire una comprensione più articolata della realtà.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. New York: Penguin Press.&lt;br /&gt;
&lt;br /&gt;
Sasahara, K., Chen, W., Peng, H., Ciampaglia, G. L., Flammini, A., &amp;amp; Menczer, F. (2019). Social influence and unfollowing accelerate the emergence of echo chambers. arXiv:1905.03919. https://arxiv.org/abs/1905.03919&lt;br /&gt;
&lt;br /&gt;
Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W., &amp;amp; Starnini, M. (2020). Echo chambers on social media: A comparative analysis. arXiv:2004.09603. https://arxiv.org/abs/2004.09603&lt;br /&gt;
&lt;br /&gt;
Benkler, Y. (2001). Of sirens and Amish children: Autonomy, information, and law. New York University Law Review, 76(3), 109–156.&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13699</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13699"/>
		<updated>2025-12-16T16:16:15Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* Implicazioni sociali e culturali */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La &#039;&#039;filter bubble&#039;&#039; è l’ambiente virtuale che ciascun utente costruisce su Internet quando sceglie solo i contenuti che gli piacciono. In questa bolla, l&#039;utente vede soprattutto informazioni simili a quelle che già conosce e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie.&lt;br /&gt;
&lt;br /&gt;
Il termine &#039;&#039;filter bubble&#039;&#039; significa “bolla di filtraggio” ed è stato coniato da Eli Pariser nel libro &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;. &amp;lt;ref&amp;gt;Pariser, The Filter Bubble, Introduzione.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della &#039;&#039;filter bubble&#039;&#039;, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 40.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, il che ridurrebbe la loro capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;&amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Altre ricerche mostrano inoltre come i sistemi di raccomandazione possano aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;Applied Network Science (2024). Impact of recommender systems on information diversity.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Implicazioni sociali e culturali==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi potrebbero non influenzare solo ciò che un singolo utente vede, ma avere anche effetti più ampi sulla società e sulla cultura. Secondo Pariser, questo accade soprattutto quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, poiché le differenze tra gruppi con visioni diverse tenderebbero a essere enfatizzate, favorendo la polarizzazione sociale.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 5.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno potrebbe ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le &#039;&#039;filter bubble&#039;&#039; potrebbero rafforzare stereotipi, diffondere disinformazione e limitare l’esposizione a prospettive diverse, creando una società più frammentata e influenzando negativamente il dibattito pubblico, la coesione sociale e la capacità collettiva di affrontare problemi complessi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 155.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Infine, le &#039;&#039;filter bubble&#039;&#039; potrebbero condizionare anche il comportamento politico e le scelte culturali, poiché gli utenti ricevono informazioni selezionate in base alle loro preferenze, portando a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 225.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rischi==&lt;br /&gt;
&lt;br /&gt;
La &#039;&#039;filter bubble&#039;&#039; comporta diversi rischi sia per l’utente sia per la società nel suo complesso, poiché limita l’accesso a informazioni diversificate e influisce sui processi cognitivi e sociali.&lt;br /&gt;
&lt;br /&gt;
===Ridotta capacità di confrontarsi con opinioni diverse===&lt;br /&gt;
La &#039;&#039;filter bubble&#039;&#039; tende ad amplificare il &#039;&#039;confirmation bias&#039;&#039;, favorendo la fruizione di contenuti che confermano le idee già possedute e rendendo più difficile l’esposizione a informazioni che mettono in discussione le proprie convinzioni. Questo meccanismo riduce la capacità degli individui di confrontarsi con opinioni diverse e di rivedere criticamente le proprie posizioni.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 88.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Ridotta comprensione di punti di vista alternativi===&lt;br /&gt;
La mancanza di esposizione a prospettive differenti può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche e culturali. Studi sulle dinamiche delle piattaforme digitali mostrano come l’interazione selettiva contribuisca alla formazione di ambienti informativi omogenei, nei quali il confronto con idee alternative risulta fortemente ridotto.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Maggiore vulnerabilità a influenze esterne===&lt;br /&gt;
Essere intrappolati in una bolla informativa può rendere gli utenti più facilmente influenzabili da pubblicità mirate, narrazioni parziali o contenuti manipolativi. La personalizzazione dei contenuti, basata su segnali di interazione, può favorire decisioni fondate su informazioni incomplete e aumentare il rischio di disinformazione, con possibili conseguenze anche sul funzionamento dei processi democratici.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Polarizzazione e frammentazione sociale===&lt;br /&gt;
Quando ampi gruppi di utenti sono esposti prevalentemente a contenuti coerenti con le proprie convinzioni, si rafforzano le divisioni ideologiche e culturali. Questo fenomeno contribuisce alla polarizzazione del dibattito pubblico e alla frammentazione sociale, riducendo le opportunità di dialogo e di cooperazione tra individui con orientamenti diversi.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, la &#039;&#039;filter bubble&#039;&#039; rappresenta un rischio concreto per l’apertura mentale dell’individuo e per la qualità del confronto pubblico, limitando la pluralità informativa e favorendo dinamiche di chiusura cognitiva e sociale.&lt;br /&gt;
&lt;br /&gt;
==Rimedi ipotizzati==&lt;br /&gt;
&lt;br /&gt;
===Consultare fonti diverse===&lt;br /&gt;
Consultare notizie e contenuti provenienti da differenti piattaforme, media e orientamenti editoriali permette di ottenere una visione più completa della realtà e di ridurre il rischio di rimanere confinati in un ecosistema informativo limitato. Pariser evidenzia come la personalizzazione dei contenuti online possa ridurre la possibilità di entrare in contatto con punti di vista diversi, e sottolinea l’importanza di esporsi a prospettive differenti per favorire l’apprendimento e la creatività.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 2, 3, 4, 15, 16, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Essere consapevoli del funzionamento degli algoritmi===&lt;br /&gt;
Comprendere il funzionamento degli algoritmi di personalizzazione, che selezionano i contenuti sulla base delle interazioni dell’utente, permette di riconoscere una possibile esposizione informativa limitata e di cercare attivamente punti di vista alternativi. Gli studi di Sasahara et al. (2020) mostrano come la selezione algoritmica possa rafforzare la polarizzazione e limitare la diversità informativa.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Usare piattaforme che promuovono la varietà dei contenuti===&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti o impostazioni che favoriscono la visualizzazione di contenuti meno filtrati o più diversificati. L’uso consapevole di tali strumenti può contribuire a ridurre l’impatto della bolla informativa e ad ampliare l’orizzonte informativo degli utenti. Cinelli et al. (2021) evidenziano l’efficacia della diversificazione dei contenuti nel ridurre gli effetti delle echo chambers.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Adottare comportamenti digitali critici===&lt;br /&gt;
Verificare l’affidabilità delle fonti, confrontare informazioni provenienti da contesti diversi e dialogare con persone che esprimono punti di vista differenti sono pratiche fondamentali per mitigare gli effetti della &#039;&#039;filter bubble&#039;&#039; e promuovere una maggiore consapevolezza digitale. Studi su creatività e apprendimento (Benkler, 2001; Nemeth &amp;amp; Kwan, 2010; Johnson, 2010) mostrano come l’esposizione a idee e prospettive diverse favorisca l’innovazione e l’apertura mentale.&amp;lt;ref&amp;gt;Benkler, 2001.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, adottare un approccio critico all’uso delle piattaforme digitali, prestare attenzione alle fonti informative e ricercare attivamente la diversità dei contenuti rappresenta una strategia efficace per ridurre gli effetti della &#039;&#039;filter bubble&#039;&#039; e favorire una comprensione più articolata della realtà.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. New York: Penguin Press.&lt;br /&gt;
&lt;br /&gt;
Sasahara, K., Chen, W., Peng, H., Ciampaglia, G. L., Flammini, A., &amp;amp; Menczer, F. (2019). Social influence and unfollowing accelerate the emergence of echo chambers. arXiv:1905.03919. https://arxiv.org/abs/1905.03919&lt;br /&gt;
&lt;br /&gt;
Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W., &amp;amp; Starnini, M. (2020). Echo chambers on social media: A comparative analysis. arXiv:2004.09603. https://arxiv.org/abs/2004.09603&lt;br /&gt;
&lt;br /&gt;
Benkler, Y. (2001). Of sirens and Amish children: Autonomy, information, and law. New York University Law Review, 76(3), 109–156.&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13697</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13697"/>
		<updated>2025-12-16T15:48:06Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* Implicazioni sociali e culturali */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La &#039;&#039;filter bubble&#039;&#039; è l’ambiente virtuale che ciascun utente costruisce su Internet quando sceglie solo i contenuti che gli piacciono. In questa bolla, l&#039;utente vede soprattutto informazioni simili a quelle che già conosce e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie.&lt;br /&gt;
&lt;br /&gt;
Il termine &#039;&#039;filter bubble&#039;&#039; significa “bolla di filtraggio” ed è stato coniato da Eli Pariser nel libro &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;. &amp;lt;ref&amp;gt;Pariser, The Filter Bubble, Introduzione.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della &#039;&#039;filter bubble&#039;&#039;, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 40.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, il che ridurrebbe la loro capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;&amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Altre ricerche mostrano inoltre come i sistemi di raccomandazione possano aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;Applied Network Science (2024). Impact of recommender systems on information diversity.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Implicazioni sociali e culturali==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi potrebbero non influenzare solo ciò che un singolo utente vede, ma avere anche effetti più ampi sulla società e sulla cultura. Secondo Pariser, questo accade soprattutto quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, poiché le differenze tra gruppi con visioni diverse tenderebbero a essere enfatizzate, favorendo la polarizzazione sociale.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 5.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno potrebbe ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le &#039;&#039;filter bubble&#039;&#039; potrebbero rafforzare stereotipi, diffondere disinformazione e limitare l’esposizione a prospettive diverse, creando una società più frammentata e influenzando negativamente il dibattito pubblico, la coesione sociale e la capacità collettiva di affrontare problemi complessi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 155.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Infine, le &#039;&#039;filter bubble&#039;&#039; potrebbero condizionare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che potrebbe portare a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 225.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rischi==&lt;br /&gt;
&lt;br /&gt;
La &#039;&#039;filter bubble&#039;&#039; comporta diversi rischi sia per l’utente sia per la società nel suo complesso, poiché limita l’accesso a informazioni diversificate e influisce sui processi cognitivi e sociali.&lt;br /&gt;
&lt;br /&gt;
===Ridotta capacità di confrontarsi con opinioni diverse===&lt;br /&gt;
La &#039;&#039;filter bubble&#039;&#039; tende ad amplificare il &#039;&#039;confirmation bias&#039;&#039;, favorendo la fruizione di contenuti che confermano le idee già possedute e rendendo più difficile l’esposizione a informazioni che mettono in discussione le proprie convinzioni. Questo meccanismo riduce la capacità degli individui di confrontarsi con opinioni diverse e di rivedere criticamente le proprie posizioni.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 88.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Ridotta comprensione di punti di vista alternativi===&lt;br /&gt;
La mancanza di esposizione a prospettive differenti può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche e culturali. Studi sulle dinamiche delle piattaforme digitali mostrano come l’interazione selettiva contribuisca alla formazione di ambienti informativi omogenei, nei quali il confronto con idee alternative risulta fortemente ridotto.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Maggiore vulnerabilità a influenze esterne===&lt;br /&gt;
Essere intrappolati in una bolla informativa può rendere gli utenti più facilmente influenzabili da pubblicità mirate, narrazioni parziali o contenuti manipolativi. La personalizzazione dei contenuti, basata su segnali di interazione, può favorire decisioni fondate su informazioni incomplete e aumentare il rischio di disinformazione, con possibili conseguenze anche sul funzionamento dei processi democratici.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Polarizzazione e frammentazione sociale===&lt;br /&gt;
Quando ampi gruppi di utenti sono esposti prevalentemente a contenuti coerenti con le proprie convinzioni, si rafforzano le divisioni ideologiche e culturali. Questo fenomeno contribuisce alla polarizzazione del dibattito pubblico e alla frammentazione sociale, riducendo le opportunità di dialogo e di cooperazione tra individui con orientamenti diversi.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, la &#039;&#039;filter bubble&#039;&#039; rappresenta un rischio concreto per l’apertura mentale dell’individuo e per la qualità del confronto pubblico, limitando la pluralità informativa e favorendo dinamiche di chiusura cognitiva e sociale.&lt;br /&gt;
&lt;br /&gt;
==Rimedi ipotizzati==&lt;br /&gt;
&lt;br /&gt;
===Consultare fonti diverse===&lt;br /&gt;
Consultare notizie e contenuti provenienti da differenti piattaforme, media e orientamenti editoriali permette di ottenere una visione più completa della realtà e di ridurre il rischio di rimanere confinati in un ecosistema informativo limitato. Pariser evidenzia come la personalizzazione dei contenuti online possa ridurre la possibilità di entrare in contatto con punti di vista diversi, e sottolinea l’importanza di esporsi a prospettive differenti per favorire l’apprendimento e la creatività.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 2, 3, 4, 15, 16, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Essere consapevoli del funzionamento degli algoritmi===&lt;br /&gt;
Comprendere il funzionamento degli algoritmi di personalizzazione, che selezionano i contenuti sulla base delle interazioni dell’utente, permette di riconoscere una possibile esposizione informativa limitata e di cercare attivamente punti di vista alternativi. Gli studi di Sasahara et al. (2020) mostrano come la selezione algoritmica possa rafforzare la polarizzazione e limitare la diversità informativa.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Usare piattaforme che promuovono la varietà dei contenuti===&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti o impostazioni che favoriscono la visualizzazione di contenuti meno filtrati o più diversificati. L’uso consapevole di tali strumenti può contribuire a ridurre l’impatto della bolla informativa e ad ampliare l’orizzonte informativo degli utenti. Cinelli et al. (2021) evidenziano l’efficacia della diversificazione dei contenuti nel ridurre gli effetti delle echo chambers.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Adottare comportamenti digitali critici===&lt;br /&gt;
Verificare l’affidabilità delle fonti, confrontare informazioni provenienti da contesti diversi e dialogare con persone che esprimono punti di vista differenti sono pratiche fondamentali per mitigare gli effetti della &#039;&#039;filter bubble&#039;&#039; e promuovere una maggiore consapevolezza digitale. Studi su creatività e apprendimento (Benkler, 2001; Nemeth &amp;amp; Kwan, 2010; Johnson, 2010) mostrano come l’esposizione a idee e prospettive diverse favorisca l’innovazione e l’apertura mentale.&amp;lt;ref&amp;gt;Benkler, 2001.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, adottare un approccio critico all’uso delle piattaforme digitali, prestare attenzione alle fonti informative e ricercare attivamente la diversità dei contenuti rappresenta una strategia efficace per ridurre gli effetti della &#039;&#039;filter bubble&#039;&#039; e favorire una comprensione più articolata della realtà.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. New York: Penguin Press.&lt;br /&gt;
&lt;br /&gt;
Sasahara, K., Chen, W., Peng, H., Ciampaglia, G. L., Flammini, A., &amp;amp; Menczer, F. (2019). Social influence and unfollowing accelerate the emergence of echo chambers. arXiv:1905.03919. https://arxiv.org/abs/1905.03919&lt;br /&gt;
&lt;br /&gt;
Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W., &amp;amp; Starnini, M. (2020). Echo chambers on social media: A comparative analysis. arXiv:2004.09603. https://arxiv.org/abs/2004.09603&lt;br /&gt;
&lt;br /&gt;
Benkler, Y. (2001). Of sirens and Amish children: Autonomy, information, and law. New York University Law Review, 76(3), 109–156.&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13696</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13696"/>
		<updated>2025-12-16T15:40:33Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* Effetti ipotizzati */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La &#039;&#039;filter bubble&#039;&#039; è l’ambiente virtuale che ciascun utente costruisce su Internet quando sceglie solo i contenuti che gli piacciono. In questa bolla, l&#039;utente vede soprattutto informazioni simili a quelle che già conosce e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie.&lt;br /&gt;
&lt;br /&gt;
Il termine &#039;&#039;filter bubble&#039;&#039; significa “bolla di filtraggio” ed è stato coniato da Eli Pariser nel libro &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;. &amp;lt;ref&amp;gt;Pariser, The Filter Bubble, Introduzione.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della &#039;&#039;filter bubble&#039;&#039;, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 40.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, il che ridurrebbe la loro capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;&amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Altre ricerche mostrano inoltre come i sistemi di raccomandazione possano aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;Applied Network Science (2024). Impact of recommender systems on information diversity.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Implicazioni sociali e culturali==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi potrebbero non influenzare solo ciò che un singolo utente vede, ma avere anche effetti più ampi sulla società e sulla cultura. Secondo Pariser, questo accade soprattutto quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, poiché le differenze tra gruppi con visioni diverse tenderebbero a essere enfatizzate, favorendo la polarizzazione sociale.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 5.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno potrebbe ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le &#039;&#039;filter bubbles&#039;&#039; potrebbero rafforzare stereotipi, diffondere disinformazione e limitare l’esposizione a prospettive diverse, creando una società più frammentata e influenzando negativamente il dibattito pubblico, la coesione sociale e la capacità collettiva di affrontare problemi complessi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 155.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative potrebbero condizionare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che potrebbe portare a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 225.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rischi==&lt;br /&gt;
&lt;br /&gt;
La &#039;&#039;filter bubble&#039;&#039; comporta diversi rischi sia per l’utente sia per la società nel suo complesso, poiché limita l’accesso a informazioni diversificate e influisce sui processi cognitivi e sociali.&lt;br /&gt;
&lt;br /&gt;
===Ridotta capacità di confrontarsi con opinioni diverse===&lt;br /&gt;
La &#039;&#039;filter bubble&#039;&#039; tende ad amplificare il &#039;&#039;confirmation bias&#039;&#039;, favorendo la fruizione di contenuti che confermano le idee già possedute e rendendo più difficile l’esposizione a informazioni che mettono in discussione le proprie convinzioni. Questo meccanismo riduce la capacità degli individui di confrontarsi con opinioni diverse e di rivedere criticamente le proprie posizioni.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 88.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Ridotta comprensione di punti di vista alternativi===&lt;br /&gt;
La mancanza di esposizione a prospettive differenti può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche e culturali. Studi sulle dinamiche delle piattaforme digitali mostrano come l’interazione selettiva contribuisca alla formazione di ambienti informativi omogenei, nei quali il confronto con idee alternative risulta fortemente ridotto.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Maggiore vulnerabilità a influenze esterne===&lt;br /&gt;
Essere intrappolati in una bolla informativa può rendere gli utenti più facilmente influenzabili da pubblicità mirate, narrazioni parziali o contenuti manipolativi. La personalizzazione dei contenuti, basata su segnali di interazione, può favorire decisioni fondate su informazioni incomplete e aumentare il rischio di disinformazione, con possibili conseguenze anche sul funzionamento dei processi democratici.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Polarizzazione e frammentazione sociale===&lt;br /&gt;
Quando ampi gruppi di utenti sono esposti prevalentemente a contenuti coerenti con le proprie convinzioni, si rafforzano le divisioni ideologiche e culturali. Questo fenomeno contribuisce alla polarizzazione del dibattito pubblico e alla frammentazione sociale, riducendo le opportunità di dialogo e di cooperazione tra individui con orientamenti diversi.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, la &#039;&#039;filter bubble&#039;&#039; rappresenta un rischio concreto per l’apertura mentale dell’individuo e per la qualità del confronto pubblico, limitando la pluralità informativa e favorendo dinamiche di chiusura cognitiva e sociale.&lt;br /&gt;
&lt;br /&gt;
==Rimedi ipotizzati==&lt;br /&gt;
&lt;br /&gt;
===Consultare fonti diverse===&lt;br /&gt;
Consultare notizie e contenuti provenienti da differenti piattaforme, media e orientamenti editoriali permette di ottenere una visione più completa della realtà e di ridurre il rischio di rimanere confinati in un ecosistema informativo limitato. Pariser evidenzia come la personalizzazione dei contenuti online possa ridurre la possibilità di entrare in contatto con punti di vista diversi, e sottolinea l’importanza di esporsi a prospettive differenti per favorire l’apprendimento e la creatività.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 2, 3, 4, 15, 16, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Essere consapevoli del funzionamento degli algoritmi===&lt;br /&gt;
Comprendere il funzionamento degli algoritmi di personalizzazione, che selezionano i contenuti sulla base delle interazioni dell’utente, permette di riconoscere una possibile esposizione informativa limitata e di cercare attivamente punti di vista alternativi. Gli studi di Sasahara et al. (2020) mostrano come la selezione algoritmica possa rafforzare la polarizzazione e limitare la diversità informativa.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Usare piattaforme che promuovono la varietà dei contenuti===&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti o impostazioni che favoriscono la visualizzazione di contenuti meno filtrati o più diversificati. L’uso consapevole di tali strumenti può contribuire a ridurre l’impatto della bolla informativa e ad ampliare l’orizzonte informativo degli utenti. Cinelli et al. (2021) evidenziano l’efficacia della diversificazione dei contenuti nel ridurre gli effetti delle echo chambers.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Adottare comportamenti digitali critici===&lt;br /&gt;
Verificare l’affidabilità delle fonti, confrontare informazioni provenienti da contesti diversi e dialogare con persone che esprimono punti di vista differenti sono pratiche fondamentali per mitigare gli effetti della &#039;&#039;filter bubble&#039;&#039; e promuovere una maggiore consapevolezza digitale. Studi su creatività e apprendimento (Benkler, 2001; Nemeth &amp;amp; Kwan, 2010; Johnson, 2010) mostrano come l’esposizione a idee e prospettive diverse favorisca l’innovazione e l’apertura mentale.&amp;lt;ref&amp;gt;Benkler, 2001.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, adottare un approccio critico all’uso delle piattaforme digitali, prestare attenzione alle fonti informative e ricercare attivamente la diversità dei contenuti rappresenta una strategia efficace per ridurre gli effetti della &#039;&#039;filter bubble&#039;&#039; e favorire una comprensione più articolata della realtà.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. New York: Penguin Press.&lt;br /&gt;
&lt;br /&gt;
Sasahara, K., Chen, W., Peng, H., Ciampaglia, G. L., Flammini, A., &amp;amp; Menczer, F. (2019). Social influence and unfollowing accelerate the emergence of echo chambers. arXiv:1905.03919. https://arxiv.org/abs/1905.03919&lt;br /&gt;
&lt;br /&gt;
Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W., &amp;amp; Starnini, M. (2020). Echo chambers on social media: A comparative analysis. arXiv:2004.09603. https://arxiv.org/abs/2004.09603&lt;br /&gt;
&lt;br /&gt;
Benkler, Y. (2001). Of sirens and Amish children: Autonomy, information, and law. New York University Law Review, 76(3), 109–156.&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13695</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13695"/>
		<updated>2025-12-16T15:33:18Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La &#039;&#039;filter bubble&#039;&#039; è l’ambiente virtuale che ciascun utente costruisce su Internet quando sceglie solo i contenuti che gli piacciono. In questa bolla, l&#039;utente vede soprattutto informazioni simili a quelle che già conosce e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie.&lt;br /&gt;
&lt;br /&gt;
Il termine &#039;&#039;filter bubble&#039;&#039; significa “bolla di filtraggio” ed è stato coniato da Eli Pariser nel libro &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;. &amp;lt;ref&amp;gt;Pariser, The Filter Bubble, Introduzione.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della &#039;&#039;filter bubble&#039;&#039;, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 40.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, il che ridurrebbe la loro capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;&amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 evidenziano inoltre che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;Applied Network Science (2024). Impact of recommender systems on information diversity.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Implicazioni sociali e culturali==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi potrebbero non influenzare solo ciò che un singolo utente vede, ma avere anche effetti più ampi sulla società e sulla cultura. Secondo Pariser, questo accade soprattutto quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, poiché le differenze tra gruppi con visioni diverse tenderebbero a essere enfatizzate, favorendo la polarizzazione sociale.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 5.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno potrebbe ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le &#039;&#039;filter bubbles&#039;&#039; potrebbero rafforzare stereotipi, diffondere disinformazione e limitare l’esposizione a prospettive diverse, creando una società più frammentata e influenzando negativamente il dibattito pubblico, la coesione sociale e la capacità collettiva di affrontare problemi complessi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 155.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative potrebbero condizionare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che potrebbe portare a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 225.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rischi==&lt;br /&gt;
&lt;br /&gt;
La &#039;&#039;filter bubble&#039;&#039; comporta diversi rischi sia per l’utente sia per la società nel suo complesso, poiché limita l’accesso a informazioni diversificate e influisce sui processi cognitivi e sociali.&lt;br /&gt;
&lt;br /&gt;
===Ridotta capacità di confrontarsi con opinioni diverse===&lt;br /&gt;
La &#039;&#039;filter bubble&#039;&#039; tende ad amplificare il &#039;&#039;confirmation bias&#039;&#039;, favorendo la fruizione di contenuti che confermano le idee già possedute e rendendo più difficile l’esposizione a informazioni che mettono in discussione le proprie convinzioni. Questo meccanismo riduce la capacità degli individui di confrontarsi con opinioni diverse e di rivedere criticamente le proprie posizioni.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 88.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Ridotta comprensione di punti di vista alternativi===&lt;br /&gt;
La mancanza di esposizione a prospettive differenti può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche e culturali. Studi sulle dinamiche delle piattaforme digitali mostrano come l’interazione selettiva contribuisca alla formazione di ambienti informativi omogenei, nei quali il confronto con idee alternative risulta fortemente ridotto.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Maggiore vulnerabilità a influenze esterne===&lt;br /&gt;
Essere intrappolati in una bolla informativa può rendere gli utenti più facilmente influenzabili da pubblicità mirate, narrazioni parziali o contenuti manipolativi. La personalizzazione dei contenuti, basata su segnali di interazione, può favorire decisioni fondate su informazioni incomplete e aumentare il rischio di disinformazione, con possibili conseguenze anche sul funzionamento dei processi democratici.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Polarizzazione e frammentazione sociale===&lt;br /&gt;
Quando ampi gruppi di utenti sono esposti prevalentemente a contenuti coerenti con le proprie convinzioni, si rafforzano le divisioni ideologiche e culturali. Questo fenomeno contribuisce alla polarizzazione del dibattito pubblico e alla frammentazione sociale, riducendo le opportunità di dialogo e di cooperazione tra individui con orientamenti diversi.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, la &#039;&#039;filter bubble&#039;&#039; rappresenta un rischio concreto per l’apertura mentale dell’individuo e per la qualità del confronto pubblico, limitando la pluralità informativa e favorendo dinamiche di chiusura cognitiva e sociale.&lt;br /&gt;
&lt;br /&gt;
==Rimedi ipotizzati==&lt;br /&gt;
&lt;br /&gt;
===Consultare fonti diverse===&lt;br /&gt;
Consultare notizie e contenuti provenienti da differenti piattaforme, media e orientamenti editoriali permette di ottenere una visione più completa della realtà e di ridurre il rischio di rimanere confinati in un ecosistema informativo limitato. Pariser evidenzia come la personalizzazione dei contenuti online possa ridurre la possibilità di entrare in contatto con punti di vista diversi, e sottolinea l’importanza di esporsi a prospettive differenti per favorire l’apprendimento e la creatività.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 2, 3, 4, 15, 16, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Essere consapevoli del funzionamento degli algoritmi===&lt;br /&gt;
Comprendere il funzionamento degli algoritmi di personalizzazione, che selezionano i contenuti sulla base delle interazioni dell’utente, permette di riconoscere una possibile esposizione informativa limitata e di cercare attivamente punti di vista alternativi. Gli studi di Sasahara et al. (2020) mostrano come la selezione algoritmica possa rafforzare la polarizzazione e limitare la diversità informativa.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Usare piattaforme che promuovono la varietà dei contenuti===&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti o impostazioni che favoriscono la visualizzazione di contenuti meno filtrati o più diversificati. L’uso consapevole di tali strumenti può contribuire a ridurre l’impatto della bolla informativa e ad ampliare l’orizzonte informativo degli utenti. Cinelli et al. (2021) evidenziano l’efficacia della diversificazione dei contenuti nel ridurre gli effetti delle echo chambers.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Adottare comportamenti digitali critici===&lt;br /&gt;
Verificare l’affidabilità delle fonti, confrontare informazioni provenienti da contesti diversi e dialogare con persone che esprimono punti di vista differenti sono pratiche fondamentali per mitigare gli effetti della &#039;&#039;filter bubble&#039;&#039; e promuovere una maggiore consapevolezza digitale. Studi su creatività e apprendimento (Benkler, 2001; Nemeth &amp;amp; Kwan, 2010; Johnson, 2010) mostrano come l’esposizione a idee e prospettive diverse favorisca l’innovazione e l’apertura mentale.&amp;lt;ref&amp;gt;Benkler, 2001.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, adottare un approccio critico all’uso delle piattaforme digitali, prestare attenzione alle fonti informative e ricercare attivamente la diversità dei contenuti rappresenta una strategia efficace per ridurre gli effetti della &#039;&#039;filter bubble&#039;&#039; e favorire una comprensione più articolata della realtà.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. New York: Penguin Press.&lt;br /&gt;
&lt;br /&gt;
Sasahara, K., Chen, W., Peng, H., Ciampaglia, G. L., Flammini, A., &amp;amp; Menczer, F. (2019). Social influence and unfollowing accelerate the emergence of echo chambers. arXiv:1905.03919. https://arxiv.org/abs/1905.03919&lt;br /&gt;
&lt;br /&gt;
Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W., &amp;amp; Starnini, M. (2020). Echo chambers on social media: A comparative analysis. arXiv:2004.09603. https://arxiv.org/abs/2004.09603&lt;br /&gt;
&lt;br /&gt;
Benkler, Y. (2001). Of sirens and Amish children: Autonomy, information, and law. New York University Law Review, 76(3), 109–156.&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13652</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13652"/>
		<updated>2025-12-13T13:47:17Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La &#039;&#039;filter bubble&#039;&#039; è l’ambiente virtuale che ciascun utente costruisce su Internet quando sceglie solo i contenuti che gli piacciono. In questa bolla, l&#039;utente vede soprattutto informazioni simili a quelle che già conosce e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie.&lt;br /&gt;
&lt;br /&gt;
Il termine &#039;&#039;filter bubble&#039;&#039; significa “bolla di filtraggio” ed è stato coniato da &#039;&#039;Eli Pariser&#039;&#039; nel libro &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;. &amp;lt;ref&amp;gt;Pariser, The Filter Bubble, Introduzione.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della &#039;&#039;filter bubble&#039;&#039;, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 40.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, il che ridurrebbe la loro capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;&amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 evidenziano inoltre che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;Applied Network Science (2024). Impact of recommender systems on information diversity.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Implicazioni sociali e culturali==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi potrebbero non influenzare solo ciò che un singolo utente vede, ma avere anche effetti più ampi sulla società e sulla cultura. Secondo Pariser, questo accade soprattutto quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, poiché le differenze tra gruppi con visioni diverse tenderebbero a essere enfatizzate, favorendo la polarizzazione sociale.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 5.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno potrebbe ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le &#039;&#039;filter bubbles&#039;&#039; potrebbero rafforzare stereotipi, diffondere disinformazione e limitare l’esposizione a prospettive diverse, creando una società più frammentata e influenzando negativamente il dibattito pubblico, la coesione sociale e la capacità collettiva di affrontare problemi complessi.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 155.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative potrebbero condizionare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che potrebbe portare a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 225.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rischi==&lt;br /&gt;
&lt;br /&gt;
La &#039;&#039;filter bubble&#039;&#039; comporta diversi rischi sia per l’utente sia per la società nel suo complesso, poiché limita l’accesso a informazioni diversificate e influisce sui processi cognitivi e sociali.&lt;br /&gt;
&lt;br /&gt;
===Ridotta capacità di confrontarsi con opinioni diverse===&lt;br /&gt;
La &#039;&#039;filter bubble&#039;&#039; tende ad amplificare il &#039;&#039;confirmation bias&#039;&#039;, favorendo la fruizione di contenuti che confermano le idee già possedute e rendendo più difficile l’esposizione a informazioni che mettono in discussione le proprie convinzioni. Questo meccanismo riduce la capacità degli individui di confrontarsi con opinioni diverse e di rivedere criticamente le proprie posizioni.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 88.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Ridotta comprensione di punti di vista alternativi===&lt;br /&gt;
La mancanza di esposizione a prospettive differenti può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche e culturali. Studi sulle dinamiche delle piattaforme digitali mostrano come l’interazione selettiva contribuisca alla formazione di ambienti informativi omogenei, nei quali il confronto con idee alternative risulta fortemente ridotto.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Maggiore vulnerabilità a influenze esterne===&lt;br /&gt;
Essere intrappolati in una bolla informativa può rendere gli utenti più facilmente influenzabili da pubblicità mirate, narrazioni parziali o contenuti manipolativi. La personalizzazione dei contenuti, basata su segnali di interazione, può favorire decisioni fondate su informazioni incomplete e aumentare il rischio di disinformazione, con possibili conseguenze anche sul funzionamento dei processi democratici.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Polarizzazione e frammentazione sociale===&lt;br /&gt;
Quando ampi gruppi di utenti sono esposti prevalentemente a contenuti coerenti con le proprie convinzioni, si rafforzano le divisioni ideologiche e culturali. Questo fenomeno contribuisce alla polarizzazione del dibattito pubblico e alla frammentazione sociale, riducendo le opportunità di dialogo e di cooperazione tra individui con orientamenti diversi.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, la &#039;&#039;filter bubble&#039;&#039; rappresenta un rischio concreto per l’apertura mentale dell’individuo e per la qualità del confronto pubblico, limitando la pluralità informativa e favorendo dinamiche di chiusura cognitiva e sociale.&lt;br /&gt;
&lt;br /&gt;
==Rimedi ipotizzati==&lt;br /&gt;
&lt;br /&gt;
===Consultare fonti diverse===&lt;br /&gt;
Consultare notizie e contenuti provenienti da differenti piattaforme, media e orientamenti editoriali permette di ottenere una visione più completa della realtà e di ridurre il rischio di rimanere confinati in un ecosistema informativo limitato. Pariser evidenzia come la personalizzazione dei contenuti online possa ridurre la possibilità di entrare in contatto con punti di vista diversi, e sottolinea l’importanza di esporsi a prospettive differenti per favorire l’apprendimento e la creatività.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, pp. 2, 3, 4, 15, 16, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Essere consapevoli del funzionamento degli algoritmi===&lt;br /&gt;
Comprendere il funzionamento degli algoritmi di personalizzazione, che selezionano i contenuti sulla base delle interazioni dell’utente, permette di riconoscere una possibile esposizione informativa limitata e di cercare attivamente punti di vista alternativi. Gli studi di Sasahara et al. (2020) mostrano come la selezione algoritmica possa rafforzare la polarizzazione e limitare la diversità informativa.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Usare piattaforme che promuovono la varietà dei contenuti===&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti o impostazioni che favoriscono la visualizzazione di contenuti meno filtrati o più diversificati. L’uso consapevole di tali strumenti può contribuire a ridurre l’impatto della bolla informativa e ad ampliare l’orizzonte informativo degli utenti. Cinelli et al. (2021) evidenziano l’efficacia della diversificazione dei contenuti nel ridurre gli effetti delle echo chambers.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Adottare comportamenti digitali critici===&lt;br /&gt;
Verificare l’affidabilità delle fonti, confrontare informazioni provenienti da contesti diversi e dialogare con persone che esprimono punti di vista differenti sono pratiche fondamentali per mitigare gli effetti della &#039;&#039;filter bubble&#039;&#039; e promuovere una maggiore consapevolezza digitale. Studi su creatività e apprendimento (Benkler, 2001; Nemeth &amp;amp; Kwan, 2010; Johnson, 2010) mostrano come l’esposizione a idee e prospettive diverse favorisca l’innovazione e l’apertura mentale.&amp;lt;ref&amp;gt;Benkler, 2001.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, adottare un approccio critico all’uso delle piattaforme digitali, prestare attenzione alle fonti informative e ricercare attivamente la diversità dei contenuti rappresenta una strategia efficace per ridurre gli effetti della &#039;&#039;filter bubble&#039;&#039; e favorire una comprensione più articolata della realtà.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. New York: Penguin Press.&lt;br /&gt;
&lt;br /&gt;
Sasahara, K., Chen, W., Peng, H., Ciampaglia, G. L., Flammini, A., &amp;amp; Menczer, F. (2019). Social influence and unfollowing accelerate the emergence of echo chambers. arXiv:1905.03919. https://arxiv.org/abs/1905.03919&lt;br /&gt;
&lt;br /&gt;
Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W., &amp;amp; Starnini, M. (2020). Echo chambers on social media: A comparative analysis. arXiv:2004.09603. https://arxiv.org/abs/2004.09603&lt;br /&gt;
&lt;br /&gt;
Benkler, Y. (2001). Of sirens and Amish children: Autonomy, information, and law. New York University Law Review, 76(3), 109–156.&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13651</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13651"/>
		<updated>2025-12-13T13:38:41Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La &#039;&#039;filter bubble&#039;&#039; è l’ambiente virtuale che ciascun utente costruisce su Internet quando sceglie solo i contenuti che gli piacciono. In questa bolla, l&#039;utente vede soprattutto informazioni simili a quelle che già conosce e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie.&lt;br /&gt;
&lt;br /&gt;
Il termine &#039;&#039;filter bubble&#039;&#039; significa “bolla di filtraggio” ed è stato coniato da Eli Pariser nel libro &#039;&#039;La bulle de filtres&#039;&#039;. &amp;lt;ref&amp;gt;Pariser, La bulle de filtres, Introduzione.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della &#039;&#039;filter bubble&#039;&#039;, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref&amp;gt;Pariser, La bulle de filtres, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;Pariser, La bulle de filtres, p. 40.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, il che ridurrebbe la loro capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;&amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 evidenziano inoltre che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;Applied Network Science (2024). Impact of recommender systems on information diversity.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Implicazioni sociali e culturali==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi potrebbero non influenzare solo ciò che un singolo utente vede, ma avere anche effetti più ampi sulla società e sulla cultura. Secondo Pariser, questo accade soprattutto quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, poiché le differenze tra gruppi con visioni diverse tenderebbero a essere enfatizzate, favorendo la polarizzazione sociale.&amp;lt;ref&amp;gt;Pariser, La bulle de filtres, p. 5.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno potrebbe ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref&amp;gt;Pariser, La bulle de filtres, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le &#039;&#039;filter bubbles&#039;&#039; potrebbero rafforzare stereotipi, diffondere disinformazione e limitare l’esposizione a prospettive diverse, creando una società più frammentata e influenzando negativamente il dibattito pubblico, la coesione sociale e la capacità collettiva di affrontare problemi complessi.&amp;lt;ref&amp;gt;Pariser, La bulle de filtres, p. 155.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative potrebbero condizionare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che potrebbe portare a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref&amp;gt;Pariser, La bulle de filtres, p. 225.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rischi==&lt;br /&gt;
&lt;br /&gt;
La &#039;&#039;filter bubble&#039;&#039; comporta diversi rischi sia per l’utente sia per la società nel suo complesso, poiché limita l’accesso a informazioni diversificate e influisce sui processi cognitivi e sociali.&lt;br /&gt;
&lt;br /&gt;
===Ridotta capacità di confrontarsi con opinioni diverse===&lt;br /&gt;
La &#039;&#039;filter bubble&#039;&#039; tende ad amplificare il &#039;&#039;confirmation bias&#039;&#039;, favorendo la fruizione di contenuti che confermano le idee già possedute e rendendo più difficile l’esposizione a informazioni che mettono in discussione le proprie convinzioni. Questo meccanismo riduce la capacità degli individui di confrontarsi con opinioni diverse e di rivedere criticamente le proprie posizioni.&amp;lt;ref&amp;gt;Pariser, La bulle de filtres, p. 88.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Ridotta comprensione di punti di vista alternativi===&lt;br /&gt;
La mancanza di esposizione a prospettive differenti può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche e culturali. Studi sulle dinamiche delle piattaforme digitali mostrano come l’interazione selettiva contribuisca alla formazione di ambienti informativi omogenei, nei quali il confronto con idee alternative risulta fortemente ridotto.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Maggiore vulnerabilità a influenze esterne===&lt;br /&gt;
Essere intrappolati in una bolla informativa può rendere gli utenti più facilmente influenzabili da pubblicità mirate, narrazioni parziali o contenuti manipolativi. La personalizzazione dei contenuti, basata su segnali di interazione, può favorire decisioni fondate su informazioni incomplete e aumentare il rischio di disinformazione, con possibili conseguenze anche sul funzionamento dei processi democratici.&amp;lt;ref&amp;gt;Pariser, La bulle de filtres, p. 148.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Polarizzazione e frammentazione sociale===&lt;br /&gt;
Quando ampi gruppi di utenti sono esposti prevalentemente a contenuti coerenti con le proprie convinzioni, si rafforzano le divisioni ideologiche e culturali. Questo fenomeno contribuisce alla polarizzazione del dibattito pubblico e alla frammentazione sociale, riducendo le opportunità di dialogo e di cooperazione tra individui con orientamenti diversi.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, la &#039;&#039;filter bubble&#039;&#039; rappresenta un rischio concreto per l’apertura mentale dell’individuo e per la qualità del confronto pubblico, limitando la pluralità informativa e favorendo dinamiche di chiusura cognitiva e sociale.&lt;br /&gt;
&lt;br /&gt;
==Rimedi ipotizzati==&lt;br /&gt;
&lt;br /&gt;
===Consultare fonti diverse===&lt;br /&gt;
Consultare notizie e contenuti provenienti da differenti piattaforme, media e orientamenti editoriali permette di ottenere una visione più completa della realtà e di ridurre il rischio di rimanere confinati in un ecosistema informativo limitato. Pariser evidenzia come la personalizzazione dei contenuti online possa ridurre la possibilità di entrare in contatto con punti di vista diversi, e sottolinea l’importanza di esporsi a prospettive differenti per favorire l’apprendimento e la creatività.&amp;lt;ref&amp;gt;Pariser, La bulle de filtres, pp. 2, 3, 4, 15, 16, 17.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Essere consapevoli del funzionamento degli algoritmi===&lt;br /&gt;
Comprendere il funzionamento degli algoritmi di personalizzazione, che selezionano i contenuti sulla base delle interazioni dell’utente, permette di riconoscere una possibile esposizione informativa limitata e di cercare attivamente punti di vista alternativi. Gli studi di Sasahara et al. (2020) mostrano come la selezione algoritmica possa rafforzare la polarizzazione e limitare la diversità informativa.&amp;lt;ref&amp;gt;Sasahara et al., 2020.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Usare piattaforme che promuovono la varietà dei contenuti===&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti o impostazioni che favoriscono la visualizzazione di contenuti meno filtrati o più diversificati. L’uso consapevole di tali strumenti può contribuire a ridurre l’impatto della bolla informativa e ad ampliare l’orizzonte informativo degli utenti. Cinelli et al. (2021) evidenziano l’efficacia della diversificazione dei contenuti nel ridurre gli effetti delle echo chambers.&amp;lt;ref&amp;gt;Cinelli et al., 2021.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Adottare comportamenti digitali critici===&lt;br /&gt;
Verificare l’affidabilità delle fonti, confrontare informazioni provenienti da contesti diversi e dialogare con persone che esprimono punti di vista differenti sono pratiche fondamentali per mitigare gli effetti della &#039;&#039;filter bubble&#039;&#039; e promuovere una maggiore consapevolezza digitale. Studi su creatività e apprendimento (Benkler, 2001; Nemeth &amp;amp; Kwan, 2010; Johnson, 2010) mostrano come l’esposizione a idee e prospettive diverse favorisca l’innovazione e l’apertura mentale.&amp;lt;ref&amp;gt;Benkler, 2001.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, adottare un approccio critico all’uso delle piattaforme digitali, prestare attenzione alle fonti informative e ricercare attivamente la diversità dei contenuti rappresenta una strategia efficace per ridurre gli effetti della &#039;&#039;filter bubble&#039;&#039; e favorire una comprensione più articolata della realtà.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
Pariser, E. (2011). &#039;&#039;La bulle de filtres&#039;&#039;. New York: Penguin Press.&lt;br /&gt;
&lt;br /&gt;
Sasahara, K., Chen, W., Peng, H., Ciampaglia, G. L., Flammini, A., &amp;amp; Menczer, F. (2019). Social influence and unfollowing accelerate the emergence of echo chambers. arXiv:1905.03919. https://arxiv.org/abs/1905.03919&lt;br /&gt;
&lt;br /&gt;
Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W., &amp;amp; Starnini, M. (2020). Echo chambers on social media: A comparative analysis. arXiv:2004.09603. https://arxiv.org/abs/2004.09603&lt;br /&gt;
&lt;br /&gt;
Benkler, Y. (2001). Of sirens and Amish children: Autonomy, information, and law. New York University Law Review, 76(3), 109–156.&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13649</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13649"/>
		<updated>2025-12-11T23:40:32Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La &#039;&#039;filter bubble&#039;&#039; è l’ambiente virtuale che ciascun utente costruisce su Internet quando sceglie solo i contenuti che gli piacciono. In questa bolla, l&#039;utente vede suprattutto informazioni simili a quelle che già conosciamo e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie. &lt;br /&gt;
&lt;br /&gt;
Il termine &#039;&#039;filter bubble&#039;&#039; significa “bolla di filtraggio” ed è stato coniato da &#039;&#039;Eli Pariser&#039;&#039; nel libro &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;. &amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi ==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della &#039;&#039;filter bubble&#039;&#039;, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La &#039;&#039;filter bubble&#039;&#039; può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, p. 40.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, il che ridurrebbe la loro la capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati, rafforzando così un ecosistema chiuso di informazioni.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;&amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919. [https://arxiv.org/abs/1905.03919](https://arxiv.org/abs/1905.03919)&amp;lt;/ref&amp;gt;&amp;lt;ref name=&amp;quot;Arxiv2004&amp;quot;&amp;gt;&amp;quot;Social media recommendation dynamics&amp;quot;, arXiv:2004.09603. [https://arxiv.org/abs/2004.09603](https://arxiv.org/abs/2004.09603)&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 evidenziano inoltre che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;Applied Network Science (2024). &#039;&#039;Impact of recommender systems on information diversity&#039;&#039;. [https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3](https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3)&amp;lt;/ref&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;&amp;gt;Springer (2024). &#039;&#039;Algorithmic personalization and its ethical implications&#039;&#039;. [https://link.springer.com/article/10.1007/s13347-024-00758-4](https://link.springer.com/article/10.1007/s13347-024-00758-4)&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Implicazioni sociali e culturali==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi potrebbero non influenzare solo ciò che un singolo utente vede, ma avere anche effetti più ampi sulla società e sulla cultura.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt; Secondo alcuni studiosi, questo accade soprattutto quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, poiché le differenze tra gruppi con visioni diverse tenderebbero a essere enfatizzate, favorendo la polarizzazione sociale.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno potrebbe ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le &#039;&#039;filter bubbles&#039;&#039; potrebbero rafforzare stereotipi, diffondere disinformazione e limitare l’esposizione a prospettive diverse, creando una società più frammentata e influenzando negativamente il dibattito pubblico, la coesione sociale e la capacità collettiva di affrontare problemi complessi.&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative potrebbero condizionare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che potrebbe portare a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref&amp;gt;Pariser, The Filter Bubble, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rischi==&lt;br /&gt;
&lt;br /&gt;
La filter bubble comporta diversi rischi per l’utente e per la società. Tra i principali:&lt;br /&gt;
&lt;br /&gt;
===Ridotta capacità di confrontarsi con opinioni diverse===&lt;br /&gt;
Gli utenti vedono principalmente contenuti che confermano le loro convinzioni, riducendo la capacità di confrontarsi con opinioni diverse.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Ridotta comprensione di punti di vista alternativi===&lt;br /&gt;
La mancanza di esposizione a prospettive diverse può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche o culturali.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Maggiore vulnerabilità a influenze esterne===&lt;br /&gt;
Essere intrappolati in una bolla informativa può rendere gli utenti più facilmente influenzabili da pubblicità mirate, notizie parziali o contenuti manipolativi, aumentando il rischio di disinformazione e di decisioni basate su informazioni incomplete.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Polarizzazione e frammentazione sociale===&lt;br /&gt;
Quando grandi gruppi di utenti sono esposti solo a contenuti affini alle loro convinzioni, si rafforzano divisioni sociali e culturali, riducendo il dialogo e la cooperazione tra diversi segmenti della società.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, la &#039;&#039;filter bubble&#039;&#039; espone l’individuo e la società a rischi concreti, riducendo l’apertura mentale e la capacità di confronto tra persone con opinioni diverse.&lt;br /&gt;
&lt;br /&gt;
==Rimedi ipotizzati==&lt;br /&gt;
&lt;br /&gt;
===Consultare fonti diverse===&lt;br /&gt;
Leggere notizie e contenuti provenienti da differenti piattaforme, media e opinioni consente di avere una visione più completa della realtà e riduce il rischio di essere confinati in un ecosistema informativo limitato.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Essere consapevoli del funzionamento degli algoritmi===&lt;br /&gt;
Comprendere come gli algoritmi di personalizzazione selezionano i contenuti permette agli utenti di riconoscere la propria esposizione limitata e di cercare attivamente punti di vista alternativi.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Usare piattaforme che promuovono la varietà dei contenuti===&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti per visualizzare contenuti non filtrati o diversificati. L’uso di tali piattaforme può aiutare a rompere la bolla informativa e aumentare l’esposizione a informazioni eterogenee.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Adottare comportamenti digitali critici===&lt;br /&gt;
Verificare le fonti, confrontare le informazioni e discutere con persone che hanno punti di vista differenti sono pratiche che aiutano a mitigare gli effetti della filter bubble e a promuovere una maggiore consapevolezza digitale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, prestare attenzione alle fonti, cercare punti di vista diversi e usare strumenti digitali consapevoli può aiutare gli utenti a uscire dalla propria bolla informativa e a comprendere meglio la realtà.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
* Pariser, E. (2011). &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;. Penguin Press.&lt;br /&gt;
* Sasahara, K., Chen, W., Peng, H., Ciampaglia, G. L., Flammini, A. &amp;amp; Menczer, F. (2019). &#039;&#039;Social Influence and Unfollowing Accelerate the Emergence of Echo Chambers&#039;&#039;. arXiv:1905.03919.&lt;br /&gt;
* Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W. &amp;amp; Starnini, M. (2020). &#039;&#039;Echo Chambers on Social Media: A Comparative Analysis&#039;&#039;. arXiv:2004.09603.&lt;br /&gt;
* Applied Network Science (2024). &#039;&#039;Impact of recommender systems on information diversity&#039;&#039;.&lt;br /&gt;
* Springer (2024). &#039;&#039;Algorithmic personalization and its ethical implications&#039;&#039;.&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13648</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13648"/>
		<updated>2025-12-11T22:38:08Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La &#039;&#039;filter bubble&#039;&#039; è l’ambiente virtuale che ciascun utente costruisce su Internet quando sceglie solo i contenuti che gli piacciono. In questa bolla, l&#039;utente vede suprattutto informazioni simili a quelle che già conosciamo e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie. &lt;br /&gt;
Il termine filter bubble significa “bolla di filtraggio” ed è stato coniato da Eli Pariser nel libro &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;. &amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi ==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della filter bubble, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati, rafforzando così un ecosistema chiuso di informazioni.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;&amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919. [https://arxiv.org/abs/1905.03919](https://arxiv.org/abs/1905.03919)&amp;lt;/ref&amp;gt;&amp;lt;ref name=&amp;quot;Arxiv2004&amp;quot;&amp;gt;&amp;quot;Social media recommendation dynamics&amp;quot;, arXiv:2004.09603. [https://arxiv.org/abs/2004.09603](https://arxiv.org/abs/2004.09603)&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 evidenziano inoltre che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;Applied Network Science (2024). &#039;&#039;Impact of recommender systems on information diversity&#039;&#039;. [https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3](https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3)&amp;lt;/ref&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;&amp;gt;Springer (2024). &#039;&#039;Algorithmic personalization and its ethical implications&#039;&#039;. [https://link.springer.com/article/10.1007/s13347-024-00758-4](https://link.springer.com/article/10.1007/s13347-024-00758-4)&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, p. 40.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, riducendo la capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti mostrano che gli algoritmi di raccomandazione accentuano questa tendenza, riducendo ulteriormente la varietà dei contenuti e contribuendo alla polarizzazione delle opinioni.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Di conseguenza, la filter bubble non solo riduce la diversità informativa, ma può anche influenzare la percezione della realtà e il dibattito pubblico, perché gli utenti si trovano intrappolati in una “bolla” di contenuti che riflettono principalmente le loro idee e preferenze.&lt;br /&gt;
&lt;br /&gt;
==Implicazioni sociali e culturali==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi non influenzano solo ciò che un singolo utente vede, ma hanno anche effetti più ampi sulla società e sulla cultura. Quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, le differenze tra gruppi con visioni diverse tendono a essere enfatizzate, aumentando la polarizzazione sociale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno può ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le filter bubbles possono rafforzare stereotipi, diffondere disinformazione e ridurre l’esposizione a prospettive diverse, creando una società più frammentata. Questo può avere effetti negativi sul dibattito pubblico, sulla coesione sociale e sulla capacità collettiva di affrontare problemi complessi.&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative possono influenzare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che può condurre a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rischi==&lt;br /&gt;
&lt;br /&gt;
La filter bubble comporta diversi rischi per l’utente e per la società. Tra i principali:&lt;br /&gt;
&lt;br /&gt;
===Esposizione limitata a informazioni coerenti con le proprie idee===&lt;br /&gt;
Gli utenti vedono principalmente contenuti che confermano le loro convinzioni, riducendo la capacità di confrontarsi con opinioni diverse.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Ridotta comprensione di punti di vista alternativi===&lt;br /&gt;
La mancanza di esposizione a prospettive diverse può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche o culturali.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Maggiore vulnerabilità a influenze esterne===&lt;br /&gt;
Essere intrappolati in una bolla informativa può rendere gli utenti più facilmente influenzabili da pubblicità mirate, notizie parziali o contenuti manipolativi, aumentando il rischio di disinformazione e di decisioni basate su informazioni incomplete.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Polarizzazione e frammentazione sociale===&lt;br /&gt;
Quando grandi gruppi di utenti sono esposti solo a contenuti affini alle loro convinzioni, si rafforzano divisioni sociali e culturali, riducendo il dialogo e la cooperazione tra diversi segmenti della società.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, i rischi della filter bubble riguardano sia l’esperienza individuale, limitando la capacità di apprendere e comprendere punti di vista diversi, sia l’impatto collettivo, influenzando la società, la politica e la cultura in senso polarizzante.&lt;br /&gt;
&lt;br /&gt;
==Rimedi ipotizzati==&lt;br /&gt;
&lt;br /&gt;
===Consultare fonti diverse===&lt;br /&gt;
Leggere notizie e contenuti provenienti da differenti piattaforme, media e opinioni consente di avere una visione più completa della realtà e riduce il rischio di essere confinati in un ecosistema informativo limitato.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Essere consapevoli del funzionamento degli algoritmi===&lt;br /&gt;
Comprendere come gli algoritmi di personalizzazione selezionano i contenuti permette agli utenti di riconoscere la propria esposizione limitata e di cercare attivamente punti di vista alternativi.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Usare piattaforme che promuovono la varietà dei contenuti===&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti per visualizzare contenuti non filtrati o diversificati. L’uso di tali piattaforme può aiutare a rompere la bolla informativa e aumentare l’esposizione a informazioni eterogenee.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Adottare comportamenti digitali critici===&lt;br /&gt;
Verificare le fonti, confrontare le informazioni e discutere con persone che hanno punti di vista differenti sono pratiche che aiutano a mitigare gli effetti della filter bubble e a promuovere una maggiore consapevolezza digitale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, combinando consapevolezza, diversificazione delle fonti e utilizzo di strumenti adeguati, è possibile ridurre l’impatto della filter bubble sulla percezione della realtà e sul dibattito pubblico.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
* Pariser, E. (2011). &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;. Penguin Press.&lt;br /&gt;
* Sasahara, K., Chen, W., Peng, H., Ciampaglia, G. L., Flammini, A. &amp;amp; Menczer, F. (2019). &#039;&#039;Social Influence and Unfollowing Accelerate the Emergence of Echo Chambers&#039;&#039;. arXiv:1905.03919.&lt;br /&gt;
* Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W. &amp;amp; Starnini, M. (2020). &#039;&#039;Echo Chambers on Social Media: A Comparative Analysis&#039;&#039;. arXiv:2004.09603.&lt;br /&gt;
* Applied Network Science (2024). &#039;&#039;Impact of recommender systems on information diversity&#039;&#039;.&lt;br /&gt;
* Springer (2024). &#039;&#039;Algorithmic personalization and its ethical implications&#039;&#039;.&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13646</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13646"/>
		<updated>2025-12-11T14:18:58Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La filter bubble (loc. s.le f.) è l’ambiente virtuale che ciascun utente costruisce su Internet scegliendo solo i contenuti che gli piacciono. In questa bolla, vediamo principalmente informazioni simili a quelle che già conosciamo e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie. Il termine filter bubble significa “bolla filtrata” ed è stato coniato da Eli Pariser nel libro The Filter Bubble: What the Internet Is Hiding from You. &amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi ==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della filter bubble, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati, rafforzando così un ecosistema chiuso di informazioni.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;&amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919. [https://arxiv.org/abs/1905.03919](https://arxiv.org/abs/1905.03919)&amp;lt;/ref&amp;gt;&amp;lt;ref name=&amp;quot;Arxiv2004&amp;quot;&amp;gt;&amp;quot;Social media recommendation dynamics&amp;quot;, arXiv:2004.09603. [https://arxiv.org/abs/2004.09603](https://arxiv.org/abs/2004.09603)&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 evidenziano inoltre che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;Applied Network Science (2024). &#039;&#039;Impact of recommender systems on information diversity&#039;&#039;. [https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3](https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3)&amp;lt;/ref&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;&amp;gt;Springer (2024). &#039;&#039;Algorithmic personalization and its ethical implications&#039;&#039;. [https://link.springer.com/article/10.1007/s13347-024-00758-4](https://link.springer.com/article/10.1007/s13347-024-00758-4)&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, p. 40.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, riducendo la capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti mostrano che gli algoritmi di raccomandazione accentuano questa tendenza, riducendo ulteriormente la varietà dei contenuti e contribuendo alla polarizzazione delle opinioni.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Di conseguenza, la filter bubble non solo riduce la diversità informativa, ma può anche influenzare la percezione della realtà e il dibattito pubblico, perché gli utenti si trovano intrappolati in una “bolla” di contenuti che riflettono principalmente le loro idee e preferenze.&lt;br /&gt;
&lt;br /&gt;
==Implicazioni sociali e culturali==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi non influenzano solo ciò che un singolo utente vede, ma hanno anche effetti più ampi sulla società e sulla cultura. Quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, le differenze tra gruppi con visioni diverse tendono a essere enfatizzate, aumentando la polarizzazione sociale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno può ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le filter bubbles possono rafforzare stereotipi, diffondere disinformazione e ridurre l’esposizione a prospettive diverse, creando una società più frammentata. Questo può avere effetti negativi sul dibattito pubblico, sulla coesione sociale e sulla capacità collettiva di affrontare problemi complessi.&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative possono influenzare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che può condurre a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rischi==&lt;br /&gt;
&lt;br /&gt;
La filter bubble comporta diversi rischi per l’utente e per la società. Tra i principali:&lt;br /&gt;
&lt;br /&gt;
===Esposizione limitata a informazioni coerenti con le proprie idee===&lt;br /&gt;
Gli utenti vedono principalmente contenuti che confermano le loro convinzioni, riducendo la capacità di confrontarsi con opinioni diverse.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Ridotta comprensione di punti di vista alternativi===&lt;br /&gt;
La mancanza di esposizione a prospettive diverse può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche o culturali.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Maggiore vulnerabilità a influenze esterne===&lt;br /&gt;
Essere intrappolati in una bolla informativa può rendere gli utenti più facilmente influenzabili da pubblicità mirate, notizie parziali o contenuti manipolativi, aumentando il rischio di disinformazione e di decisioni basate su informazioni incomplete.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Polarizzazione e frammentazione sociale===&lt;br /&gt;
Quando grandi gruppi di utenti sono esposti solo a contenuti affini alle loro convinzioni, si rafforzano divisioni sociali e culturali, riducendo il dialogo e la cooperazione tra diversi segmenti della società.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, i rischi della filter bubble riguardano sia l’esperienza individuale, limitando la capacità di apprendere e comprendere punti di vista diversi, sia l’impatto collettivo, influenzando la società, la politica e la cultura in senso polarizzante.&lt;br /&gt;
&lt;br /&gt;
==Rimedi ipotizzati==&lt;br /&gt;
&lt;br /&gt;
===Consultare fonti diverse===&lt;br /&gt;
Leggere notizie e contenuti provenienti da differenti piattaforme, media e opinioni consente di avere una visione più completa della realtà e riduce il rischio di essere confinati in un ecosistema informativo limitato.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Essere consapevoli del funzionamento degli algoritmi===&lt;br /&gt;
Comprendere come gli algoritmi di personalizzazione selezionano i contenuti permette agli utenti di riconoscere la propria esposizione limitata e di cercare attivamente punti di vista alternativi.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Usare piattaforme che promuovono la varietà dei contenuti===&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti per visualizzare contenuti non filtrati o diversificati. L’uso di tali piattaforme può aiutare a rompere la bolla informativa e aumentare l’esposizione a informazioni eterogenee.&amp;lt;ref&amp;gt;Pariser, &#039;&#039;The Filter Bubble&#039;&#039;, p. 40.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Adottare comportamenti digitali critici===&lt;br /&gt;
Verificare le fonti, confrontare le informazioni e discutere con persone che hanno punti di vista differenti sono pratiche che aiutano a mitigare gli effetti della filter bubble e a promuovere una maggiore consapevolezza digitale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, combinando consapevolezza, diversificazione delle fonti e utilizzo di strumenti adeguati, è possibile ridurre l’impatto della filter bubble sulla percezione della realtà e sul dibattito pubblico.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
* Pariser, E. (2011). &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;. Penguin Press.&lt;br /&gt;
* Sasahara, K., Chen, W., Peng, H., Ciampaglia, G. L., Flammini, A. &amp;amp; Menczer, F. (2019). &#039;&#039;Social Influence and Unfollowing Accelerate the Emergence of Echo Chambers&#039;&#039;. arXiv:1905.03919.&lt;br /&gt;
* Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W. &amp;amp; Starnini, M. (2020). &#039;&#039;Echo Chambers on Social Media: A Comparative Analysis&#039;&#039;. arXiv:2004.09603.&lt;br /&gt;
* Applied Network Science (2024). &#039;&#039;Impact of recommender systems on information diversity&#039;&#039;.&lt;br /&gt;
* Springer (2024). &#039;&#039;Algorithmic personalization and its ethical implications&#039;&#039;.&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13643</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13643"/>
		<updated>2025-12-10T13:48:31Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* Bibliografia */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La filter bubble (loc. s.le f.) è l’ambiente virtuale che ciascun utente costruisce su Internet scegliendo solo i contenuti che gli piacciono. In questa bolla, vediamo principalmente informazioni simili a quelle che già conosciamo e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie. Il termine filter bubble significa “bolla filtrata” ed è stato coniato da Eli Pariser nel libro The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;&amp;gt;Pariser, E. (2011). &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi ==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della filter bubble, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati, rafforzando così un ecosistema chiuso di informazioni.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;&amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919. [https://arxiv.org/abs/1905.03919](https://arxiv.org/abs/1905.03919)&amp;lt;/ref&amp;gt;&amp;lt;ref name=&amp;quot;Arxiv2004&amp;quot;&amp;gt;&amp;quot;Social media recommendation dynamics&amp;quot;, arXiv:2004.09603. [https://arxiv.org/abs/2004.09603](https://arxiv.org/abs/2004.09603)&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 evidenziano inoltre che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;Applied Network Science (2024). &#039;&#039;Impact of recommender systems on information diversity&#039;&#039;. [https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3](https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3)&amp;lt;/ref&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;&amp;gt;Springer (2024). &#039;&#039;Algorithmic personalization and its ethical implications&#039;&#039;. [https://link.springer.com/article/10.1007/s13347-024-00758-4](https://link.springer.com/article/10.1007/s13347-024-00758-4)&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, riducendo la capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti mostrano che gli algoritmi di raccomandazione accentuano questa tendenza, riducendo ulteriormente la varietà dei contenuti e contribuendo alla polarizzazione delle opinioni.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Di conseguenza, la filter bubble non solo riduce la diversità informativa, ma può anche influenzare la percezione della realtà e il dibattito pubblico, perché gli utenti si trovano intrappolati in una “bolla” di contenuti che riflettono principalmente le loro idee e preferenze.&lt;br /&gt;
&lt;br /&gt;
==Implicazioni sociali e culturali==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi non influenzano solo ciò che un singolo utente vede, ma hanno anche effetti più ampi sulla società e sulla cultura. Quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, le differenze tra gruppi con visioni diverse tendono a essere enfatizzate, aumentando la polarizzazione sociale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno può ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le filter bubbles possono rafforzare stereotipi, diffondere disinformazione e ridurre l’esposizione a prospettive diverse, creando una società più frammentata. Questo può avere effetti negativi sul dibattito pubblico, sulla coesione sociale e sulla capacità collettiva di affrontare problemi complessi.&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative possono influenzare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che può condurre a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rischi==&lt;br /&gt;
&lt;br /&gt;
La filter bubble comporta diversi rischi per l’utente e per la società. Tra i principali:&lt;br /&gt;
&lt;br /&gt;
===Esposizione limitata a informazioni coerenti con le proprie idee===&lt;br /&gt;
Gli utenti vedono principalmente contenuti che confermano le loro convinzioni, riducendo la capacità di confrontarsi con opinioni diverse.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Ridotta comprensione di punti di vista alternativi===&lt;br /&gt;
La mancanza di esposizione a prospettive diverse può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche o culturali.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Maggiore vulnerabilità a influenze esterne===&lt;br /&gt;
Essere intrappolati in una bolla informativa può rendere gli utenti più facilmente influenzabili da pubblicità mirate, notizie parziali o contenuti manipolativi, aumentando il rischio di disinformazione e di decisioni basate su informazioni incomplete.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Polarizzazione e frammentazione sociale===&lt;br /&gt;
Quando grandi gruppi di utenti sono esposti solo a contenuti affini alle loro convinzioni, si rafforzano divisioni sociali e culturali, riducendo il dialogo e la cooperazione tra diversi segmenti della società.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, i rischi della filter bubble riguardano sia l’esperienza individuale, limitando la capacità di apprendere e comprendere punti di vista diversi, sia l’impatto collettivo, influenzando la società, la politica e la cultura in senso polarizzante.&lt;br /&gt;
&lt;br /&gt;
==Rimedi ipotizzati==&lt;br /&gt;
&lt;br /&gt;
===Consultare fonti diverse===&lt;br /&gt;
Leggere notizie e contenuti provenienti da differenti piattaforme, media e opinioni consente di avere una visione più completa della realtà e riduce il rischio di essere confinati in un ecosistema informativo limitato.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Essere consapevoli del funzionamento degli algoritmi===&lt;br /&gt;
Comprendere come gli algoritmi di personalizzazione selezionano i contenuti permette agli utenti di riconoscere la propria esposizione limitata e di cercare attivamente punti di vista alternativi.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Usare piattaforme che promuovono la varietà dei contenuti===&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti per visualizzare contenuti non filtrati o diversificati. L’uso di tali piattaforme può aiutare a rompere la bolla informativa e aumentare l’esposizione a informazioni eterogenee.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Adottare comportamenti digitali critici===&lt;br /&gt;
Verificare le fonti, confrontare le informazioni e discutere con persone che hanno punti di vista differenti sono pratiche che aiutano a mitigare gli effetti della filter bubble e a promuovere una maggiore consapevolezza digitale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, combinando consapevolezza, diversificazione delle fonti e utilizzo di strumenti adeguati, è possibile ridurre l’impatto della filter bubble sulla percezione della realtà e sul dibattito pubblico.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
* Pariser, E. (2011). &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;. Penguin Press.&lt;br /&gt;
* Sasahara, K., Chen, W., Peng, H., Ciampaglia, G. L., Flammini, A. &amp;amp; Menczer, F. (2019). &#039;&#039;Social Influence and Unfollowing Accelerate the Emergence of Echo Chambers&#039;&#039;. arXiv:1905.03919.&lt;br /&gt;
* Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W. &amp;amp; Starnini, M. (2020). &#039;&#039;Echo Chambers on Social Media: A Comparative Analysis&#039;&#039;. arXiv:2004.09603.&lt;br /&gt;
* Applied Network Science (2024). &#039;&#039;Impact of recommender systems on information diversity&#039;&#039;.&lt;br /&gt;
* Springer (2024). &#039;&#039;Algorithmic personalization and its ethical implications&#039;&#039;.&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13642</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13642"/>
		<updated>2025-12-10T13:26:47Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La filter bubble (loc. s.le f.) è l’ambiente virtuale che ciascun utente costruisce su Internet scegliendo solo i contenuti che gli piacciono. In questa bolla, vediamo principalmente informazioni simili a quelle che già conosciamo e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie. Il termine filter bubble significa “bolla filtrata” ed è stato coniato da Eli Pariser nel libro The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;&amp;gt;Pariser, E. (2011). &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi ==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della filter bubble, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati, rafforzando così un ecosistema chiuso di informazioni.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;&amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919. [https://arxiv.org/abs/1905.03919](https://arxiv.org/abs/1905.03919)&amp;lt;/ref&amp;gt;&amp;lt;ref name=&amp;quot;Arxiv2004&amp;quot;&amp;gt;&amp;quot;Social media recommendation dynamics&amp;quot;, arXiv:2004.09603. [https://arxiv.org/abs/2004.09603](https://arxiv.org/abs/2004.09603)&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 evidenziano inoltre che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;Applied Network Science (2024). &#039;&#039;Impact of recommender systems on information diversity&#039;&#039;. [https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3](https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3)&amp;lt;/ref&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;&amp;gt;Springer (2024). &#039;&#039;Algorithmic personalization and its ethical implications&#039;&#039;. [https://link.springer.com/article/10.1007/s13347-024-00758-4](https://link.springer.com/article/10.1007/s13347-024-00758-4)&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, riducendo la capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti mostrano che gli algoritmi di raccomandazione accentuano questa tendenza, riducendo ulteriormente la varietà dei contenuti e contribuendo alla polarizzazione delle opinioni.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Di conseguenza, la filter bubble non solo riduce la diversità informativa, ma può anche influenzare la percezione della realtà e il dibattito pubblico, perché gli utenti si trovano intrappolati in una “bolla” di contenuti che riflettono principalmente le loro idee e preferenze.&lt;br /&gt;
&lt;br /&gt;
==Implicazioni sociali e culturali==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi non influenzano solo ciò che un singolo utente vede, ma hanno anche effetti più ampi sulla società e sulla cultura. Quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, le differenze tra gruppi con visioni diverse tendono a essere enfatizzate, aumentando la polarizzazione sociale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno può ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le filter bubbles possono rafforzare stereotipi, diffondere disinformazione e ridurre l’esposizione a prospettive diverse, creando una società più frammentata. Questo può avere effetti negativi sul dibattito pubblico, sulla coesione sociale e sulla capacità collettiva di affrontare problemi complessi.&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative possono influenzare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che può condurre a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rischi==&lt;br /&gt;
&lt;br /&gt;
La filter bubble comporta diversi rischi per l’utente e per la società. Tra i principali:&lt;br /&gt;
&lt;br /&gt;
===Esposizione limitata a informazioni coerenti con le proprie idee===&lt;br /&gt;
Gli utenti vedono principalmente contenuti che confermano le loro convinzioni, riducendo la capacità di confrontarsi con opinioni diverse.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Ridotta comprensione di punti di vista alternativi===&lt;br /&gt;
La mancanza di esposizione a prospettive diverse può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche o culturali.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Maggiore vulnerabilità a influenze esterne===&lt;br /&gt;
Essere intrappolati in una bolla informativa può rendere gli utenti più facilmente influenzabili da pubblicità mirate, notizie parziali o contenuti manipolativi, aumentando il rischio di disinformazione e di decisioni basate su informazioni incomplete.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Polarizzazione e frammentazione sociale===&lt;br /&gt;
Quando grandi gruppi di utenti sono esposti solo a contenuti affini alle loro convinzioni, si rafforzano divisioni sociali e culturali, riducendo il dialogo e la cooperazione tra diversi segmenti della società.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, i rischi della filter bubble riguardano sia l’esperienza individuale, limitando la capacità di apprendere e comprendere punti di vista diversi, sia l’impatto collettivo, influenzando la società, la politica e la cultura in senso polarizzante.&lt;br /&gt;
&lt;br /&gt;
==Rimedi ipotizzati==&lt;br /&gt;
&lt;br /&gt;
===Consultare fonti diverse===&lt;br /&gt;
Leggere notizie e contenuti provenienti da differenti piattaforme, media e opinioni consente di avere una visione più completa della realtà e riduce il rischio di essere confinati in un ecosistema informativo limitato.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Essere consapevoli del funzionamento degli algoritmi===&lt;br /&gt;
Comprendere come gli algoritmi di personalizzazione selezionano i contenuti permette agli utenti di riconoscere la propria esposizione limitata e di cercare attivamente punti di vista alternativi.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Usare piattaforme che promuovono la varietà dei contenuti===&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti per visualizzare contenuti non filtrati o diversificati. L’uso di tali piattaforme può aiutare a rompere la bolla informativa e aumentare l’esposizione a informazioni eterogenee.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Adottare comportamenti digitali critici===&lt;br /&gt;
Verificare le fonti, confrontare le informazioni e discutere con persone che hanno punti di vista differenti sono pratiche che aiutano a mitigare gli effetti della filter bubble e a promuovere una maggiore consapevolezza digitale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, combinando consapevolezza, diversificazione delle fonti e utilizzo di strumenti adeguati, è possibile ridurre l’impatto della filter bubble sulla percezione della realtà e sul dibattito pubblico.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
* Pariser, E. (2011). &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;.&lt;br /&gt;
* &amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919. [https://arxiv.org/abs/1905.03919](https://arxiv.org/abs/1905.03919)&lt;br /&gt;
* &amp;quot;Social media recommendation dynamics&amp;quot;, arXiv:2004.09603. [https://arxiv.org/abs/2004.09603](https://arxiv.org/abs/2004.09603)&lt;br /&gt;
* Applied Network Science (2024). &#039;&#039;Impact of recommender systems on information diversity&#039;&#039;. [https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3](https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3)&lt;br /&gt;
* Springer (2024). &#039;&#039;Algorithmic personalization and its ethical implications&#039;&#039;. [https://link.springer.com/article/10.1007/s13347-024-00758-4](https://link.springer.com/article/10.1007/s13347-024-00758-4)&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13641</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13641"/>
		<updated>2025-12-10T13:25:29Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* Esposizione limitata a informazioni coerenti con le proprie idee */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La filter bubble (loc. s.le f.) è l’ambiente virtuale che ciascun utente costruisce su Internet scegliendo solo i contenuti che gli piacciono. In questa bolla, vediamo principalmente informazioni simili a quelle che già conosciamo e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie. Il termine filter bubble significa “bolla filtrata” ed è stato coniato da Eli Pariser nel libro The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;&amp;gt;Pariser, E. (2011). &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi ==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della filter bubble, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati, rafforzando così un ecosistema chiuso di informazioni.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;&amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919. [https://arxiv.org/abs/1905.03919](https://arxiv.org/abs/1905.03919)&amp;lt;/ref&amp;gt;&amp;lt;ref name=&amp;quot;Arxiv2004&amp;quot;&amp;gt;&amp;quot;Social media recommendation dynamics&amp;quot;, arXiv:2004.09603. [https://arxiv.org/abs/2004.09603](https://arxiv.org/abs/2004.09603)&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 evidenziano inoltre che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;Applied Network Science (2024). &#039;&#039;Impact of recommender systems on information diversity&#039;&#039;. [https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3](https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3)&amp;lt;/ref&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;&amp;gt;Springer (2024). &#039;&#039;Algorithmic personalization and its ethical implications&#039;&#039;. [https://link.springer.com/article/10.1007/s13347-024-00758-4](https://link.springer.com/article/10.1007/s13347-024-00758-4)&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, riducendo la capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti mostrano che gli algoritmi di raccomandazione accentuano questa tendenza, riducendo ulteriormente la varietà dei contenuti e contribuendo alla polarizzazione delle opinioni.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Di conseguenza, la filter bubble non solo riduce la diversità informativa, ma può anche influenzare la percezione della realtà e il dibattito pubblico, perché gli utenti si trovano intrappolati in una “bolla” di contenuti che riflettono principalmente le loro idee e preferenze.&lt;br /&gt;
&lt;br /&gt;
==Implicazioni sociali e culturali==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi non influenzano solo ciò che un singolo utente vede, ma hanno anche effetti più ampi sulla società e sulla cultura. Quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, le differenze tra gruppi con visioni diverse tendono a essere enfatizzate, aumentando la polarizzazione sociale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno può ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le filter bubbles possono rafforzare stereotipi, diffondere disinformazione e ridurre l’esposizione a prospettive diverse, creando una società più frammentata. Questo può avere effetti negativi sul dibattito pubblico, sulla coesione sociale e sulla capacità collettiva di affrontare problemi complessi.&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative possono influenzare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che può condurre a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rischi==&lt;br /&gt;
&lt;br /&gt;
La filter bubble comporta diversi rischi per l’utente e per la società. Tra i principali:&lt;br /&gt;
&lt;br /&gt;
===Esposizione limitata a informazioni coerenti con le proprie idee===&lt;br /&gt;
Gli utenti vedono principalmente contenuti che confermano le loro convinzioni, riducendo la capacità di confrontarsi con opinioni diverse.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Ridotta comprensione di punti di vista alternativi===&lt;br /&gt;
La mancanza di esposizione a prospettive diverse può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche o culturali.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Maggiore vulnerabilità a influenze esterne*&lt;br /&gt;
Essere intrappolati in una bolla informativa può rendere gli utenti più facilmente influenzabili da pubblicità mirate, notizie parziali o contenuti manipolativi, aumentando il rischio di disinformazione e di decisioni basate su informazioni incomplete.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Polarizzazione e frammentazione sociale*&lt;br /&gt;
Quando grandi gruppi di utenti sono esposti solo a contenuti affini alle loro convinzioni, si rafforzano divisioni sociali e culturali, riducendo il dialogo e la cooperazione tra diversi segmenti della società.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, i rischi della filter bubble riguardano sia l’esperienza individuale, limitando la capacità di apprendere e comprendere punti di vista diversi, sia l’impatto collettivo, influenzando la società, la politica e la cultura in senso polarizzante.&lt;br /&gt;
&lt;br /&gt;
==Rimedi ipotizzati==&lt;br /&gt;
&lt;br /&gt;
*Consultare fonti diverse*&lt;br /&gt;
Leggere notizie e contenuti provenienti da differenti piattaforme, media e opinioni consente di avere una visione più completa della realtà e riduce il rischio di essere confinati in un ecosistema informativo limitato.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Essere consapevoli del funzionamento degli algoritmi*&lt;br /&gt;
Comprendere come gli algoritmi di personalizzazione selezionano i contenuti permette agli utenti di riconoscere la propria esposizione limitata e di cercare attivamente punti di vista alternativi.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Usare piattaforme che promuovono la varietà dei contenuti*&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti per visualizzare contenuti non filtrati o diversificati. L’uso di tali piattaforme può aiutare a rompere la bolla informativa e aumentare l’esposizione a informazioni eterogenee.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Adottare comportamenti digitali critici*&lt;br /&gt;
Verificare le fonti, confrontare le informazioni e discutere con persone che hanno punti di vista differenti sono pratiche che aiutano a mitigare gli effetti della filter bubble e a promuovere una maggiore consapevolezza digitale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, combinando consapevolezza, diversificazione delle fonti e utilizzo di strumenti adeguati, è possibile ridurre l’impatto della filter bubble sulla percezione della realtà e sul dibattito pubblico.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
* Pariser, E. (2011). &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;.&lt;br /&gt;
* &amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919. [https://arxiv.org/abs/1905.03919](https://arxiv.org/abs/1905.03919)&lt;br /&gt;
* &amp;quot;Social media recommendation dynamics&amp;quot;, arXiv:2004.09603. [https://arxiv.org/abs/2004.09603](https://arxiv.org/abs/2004.09603)&lt;br /&gt;
* Applied Network Science (2024). &#039;&#039;Impact of recommender systems on information diversity&#039;&#039;. [https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3](https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3)&lt;br /&gt;
* Springer (2024). &#039;&#039;Algorithmic personalization and its ethical implications&#039;&#039;. [https://link.springer.com/article/10.1007/s13347-024-00758-4](https://link.springer.com/article/10.1007/s13347-024-00758-4)&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13640</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13640"/>
		<updated>2025-12-10T13:09:54Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La filter bubble (loc. s.le f.) è l’ambiente virtuale che ciascun utente costruisce su Internet scegliendo solo i contenuti che gli piacciono. In questa bolla, vediamo principalmente informazioni simili a quelle che già conosciamo e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie. Il termine filter bubble significa “bolla filtrata” ed è stato coniato da Eli Pariser nel libro The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;&amp;gt;Pariser, E. (2011). &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi ==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della filter bubble, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati, rafforzando così un ecosistema chiuso di informazioni.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;&amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919. [https://arxiv.org/abs/1905.03919](https://arxiv.org/abs/1905.03919)&amp;lt;/ref&amp;gt;&amp;lt;ref name=&amp;quot;Arxiv2004&amp;quot;&amp;gt;&amp;quot;Social media recommendation dynamics&amp;quot;, arXiv:2004.09603. [https://arxiv.org/abs/2004.09603](https://arxiv.org/abs/2004.09603)&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 evidenziano inoltre che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;Applied Network Science (2024). &#039;&#039;Impact of recommender systems on information diversity&#039;&#039;. [https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3](https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3)&amp;lt;/ref&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;&amp;gt;Springer (2024). &#039;&#039;Algorithmic personalization and its ethical implications&#039;&#039;. [https://link.springer.com/article/10.1007/s13347-024-00758-4](https://link.springer.com/article/10.1007/s13347-024-00758-4)&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, riducendo la capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti mostrano che gli algoritmi di raccomandazione accentuano questa tendenza, riducendo ulteriormente la varietà dei contenuti e contribuendo alla polarizzazione delle opinioni.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Di conseguenza, la filter bubble non solo riduce la diversità informativa, ma può anche influenzare la percezione della realtà e il dibattito pubblico, perché gli utenti si trovano intrappolati in una “bolla” di contenuti che riflettono principalmente le loro idee e preferenze.&lt;br /&gt;
&lt;br /&gt;
==Implicazioni sociali e culturali==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi non influenzano solo ciò che un singolo utente vede, ma hanno anche effetti più ampi sulla società e sulla cultura. Quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, le differenze tra gruppi con visioni diverse tendono a essere enfatizzate, aumentando la polarizzazione sociale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno può ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le filter bubbles possono rafforzare stereotipi, diffondere disinformazione e ridurre l’esposizione a prospettive diverse, creando una società più frammentata. Questo può avere effetti negativi sul dibattito pubblico, sulla coesione sociale e sulla capacità collettiva di affrontare problemi complessi.&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative possono influenzare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che può condurre a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Rischi==&lt;br /&gt;
&lt;br /&gt;
La filter bubble comporta diversi rischi per l’utente e per la società. Tra i principali:&lt;br /&gt;
&lt;br /&gt;
===Esposizione limitata a informazioni coerenti con le proprie idee===&lt;br /&gt;
Gli utenti vedono principalmente contenuti che confermano le loro convinzioni, riducendo la capacità di confrontarsi con opinioni diverse.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ridotta comprensione di punti di vista alternativi*&lt;br /&gt;
La mancanza di esposizione a prospettive diverse può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche o culturali.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Maggiore vulnerabilità a influenze esterne*&lt;br /&gt;
Essere intrappolati in una bolla informativa può rendere gli utenti più facilmente influenzabili da pubblicità mirate, notizie parziali o contenuti manipolativi, aumentando il rischio di disinformazione e di decisioni basate su informazioni incomplete.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Polarizzazione e frammentazione sociale*&lt;br /&gt;
Quando grandi gruppi di utenti sono esposti solo a contenuti affini alle loro convinzioni, si rafforzano divisioni sociali e culturali, riducendo il dialogo e la cooperazione tra diversi segmenti della società.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, i rischi della filter bubble riguardano sia l’esperienza individuale, limitando la capacità di apprendere e comprendere punti di vista diversi, sia l’impatto collettivo, influenzando la società, la politica e la cultura in senso polarizzante.&lt;br /&gt;
&lt;br /&gt;
==Rimedi ipotizzati==&lt;br /&gt;
&lt;br /&gt;
*Consultare fonti diverse*&lt;br /&gt;
Leggere notizie e contenuti provenienti da differenti piattaforme, media e opinioni consente di avere una visione più completa della realtà e riduce il rischio di essere confinati in un ecosistema informativo limitato.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Essere consapevoli del funzionamento degli algoritmi*&lt;br /&gt;
Comprendere come gli algoritmi di personalizzazione selezionano i contenuti permette agli utenti di riconoscere la propria esposizione limitata e di cercare attivamente punti di vista alternativi.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Usare piattaforme che promuovono la varietà dei contenuti*&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti per visualizzare contenuti non filtrati o diversificati. L’uso di tali piattaforme può aiutare a rompere la bolla informativa e aumentare l’esposizione a informazioni eterogenee.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Adottare comportamenti digitali critici*&lt;br /&gt;
Verificare le fonti, confrontare le informazioni e discutere con persone che hanno punti di vista differenti sono pratiche che aiutano a mitigare gli effetti della filter bubble e a promuovere una maggiore consapevolezza digitale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, combinando consapevolezza, diversificazione delle fonti e utilizzo di strumenti adeguati, è possibile ridurre l’impatto della filter bubble sulla percezione della realtà e sul dibattito pubblico.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
* Pariser, E. (2011). &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;.&lt;br /&gt;
* &amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919. [https://arxiv.org/abs/1905.03919](https://arxiv.org/abs/1905.03919)&lt;br /&gt;
* &amp;quot;Social media recommendation dynamics&amp;quot;, arXiv:2004.09603. [https://arxiv.org/abs/2004.09603](https://arxiv.org/abs/2004.09603)&lt;br /&gt;
* Applied Network Science (2024). &#039;&#039;Impact of recommender systems on information diversity&#039;&#039;. [https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3](https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3)&lt;br /&gt;
* Springer (2024). &#039;&#039;Algorithmic personalization and its ethical implications&#039;&#039;. [https://link.springer.com/article/10.1007/s13347-024-00758-4](https://link.springer.com/article/10.1007/s13347-024-00758-4)&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13392</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13392"/>
		<updated>2025-11-30T18:32:17Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La filter bubble (loc. s.le f.) è l’ambiente virtuale che ciascun utente costruisce su Internet scegliendo solo i contenuti che gli piacciono. In questa bolla, vediamo principalmente informazioni simili a quelle che già conosciamo e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie. Il termine filter bubble significa “bolla filtrata” ed è stato coniato da Eli Pariser nel libro The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;&amp;gt;Pariser, E. (2011). &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==1. Funzionamento degli algoritmi ==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della filter bubble, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati, rafforzando così un ecosistema chiuso di informazioni.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;&amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919. [https://arxiv.org/abs/1905.03919](https://arxiv.org/abs/1905.03919)&amp;lt;/ref&amp;gt;&amp;lt;ref name=&amp;quot;Arxiv2004&amp;quot;&amp;gt;&amp;quot;Social media recommendation dynamics&amp;quot;, arXiv:2004.09603. [https://arxiv.org/abs/2004.09603](https://arxiv.org/abs/2004.09603)&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 evidenziano inoltre che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;Applied Network Science (2024). &#039;&#039;Impact of recommender systems on information diversity&#039;&#039;. [https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3](https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3)&amp;lt;/ref&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;&amp;gt;Springer (2024). &#039;&#039;Algorithmic personalization and its ethical implications&#039;&#039;. [https://link.springer.com/article/10.1007/s13347-024-00758-4](https://link.springer.com/article/10.1007/s13347-024-00758-4)&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==2. Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, riducendo la capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti mostrano che gli algoritmi di raccomandazione accentuano questa tendenza, riducendo ulteriormente la varietà dei contenuti e contribuendo alla polarizzazione delle opinioni.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Di conseguenza, la filter bubble non solo riduce la diversità informativa, ma può anche influenzare la percezione della realtà e il dibattito pubblico, perché gli utenti si trovano intrappolati in una “bolla” di contenuti che riflettono principalmente le loro idee e preferenze.&lt;br /&gt;
&lt;br /&gt;
==3. Implicazioni sociali e culturali==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi non influenzano solo ciò che un singolo utente vede, ma hanno anche effetti più ampi sulla società e sulla cultura. Quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, le differenze tra gruppi con visioni diverse tendono a essere enfatizzate, aumentando la polarizzazione sociale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno può ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le filter bubbles possono rafforzare stereotipi, diffondere disinformazione e ridurre l’esposizione a prospettive diverse, creando una società più frammentata. Questo può avere effetti negativi sul dibattito pubblico, sulla coesione sociale e sulla capacità collettiva di affrontare problemi complessi.&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative possono influenzare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che può condurre a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==4. Rischi==&lt;br /&gt;
&lt;br /&gt;
La filter bubble comporta diversi rischi per l’utente e per la società. Tra i principali:&lt;br /&gt;
&lt;br /&gt;
*Esposizione limitata a informazioni coerenti con le proprie idee*&lt;br /&gt;
Gli utenti vedono principalmente contenuti che confermano le loro convinzioni, riducendo la capacità di confrontarsi con opinioni diverse.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ridotta comprensione di punti di vista alternativi*&lt;br /&gt;
La mancanza di esposizione a prospettive diverse può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche o culturali.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Maggiore vulnerabilità a influenze esterne*&lt;br /&gt;
Essere intrappolati in una bolla informativa può rendere gli utenti più facilmente influenzabili da pubblicità mirate, notizie parziali o contenuti manipolativi, aumentando il rischio di disinformazione e di decisioni basate su informazioni incomplete.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Polarizzazione e frammentazione sociale*&lt;br /&gt;
Quando grandi gruppi di utenti sono esposti solo a contenuti affini alle loro convinzioni, si rafforzano divisioni sociali e culturali, riducendo il dialogo e la cooperazione tra diversi segmenti della società.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, i rischi della filter bubble riguardano sia l’esperienza individuale, limitando la capacità di apprendere e comprendere punti di vista diversi, sia l’impatto collettivo, influenzando la società, la politica e la cultura in senso polarizzante.&lt;br /&gt;
&lt;br /&gt;
==5. Rimedi ipotizzati==&lt;br /&gt;
&lt;br /&gt;
*Consultare fonti diverse*&lt;br /&gt;
Leggere notizie e contenuti provenienti da differenti piattaforme, media e opinioni consente di avere una visione più completa della realtà e riduce il rischio di essere confinati in un ecosistema informativo limitato.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Essere consapevoli del funzionamento degli algoritmi*&lt;br /&gt;
Comprendere come gli algoritmi di personalizzazione selezionano i contenuti permette agli utenti di riconoscere la propria esposizione limitata e di cercare attivamente punti di vista alternativi.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Usare piattaforme che promuovono la varietà dei contenuti*&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti per visualizzare contenuti non filtrati o diversificati. L’uso di tali piattaforme può aiutare a rompere la bolla informativa e aumentare l’esposizione a informazioni eterogenee.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Adottare comportamenti digitali critici*&lt;br /&gt;
Verificare le fonti, confrontare le informazioni e discutere con persone che hanno punti di vista differenti sono pratiche che aiutano a mitigare gli effetti della filter bubble e a promuovere una maggiore consapevolezza digitale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, combinando consapevolezza, diversificazione delle fonti e utilizzo di strumenti adeguati, è possibile ridurre l’impatto della filter bubble sulla percezione della realtà e sul dibattito pubblico.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
* Pariser, E. (2011). &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;.&lt;br /&gt;
* &amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919. [https://arxiv.org/abs/1905.03919](https://arxiv.org/abs/1905.03919)&lt;br /&gt;
* &amp;quot;Social media recommendation dynamics&amp;quot;, arXiv:2004.09603. [https://arxiv.org/abs/2004.09603](https://arxiv.org/abs/2004.09603)&lt;br /&gt;
* Applied Network Science (2024). &#039;&#039;Impact of recommender systems on information diversity&#039;&#039;. [https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3](https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3)&lt;br /&gt;
* Springer (2024). &#039;&#039;Algorithmic personalization and its ethical implications&#039;&#039;. [https://link.springer.com/article/10.1007/s13347-024-00758-4](https://link.springer.com/article/10.1007/s13347-024-00758-4)&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13391</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13391"/>
		<updated>2025-11-30T18:30:09Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La filter bubble (loc. s.le f.) è l’ambiente virtuale che ciascun utente costruisce su Internet scegliendo solo i contenuti che gli piacciono. In questa bolla, vediamo principalmente informazioni simili a quelle che già conosciamo e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie. Il termine filter bubble significa “bolla filtrata” ed è stato coniato da Eli Pariser nel libro The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;&amp;gt;Pariser, E. (2011). &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==1. Funzionamento degli algoritmi di personalizzazione==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della filter bubble, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati, rafforzando così un ecosistema chiuso di informazioni.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;&amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919. [https://arxiv.org/abs/1905.03919](https://arxiv.org/abs/1905.03919)&amp;lt;/ref&amp;gt;&amp;lt;ref name=&amp;quot;Arxiv2004&amp;quot;&amp;gt;&amp;quot;Social media recommendation dynamics&amp;quot;, arXiv:2004.09603. [https://arxiv.org/abs/2004.09603](https://arxiv.org/abs/2004.09603)&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 evidenziano inoltre che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;Applied Network Science (2024). &#039;&#039;Impact of recommender systems on information diversity&#039;&#039;. [https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3](https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3)&amp;lt;/ref&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;&amp;gt;Springer (2024). &#039;&#039;Algorithmic personalization and its ethical implications&#039;&#039;. [https://link.springer.com/article/10.1007/s13347-024-00758-4](https://link.springer.com/article/10.1007/s13347-024-00758-4)&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==2. Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, riducendo la capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti mostrano che gli algoritmi di raccomandazione accentuano questa tendenza, riducendo ulteriormente la varietà dei contenuti e contribuendo alla polarizzazione delle opinioni.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Di conseguenza, la filter bubble non solo riduce la diversità informativa, ma può anche influenzare la percezione della realtà e il dibattito pubblico, perché gli utenti si trovano intrappolati in una “bolla” di contenuti che riflettono principalmente le loro idee e preferenze.&lt;br /&gt;
&lt;br /&gt;
==3. Implicazioni sociali e culturali==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi non influenzano solo ciò che un singolo utente vede, ma hanno anche effetti più ampi sulla società e sulla cultura. Quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, le differenze tra gruppi con visioni diverse tendono a essere enfatizzate, aumentando la polarizzazione sociale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno può ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le filter bubbles possono rafforzare stereotipi, diffondere disinformazione e ridurre l’esposizione a prospettive diverse, creando una società più frammentata. Questo può avere effetti negativi sul dibattito pubblico, sulla coesione sociale e sulla capacità collettiva di affrontare problemi complessi.&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative possono influenzare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che può condurre a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==4. Rischi==&lt;br /&gt;
&lt;br /&gt;
La filter bubble comporta diversi rischi per l’utente e per la società. Tra i principali:&lt;br /&gt;
&lt;br /&gt;
*Esposizione limitata a informazioni coerenti con le proprie idee*&lt;br /&gt;
Gli utenti vedono principalmente contenuti che confermano le loro convinzioni, riducendo la capacità di confrontarsi con opinioni diverse.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ridotta comprensione di punti di vista alternativi*&lt;br /&gt;
La mancanza di esposizione a prospettive diverse può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche o culturali.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Maggiore vulnerabilità a influenze esterne*&lt;br /&gt;
Essere intrappolati in una bolla informativa può rendere gli utenti più facilmente influenzabili da pubblicità mirate, notizie parziali o contenuti manipolativi, aumentando il rischio di disinformazione e di decisioni basate su informazioni incomplete.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Polarizzazione e frammentazione sociale*&lt;br /&gt;
Quando grandi gruppi di utenti sono esposti solo a contenuti affini alle loro convinzioni, si rafforzano divisioni sociali e culturali, riducendo il dialogo e la cooperazione tra diversi segmenti della società.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, i rischi della filter bubble riguardano sia l’esperienza individuale, limitando la capacità di apprendere e comprendere punti di vista diversi, sia l’impatto collettivo, influenzando la società, la politica e la cultura in senso polarizzante.&lt;br /&gt;
&lt;br /&gt;
==5. Rimedi ipotizzati==&lt;br /&gt;
&lt;br /&gt;
*Consultare fonti diverse*&lt;br /&gt;
Leggere notizie e contenuti provenienti da differenti piattaforme, media e opinioni consente di avere una visione più completa della realtà e riduce il rischio di essere confinati in un ecosistema informativo limitato.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Essere consapevoli del funzionamento degli algoritmi*&lt;br /&gt;
Comprendere come gli algoritmi di personalizzazione selezionano i contenuti permette agli utenti di riconoscere la propria esposizione limitata e di cercare attivamente punti di vista alternativi.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Usare piattaforme che promuovono la varietà dei contenuti*&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti per visualizzare contenuti non filtrati o diversificati. L’uso di tali piattaforme può aiutare a rompere la bolla informativa e aumentare l’esposizione a informazioni eterogenee.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Adottare comportamenti digitali critici*&lt;br /&gt;
Verificare le fonti, confrontare le informazioni e discutere con persone che hanno punti di vista differenti sono pratiche che aiutano a mitigare gli effetti della filter bubble e a promuovere una maggiore consapevolezza digitale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, combinando consapevolezza, diversificazione delle fonti e utilizzo di strumenti adeguati, è possibile ridurre l’impatto della filter bubble sulla percezione della realtà e sul dibattito pubblico.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
* Pariser, E. (2011). &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;.&lt;br /&gt;
* &amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919. [https://arxiv.org/abs/1905.03919](https://arxiv.org/abs/1905.03919)&lt;br /&gt;
* &amp;quot;Social media recommendation dynamics&amp;quot;, arXiv:2004.09603. [https://arxiv.org/abs/2004.09603](https://arxiv.org/abs/2004.09603)&lt;br /&gt;
* Applied Network Science (2024). &#039;&#039;Impact of recommender systems on information diversity&#039;&#039;. [https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3](https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3)&lt;br /&gt;
* Springer (2024). &#039;&#039;Algorithmic personalization and its ethical implications&#039;&#039;. [https://link.springer.com/article/10.1007/s13347-024-00758-4](https://link.springer.com/article/10.1007/s13347-024-00758-4)&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13390</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13390"/>
		<updated>2025-11-30T17:57:19Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* Bibliografia */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La filter bubble (loc. s.le f.) è l’ambiente virtuale che ciascun utente costruisce su Internet scegliendo solo i contenuti che gli piacciono. In questa bolla, vediamo principalmente informazioni simili a quelle che già conosciamo e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie. Il termine filter bubble significa “bolla filtrata” ed è stato coniato da Eli Pariser nel libro The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi di personalizzazione==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della filter bubble, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati, rafforzando così un ecosistema chiuso di informazioni.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Arxiv2004&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 evidenziano inoltre che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==3. Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, riducendo la capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti mostrano che gli algoritmi di raccomandazione accentuano questa tendenza, riducendo ulteriormente la varietà dei contenuti e contribuendo alla polarizzazione delle opinioni.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Di conseguenza, la filter bubble non solo riduce la diversità informativa, ma può anche influenzare la percezione della realtà e il dibattito pubblico, perché gli utenti si trovano intrappolati in una “bolla” di contenuti che riflettono principalmente le loro idee e preferenze.&lt;br /&gt;
&lt;br /&gt;
==4. Implicazioni sociali e culturali: ==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi non influenzano solo ciò che un singolo utente vede, ma hanno anche effetti più ampi sulla società e sulla cultura. Quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, le differenze tra gruppi con visioni diverse tendono a essere enfatizzate, aumentando la polarizzazione sociale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno può ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le filter bubbles possono rafforzare stereotipi, diffondere disinformazione e ridurre l’esposizione a prospettive diverse, creando una società più frammentata. Questo può avere effetti negativi sul dibattito pubblico, sulla coesione sociale e sulla capacità collettiva di affrontare problemi complessi.&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative possono influenzare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che può condurre a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==5. Rischi: ==&lt;br /&gt;
&lt;br /&gt;
La filter bubble comporta diversi rischi per l’utente e per la società. Tra i principali:&lt;br /&gt;
&lt;br /&gt;
Esposizione limitata a informazioni coerenti con le proprie idee&lt;br /&gt;
Gli utenti vedono principalmente contenuti che confermano le loro convinzioni, riducendo la capacità di confrontarsi con opinioni diverse.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ridotta comprensione di punti di vista alternativi&lt;br /&gt;
La mancanza di esposizione a prospettive diverse può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche o culturali.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Maggiore vulnerabilità a influenze esterne&lt;br /&gt;
Essere intrappolati in una bolla informativa può rendere gli utenti più facilmente influenzabili da pubblicità mirate, notizie parziali o contenuti manipolativi, aumentando il rischio di disinformazione e di decisioni basate su informazioni incomplete.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Polarizzazione e frammentazione sociale&lt;br /&gt;
Quando grandi gruppi di utenti sono esposti solo a contenuti affini alle loro convinzioni, si rafforzano divisioni sociali e culturali, riducendo il dialogo e la cooperazione tra diversi segmenti della società.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, i rischi della filter bubble riguardano sia l’esperienza individuale, limitando la capacità di apprendere e comprendere punti di vista diversi, sia l’impatto collettivo, influenzando la società, la politica e la cultura in senso polarizzante.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==6. Rimedi ipotizzati: ==&lt;br /&gt;
&lt;br /&gt;
Per ridurre gli effetti della filter bubble, possono essere adottate diverse strategie e buone pratiche:&lt;br /&gt;
&lt;br /&gt;
Consultare fonti diverse&lt;br /&gt;
Leggere notizie e contenuti provenienti da differenti piattaforme, media e opinioni consente di avere una visione più completa della realtà e riduce il rischio di essere confinati in un ecosistema informativo limitato.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Essere consapevoli del funzionamento degli algoritmi&lt;br /&gt;
Comprendere come gli algoritmi di personalizzazione selezionano i contenuti permette agli utenti di riconoscere la propria esposizione limitata e di cercare attivamente punti di vista alternativi.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Usare piattaforme che promuovono la varietà dei contenuti&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti per visualizzare contenuti non filtrati o diversificati. L’uso di tali piattaforme può aiutare a rompere la bolla informativa e aumentare l’esposizione a informazioni eterogenee.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Adottare comportamenti digitali critici&lt;br /&gt;
Verificare le fonti, confrontare le informazioni e discutere con persone che hanno punti di vista differenti sono pratiche che aiutano a mitigare gli effetti della filter bubble e a promuovere una maggiore consapevolezza digitale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, combinando consapevolezza, diversificazione delle fonti e utilizzo di strumenti adeguati, è possibile ridurre l’impatto della filter bubble sulla percezione della realtà e sul dibattito pubblico.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
* Pariser, E. (2011). &#039;&#039;The Filter Bubble: What the Internet Is Hiding from You&#039;&#039;.&lt;br /&gt;
* &amp;quot;Information filtering and personalization algorithms&amp;quot;, arXiv:1905.03919. https://arxiv.org/abs/1905.03919&lt;br /&gt;
* &amp;quot;Social media recommendation dynamics&amp;quot;, arXiv:2004.09603. https://arxiv.org/abs/2004.09603&lt;br /&gt;
* Applied Network Science (2024). &#039;&#039;Impact of recommender systems on information diversity&#039;&#039;. https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&lt;br /&gt;
* Springer (2024). &#039;&#039;Algorithmic personalization and its ethical implications&#039;&#039;. https://link.springer.com/article/10.1007/s13347-024-00758-4&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13389</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13389"/>
		<updated>2025-11-30T17:56:52Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* Note */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La filter bubble (loc. s.le f.) è l’ambiente virtuale che ciascun utente costruisce su Internet scegliendo solo i contenuti che gli piacciono. In questa bolla, vediamo principalmente informazioni simili a quelle che già conosciamo e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie. Il termine filter bubble significa “bolla filtrata” ed è stato coniato da Eli Pariser nel libro The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi di personalizzazione==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della filter bubble, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati, rafforzando così un ecosistema chiuso di informazioni.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Arxiv2004&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 evidenziano inoltre che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==3. Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, riducendo la capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti mostrano che gli algoritmi di raccomandazione accentuano questa tendenza, riducendo ulteriormente la varietà dei contenuti e contribuendo alla polarizzazione delle opinioni.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Di conseguenza, la filter bubble non solo riduce la diversità informativa, ma può anche influenzare la percezione della realtà e il dibattito pubblico, perché gli utenti si trovano intrappolati in una “bolla” di contenuti che riflettono principalmente le loro idee e preferenze.&lt;br /&gt;
&lt;br /&gt;
==4. Implicazioni sociali e culturali: ==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi non influenzano solo ciò che un singolo utente vede, ma hanno anche effetti più ampi sulla società e sulla cultura. Quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, le differenze tra gruppi con visioni diverse tendono a essere enfatizzate, aumentando la polarizzazione sociale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno può ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le filter bubbles possono rafforzare stereotipi, diffondere disinformazione e ridurre l’esposizione a prospettive diverse, creando una società più frammentata. Questo può avere effetti negativi sul dibattito pubblico, sulla coesione sociale e sulla capacità collettiva di affrontare problemi complessi.&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative possono influenzare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che può condurre a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==5. Rischi: ==&lt;br /&gt;
&lt;br /&gt;
La filter bubble comporta diversi rischi per l’utente e per la società. Tra i principali:&lt;br /&gt;
&lt;br /&gt;
Esposizione limitata a informazioni coerenti con le proprie idee&lt;br /&gt;
Gli utenti vedono principalmente contenuti che confermano le loro convinzioni, riducendo la capacità di confrontarsi con opinioni diverse.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ridotta comprensione di punti di vista alternativi&lt;br /&gt;
La mancanza di esposizione a prospettive diverse può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche o culturali.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Maggiore vulnerabilità a influenze esterne&lt;br /&gt;
Essere intrappolati in una bolla informativa può rendere gli utenti più facilmente influenzabili da pubblicità mirate, notizie parziali o contenuti manipolativi, aumentando il rischio di disinformazione e di decisioni basate su informazioni incomplete.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Polarizzazione e frammentazione sociale&lt;br /&gt;
Quando grandi gruppi di utenti sono esposti solo a contenuti affini alle loro convinzioni, si rafforzano divisioni sociali e culturali, riducendo il dialogo e la cooperazione tra diversi segmenti della società.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, i rischi della filter bubble riguardano sia l’esperienza individuale, limitando la capacità di apprendere e comprendere punti di vista diversi, sia l’impatto collettivo, influenzando la società, la politica e la cultura in senso polarizzante.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==6. Rimedi ipotizzati: ==&lt;br /&gt;
&lt;br /&gt;
Per ridurre gli effetti della filter bubble, possono essere adottate diverse strategie e buone pratiche:&lt;br /&gt;
&lt;br /&gt;
Consultare fonti diverse&lt;br /&gt;
Leggere notizie e contenuti provenienti da differenti piattaforme, media e opinioni consente di avere una visione più completa della realtà e riduce il rischio di essere confinati in un ecosistema informativo limitato.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Essere consapevoli del funzionamento degli algoritmi&lt;br /&gt;
Comprendere come gli algoritmi di personalizzazione selezionano i contenuti permette agli utenti di riconoscere la propria esposizione limitata e di cercare attivamente punti di vista alternativi.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Usare piattaforme che promuovono la varietà dei contenuti&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti per visualizzare contenuti non filtrati o diversificati. L’uso di tali piattaforme può aiutare a rompere la bolla informativa e aumentare l’esposizione a informazioni eterogenee.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Adottare comportamenti digitali critici&lt;br /&gt;
Verificare le fonti, confrontare le informazioni e discutere con persone che hanno punti di vista differenti sono pratiche che aiutano a mitigare gli effetti della filter bubble e a promuovere una maggiore consapevolezza digitale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, combinando consapevolezza, diversificazione delle fonti e utilizzo di strumenti adeguati, è possibile ridurre l’impatto della filter bubble sulla percezione della realtà e sul dibattito pubblico.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&lt;br /&gt;
&lt;br /&gt;
“Information filtering and personalization algorithms”, arXiv:1905.03919. https://arxiv.org/abs/1905.03919&lt;br /&gt;
&lt;br /&gt;
“Social media recommendation dynamics”, arXiv:2004.09603. https://arxiv.org/abs/2004.09603&lt;br /&gt;
&lt;br /&gt;
Applied Network Science (2024). Impact of recommender systems on information diversity. https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&lt;br /&gt;
&lt;br /&gt;
Springer (2024). Algorithmic personalization and its ethical implications. https://link.springer.com/article/10.1007/s13347-024-00758-4&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13388</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13388"/>
		<updated>2025-11-30T17:52:37Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La filter bubble (loc. s.le f.) è l’ambiente virtuale che ciascun utente costruisce su Internet scegliendo solo i contenuti che gli piacciono. In questa bolla, vediamo principalmente informazioni simili a quelle che già conosciamo e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie. Il termine filter bubble significa “bolla filtrata” ed è stato coniato da Eli Pariser nel libro The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi di personalizzazione==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della filter bubble, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati, rafforzando così un ecosistema chiuso di informazioni.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Arxiv2004&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 evidenziano inoltre che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==3. Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, riducendo la capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti mostrano che gli algoritmi di raccomandazione accentuano questa tendenza, riducendo ulteriormente la varietà dei contenuti e contribuendo alla polarizzazione delle opinioni.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Di conseguenza, la filter bubble non solo riduce la diversità informativa, ma può anche influenzare la percezione della realtà e il dibattito pubblico, perché gli utenti si trovano intrappolati in una “bolla” di contenuti che riflettono principalmente le loro idee e preferenze.&lt;br /&gt;
&lt;br /&gt;
==4. Implicazioni sociali e culturali: ==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi non influenzano solo ciò che un singolo utente vede, ma hanno anche effetti più ampi sulla società e sulla cultura. Quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, le differenze tra gruppi con visioni diverse tendono a essere enfatizzate, aumentando la polarizzazione sociale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno può ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le filter bubbles possono rafforzare stereotipi, diffondere disinformazione e ridurre l’esposizione a prospettive diverse, creando una società più frammentata. Questo può avere effetti negativi sul dibattito pubblico, sulla coesione sociale e sulla capacità collettiva di affrontare problemi complessi.&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative possono influenzare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che può condurre a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==5. Rischi: ==&lt;br /&gt;
&lt;br /&gt;
La filter bubble comporta diversi rischi per l’utente e per la società. Tra i principali:&lt;br /&gt;
&lt;br /&gt;
Esposizione limitata a informazioni coerenti con le proprie idee&lt;br /&gt;
Gli utenti vedono principalmente contenuti che confermano le loro convinzioni, riducendo la capacità di confrontarsi con opinioni diverse.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ridotta comprensione di punti di vista alternativi&lt;br /&gt;
La mancanza di esposizione a prospettive diverse può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche o culturali.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Maggiore vulnerabilità a influenze esterne&lt;br /&gt;
Essere intrappolati in una bolla informativa può rendere gli utenti più facilmente influenzabili da pubblicità mirate, notizie parziali o contenuti manipolativi, aumentando il rischio di disinformazione e di decisioni basate su informazioni incomplete.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Polarizzazione e frammentazione sociale&lt;br /&gt;
Quando grandi gruppi di utenti sono esposti solo a contenuti affini alle loro convinzioni, si rafforzano divisioni sociali e culturali, riducendo il dialogo e la cooperazione tra diversi segmenti della società.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, i rischi della filter bubble riguardano sia l’esperienza individuale, limitando la capacità di apprendere e comprendere punti di vista diversi, sia l’impatto collettivo, influenzando la società, la politica e la cultura in senso polarizzante.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==6. Rimedi ipotizzati: ==&lt;br /&gt;
&lt;br /&gt;
Per ridurre gli effetti della filter bubble, possono essere adottate diverse strategie e buone pratiche:&lt;br /&gt;
&lt;br /&gt;
Consultare fonti diverse&lt;br /&gt;
Leggere notizie e contenuti provenienti da differenti piattaforme, media e opinioni consente di avere una visione più completa della realtà e riduce il rischio di essere confinati in un ecosistema informativo limitato.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Essere consapevoli del funzionamento degli algoritmi&lt;br /&gt;
Comprendere come gli algoritmi di personalizzazione selezionano i contenuti permette agli utenti di riconoscere la propria esposizione limitata e di cercare attivamente punti di vista alternativi.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Usare piattaforme che promuovono la varietà dei contenuti&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti per visualizzare contenuti non filtrati o diversificati. L’uso di tali piattaforme può aiutare a rompere la bolla informativa e aumentare l’esposizione a informazioni eterogenee.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Adottare comportamenti digitali critici&lt;br /&gt;
Verificare le fonti, confrontare le informazioni e discutere con persone che hanno punti di vista differenti sono pratiche che aiutano a mitigare gli effetti della filter bubble e a promuovere una maggiore consapevolezza digitale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, combinando consapevolezza, diversificazione delle fonti e utilizzo di strumenti adeguati, è possibile ridurre l’impatto della filter bubble sulla percezione della realtà e sul dibattito pubblico.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references&amp;gt; &amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;&amp;gt;Pariser, E. (2011). &amp;lt;i&amp;gt;The Filter Bubble: What the Internet Is Hiding from You&amp;lt;/i&amp;gt;.&amp;lt;/ref&amp;gt; &amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;“Information filtering and personalization algorithms”, arXiv:1905.03919. https://arxiv.org/abs/1905.03919&amp;lt;/ref&amp;gt; &amp;lt;ref name=&amp;quot;Arxiv2004&amp;quot;&amp;gt;“Social media recommendation dynamics”, arXiv:2004.09603. https://arxiv.org/abs/2004.09603&amp;lt;/ref&amp;gt; &amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;Applied Network Science (2024). Impact of recommender systems on information diversity. https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&amp;lt;/ref&amp;gt; &amp;lt;ref name=&amp;quot;Springer2024&amp;quot;&amp;gt;Springer (2024). Algorithmic personalization and its ethical implications. https://link.springer.com/article/10.1007/s13347-024-00758-4&amp;lt;/ref&amp;gt; &lt;br /&gt;
&amp;lt;/references&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&lt;br /&gt;
&lt;br /&gt;
“Information filtering and personalization algorithms”, arXiv:1905.03919. https://arxiv.org/abs/1905.03919&lt;br /&gt;
&lt;br /&gt;
“Social media recommendation dynamics”, arXiv:2004.09603. https://arxiv.org/abs/2004.09603&lt;br /&gt;
&lt;br /&gt;
Applied Network Science (2024). Impact of recommender systems on information diversity. https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&lt;br /&gt;
&lt;br /&gt;
Springer (2024). Algorithmic personalization and its ethical implications. https://link.springer.com/article/10.1007/s13347-024-00758-4&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13387</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13387"/>
		<updated>2025-11-30T17:46:20Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* Note */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La filter bubble (loc. s.le f.) è l’ambiente virtuale che ciascun utente costruisce su Internet scegliendo solo i contenuti che gli piacciono. In questa bolla, vediamo principalmente informazioni simili a quelle che già conosciamo e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Il termine filter bubble significa “bolla filtrata” ed è stato coniato da Eli Pariser nel libro The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi di personalizzazione==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo dettagliato dei suoi interessi. Ogni interazione è interpretata come un segnale di preferenza, che permette all’algoritmo di prevedere quali contenuti saranno più rilevanti per l’utente.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Sulla base di questi dati, l’algoritmo decide quali contenuti mostrare più frequentemente nel feed e quali ridurre o nascondere. Ad esempio, se un utente interagisce spesso con post di una certa tematica, l’algoritmo tenderà a mostrargli contenuti simili e a ridurre quelli che offrono punti di vista differenti.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Arxiv2004&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della filter bubble, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le proprie opinioni, mentre quelli diversi o contrastanti vengono progressivamente nascosti.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Studi recenti evidenziano inoltre che questo meccanismo può ridurre la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati, creando ecosistemi chiusi di informazioni.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 mostrano anche che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==3. Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, riducendo la capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti mostrano che gli algoritmi di raccomandazione accentuano questa tendenza, riducendo ulteriormente la varietà dei contenuti e contribuendo alla polarizzazione delle opinioni.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Di conseguenza, la filter bubble non solo riduce la diversità informativa, ma può anche influenzare la percezione della realtà e il dibattito pubblico, perché gli utenti si trovano intrappolati in una “bolla” di contenuti che riflettono principalmente le loro idee e preferenze.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==4. Implicazioni sociali e culturali: ==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi non influenzano solo ciò che un singolo utente vede, ma hanno anche effetti più ampi sulla società e sulla cultura. Quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, le differenze tra gruppi con visioni diverse tendono a essere enfatizzate, aumentando la polarizzazione sociale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno può ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le filter bubbles possono rafforzare stereotipi, diffondere disinformazione e ridurre l’esposizione a prospettive diverse, creando una società più frammentata. Questo può avere effetti negativi sul dibattito pubblico, sulla coesione sociale e sulla capacità collettiva di affrontare problemi complessi.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative possono influenzare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che può condurre a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==5. Rischi: ==&lt;br /&gt;
&lt;br /&gt;
La filter bubble comporta diversi rischi per l’utente e per la società. Tra i principali:&lt;br /&gt;
&lt;br /&gt;
Esposizione limitata a informazioni coerenti con le proprie idee&lt;br /&gt;
Gli utenti vedono principalmente contenuti che confermano le loro convinzioni, riducendo la capacità di confrontarsi con opinioni diverse.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ridotta comprensione di punti di vista alternativi&lt;br /&gt;
La mancanza di esposizione a prospettive diverse può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche o culturali.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Maggiore vulnerabilità a influenze esterne&lt;br /&gt;
Essere intrappolati in una bolla informativa può rendere gli utenti più facilmente influenzabili da pubblicità mirate, notizie parziali o contenuti manipolativi, aumentando il rischio di disinformazione e di decisioni basate su informazioni incomplete.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Polarizzazione e frammentazione sociale&lt;br /&gt;
Quando grandi gruppi di utenti sono esposti solo a contenuti affini alle loro convinzioni, si rafforzano divisioni sociali e culturali, riducendo il dialogo e la cooperazione tra diversi segmenti della società.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, i rischi della filter bubble riguardano sia l’esperienza individuale, limitando la capacità di apprendere e comprendere punti di vista diversi, sia l’impatto collettivo, influenzando la società, la politica e la cultura in senso polarizzante.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==6. Rimedi ipotizzati: ==&lt;br /&gt;
&lt;br /&gt;
Per ridurre gli effetti della filter bubble, possono essere adottate diverse strategie e buone pratiche:&lt;br /&gt;
&lt;br /&gt;
Consultare fonti diverse&lt;br /&gt;
Leggere notizie e contenuti provenienti da differenti piattaforme, media e opinioni consente di avere una visione più completa della realtà e riduce il rischio di essere confinati in un ecosistema informativo limitato.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Essere consapevoli del funzionamento degli algoritmi&lt;br /&gt;
Comprendere come gli algoritmi di personalizzazione selezionano i contenuti permette agli utenti di riconoscere la propria esposizione limitata e di cercare attivamente punti di vista alternativi.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Usare piattaforme che promuovono la varietà dei contenuti&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti per visualizzare contenuti non filtrati o diversificati. L’uso di tali piattaforme può aiutare a rompere la bolla informativa e aumentare l’esposizione a informazioni eterogenee.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Adottare comportamenti digitali critici&lt;br /&gt;
Verificare le fonti, confrontare le informazioni e discutere con persone che hanno punti di vista differenti sono pratiche che aiutano a mitigare gli effetti della filter bubble e a promuovere una maggiore consapevolezza digitale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, combinando consapevolezza, diversificazione delle fonti e utilizzo di strumenti adeguati, è possibile ridurre l’impatto della filter bubble sulla percezione della realtà e sul dibattito pubblico.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&lt;br /&gt;
&lt;br /&gt;
“Information filtering and personalization algorithms”, arXiv:1905.03919. https://arxiv.org/abs/1905.03919&lt;br /&gt;
&lt;br /&gt;
“Social media recommendation dynamics”, arXiv:2004.09603. https://arxiv.org/abs/2004.09603&lt;br /&gt;
&lt;br /&gt;
Applied Network Science (2024). Impact of recommender systems on information diversity. https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&lt;br /&gt;
&lt;br /&gt;
Springer (2024). Algorithmic personalization and its ethical implications. https://link.springer.com/article/10.1007/s13347-024-00758-4&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13386</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13386"/>
		<updated>2025-11-30T17:43:34Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* Note */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La filter bubble (loc. s.le f.) è l’ambiente virtuale che ciascun utente costruisce su Internet scegliendo solo i contenuti che gli piacciono. In questa bolla, vediamo principalmente informazioni simili a quelle che già conosciamo e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Il termine filter bubble significa “bolla filtrata” ed è stato coniato da Eli Pariser nel libro The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi di personalizzazione==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo dettagliato dei suoi interessi. Ogni interazione è interpretata come un segnale di preferenza, che permette all’algoritmo di prevedere quali contenuti saranno più rilevanti per l’utente.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Sulla base di questi dati, l’algoritmo decide quali contenuti mostrare più frequentemente nel feed e quali ridurre o nascondere. Ad esempio, se un utente interagisce spesso con post di una certa tematica, l’algoritmo tenderà a mostrargli contenuti simili e a ridurre quelli che offrono punti di vista differenti.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Arxiv2004&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della filter bubble, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le proprie opinioni, mentre quelli diversi o contrastanti vengono progressivamente nascosti.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Studi recenti evidenziano inoltre che questo meccanismo può ridurre la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati, creando ecosistemi chiusi di informazioni.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 mostrano anche che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==3. Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, riducendo la capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti mostrano che gli algoritmi di raccomandazione accentuano questa tendenza, riducendo ulteriormente la varietà dei contenuti e contribuendo alla polarizzazione delle opinioni.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Di conseguenza, la filter bubble non solo riduce la diversità informativa, ma può anche influenzare la percezione della realtà e il dibattito pubblico, perché gli utenti si trovano intrappolati in una “bolla” di contenuti che riflettono principalmente le loro idee e preferenze.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==4. Implicazioni sociali e culturali: ==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi non influenzano solo ciò che un singolo utente vede, ma hanno anche effetti più ampi sulla società e sulla cultura. Quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, le differenze tra gruppi con visioni diverse tendono a essere enfatizzate, aumentando la polarizzazione sociale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno può ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le filter bubbles possono rafforzare stereotipi, diffondere disinformazione e ridurre l’esposizione a prospettive diverse, creando una società più frammentata. Questo può avere effetti negativi sul dibattito pubblico, sulla coesione sociale e sulla capacità collettiva di affrontare problemi complessi.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative possono influenzare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che può condurre a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==5. Rischi: ==&lt;br /&gt;
&lt;br /&gt;
La filter bubble comporta diversi rischi per l’utente e per la società. Tra i principali:&lt;br /&gt;
&lt;br /&gt;
Esposizione limitata a informazioni coerenti con le proprie idee&lt;br /&gt;
Gli utenti vedono principalmente contenuti che confermano le loro convinzioni, riducendo la capacità di confrontarsi con opinioni diverse.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ridotta comprensione di punti di vista alternativi&lt;br /&gt;
La mancanza di esposizione a prospettive diverse può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche o culturali.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Maggiore vulnerabilità a influenze esterne&lt;br /&gt;
Essere intrappolati in una bolla informativa può rendere gli utenti più facilmente influenzabili da pubblicità mirate, notizie parziali o contenuti manipolativi, aumentando il rischio di disinformazione e di decisioni basate su informazioni incomplete.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Polarizzazione e frammentazione sociale&lt;br /&gt;
Quando grandi gruppi di utenti sono esposti solo a contenuti affini alle loro convinzioni, si rafforzano divisioni sociali e culturali, riducendo il dialogo e la cooperazione tra diversi segmenti della società.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, i rischi della filter bubble riguardano sia l’esperienza individuale, limitando la capacità di apprendere e comprendere punti di vista diversi, sia l’impatto collettivo, influenzando la società, la politica e la cultura in senso polarizzante.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==6. Rimedi ipotizzati: ==&lt;br /&gt;
&lt;br /&gt;
Per ridurre gli effetti della filter bubble, possono essere adottate diverse strategie e buone pratiche:&lt;br /&gt;
&lt;br /&gt;
Consultare fonti diverse&lt;br /&gt;
Leggere notizie e contenuti provenienti da differenti piattaforme, media e opinioni consente di avere una visione più completa della realtà e riduce il rischio di essere confinati in un ecosistema informativo limitato.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Essere consapevoli del funzionamento degli algoritmi&lt;br /&gt;
Comprendere come gli algoritmi di personalizzazione selezionano i contenuti permette agli utenti di riconoscere la propria esposizione limitata e di cercare attivamente punti di vista alternativi.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Usare piattaforme che promuovono la varietà dei contenuti&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti per visualizzare contenuti non filtrati o diversificati. L’uso di tali piattaforme può aiutare a rompere la bolla informativa e aumentare l’esposizione a informazioni eterogenee.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Adottare comportamenti digitali critici&lt;br /&gt;
Verificare le fonti, confrontare le informazioni e discutere con persone che hanno punti di vista differenti sono pratiche che aiutano a mitigare gli effetti della filter bubble e a promuovere una maggiore consapevolezza digitale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, combinando consapevolezza, diversificazione delle fonti e utilizzo di strumenti adeguati, è possibile ridurre l’impatto della filter bubble sulla percezione della realtà e sul dibattito pubblico.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;&amp;gt;Pariser, E. (2011). &amp;lt;i&amp;gt;The Filter Bubble: What the Internet Is Hiding from You&amp;lt;/i&amp;gt;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;“Information filtering and personalization algorithms”, arXiv:1905.03919. [https://arxiv.org/abs/1905.03919](https://arxiv.org/abs/1905.03919)&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Arxiv2004&amp;quot;&amp;gt;“Social media recommendation dynamics”, arXiv:2004.09603. [https://arxiv.org/abs/2004.09603](https://arxiv.org/abs/2004.09603)&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;Applied Network Science (2024). Impact of recommender systems on information diversity. [https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3](https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3)&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;&amp;gt;Springer (2024). Algorithmic personalization and its ethical implications. [https://link.springer.com/article/10.1007/s13347-024-00758-4](https://link.springer.com/article/10.1007/s13347-024-00758-4)&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;/references&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&lt;br /&gt;
&lt;br /&gt;
“Information filtering and personalization algorithms”, arXiv:1905.03919. https://arxiv.org/abs/1905.03919&lt;br /&gt;
&lt;br /&gt;
“Social media recommendation dynamics”, arXiv:2004.09603. https://arxiv.org/abs/2004.09603&lt;br /&gt;
&lt;br /&gt;
Applied Network Science (2024). Impact of recommender systems on information diversity. https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&lt;br /&gt;
&lt;br /&gt;
Springer (2024). Algorithmic personalization and its ethical implications. https://link.springer.com/article/10.1007/s13347-024-00758-4&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13384</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13384"/>
		<updated>2025-11-30T17:40:45Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La filter bubble (loc. s.le f.) è l’ambiente virtuale che ciascun utente costruisce su Internet scegliendo solo i contenuti che gli piacciono. In questa bolla, vediamo principalmente informazioni simili a quelle che già conosciamo e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Il termine filter bubble significa “bolla filtrata” ed è stato coniato da Eli Pariser nel libro The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi di personalizzazione==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo dettagliato dei suoi interessi. Ogni interazione è interpretata come un segnale di preferenza, che permette all’algoritmo di prevedere quali contenuti saranno più rilevanti per l’utente.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Sulla base di questi dati, l’algoritmo decide quali contenuti mostrare più frequentemente nel feed e quali ridurre o nascondere. Ad esempio, se un utente interagisce spesso con post di una certa tematica, l’algoritmo tenderà a mostrargli contenuti simili e a ridurre quelli che offrono punti di vista differenti.&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Arxiv2004&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della filter bubble, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le proprie opinioni, mentre quelli diversi o contrastanti vengono progressivamente nascosti.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Studi recenti evidenziano inoltre che questo meccanismo può ridurre la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati, creando ecosistemi chiusi di informazioni.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 mostrano anche che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==3. Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, riducendo la capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti mostrano che gli algoritmi di raccomandazione accentuano questa tendenza, riducendo ulteriormente la varietà dei contenuti e contribuendo alla polarizzazione delle opinioni.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Di conseguenza, la filter bubble non solo riduce la diversità informativa, ma può anche influenzare la percezione della realtà e il dibattito pubblico, perché gli utenti si trovano intrappolati in una “bolla” di contenuti che riflettono principalmente le loro idee e preferenze.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==4. Implicazioni sociali e culturali: ==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi non influenzano solo ciò che un singolo utente vede, ma hanno anche effetti più ampi sulla società e sulla cultura. Quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, le differenze tra gruppi con visioni diverse tendono a essere enfatizzate, aumentando la polarizzazione sociale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno può ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le filter bubbles possono rafforzare stereotipi, diffondere disinformazione e ridurre l’esposizione a prospettive diverse, creando una società più frammentata. Questo può avere effetti negativi sul dibattito pubblico, sulla coesione sociale e sulla capacità collettiva di affrontare problemi complessi.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative possono influenzare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che può condurre a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==5. Rischi: ==&lt;br /&gt;
&lt;br /&gt;
La filter bubble comporta diversi rischi per l’utente e per la società. Tra i principali:&lt;br /&gt;
&lt;br /&gt;
Esposizione limitata a informazioni coerenti con le proprie idee&lt;br /&gt;
Gli utenti vedono principalmente contenuti che confermano le loro convinzioni, riducendo la capacità di confrontarsi con opinioni diverse.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ridotta comprensione di punti di vista alternativi&lt;br /&gt;
La mancanza di esposizione a prospettive diverse può limitare la capacità critica dell’utente e la comprensione della complessità delle questioni sociali, politiche o culturali.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Maggiore vulnerabilità a influenze esterne&lt;br /&gt;
Essere intrappolati in una bolla informativa può rendere gli utenti più facilmente influenzabili da pubblicità mirate, notizie parziali o contenuti manipolativi, aumentando il rischio di disinformazione e di decisioni basate su informazioni incomplete.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Polarizzazione e frammentazione sociale&lt;br /&gt;
Quando grandi gruppi di utenti sono esposti solo a contenuti affini alle loro convinzioni, si rafforzano divisioni sociali e culturali, riducendo il dialogo e la cooperazione tra diversi segmenti della società.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, i rischi della filter bubble riguardano sia l’esperienza individuale, limitando la capacità di apprendere e comprendere punti di vista diversi, sia l’impatto collettivo, influenzando la società, la politica e la cultura in senso polarizzante.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==6. Rimedi ipotizzati: ==&lt;br /&gt;
&lt;br /&gt;
Per ridurre gli effetti della filter bubble, possono essere adottate diverse strategie e buone pratiche:&lt;br /&gt;
&lt;br /&gt;
Consultare fonti diverse&lt;br /&gt;
Leggere notizie e contenuti provenienti da differenti piattaforme, media e opinioni consente di avere una visione più completa della realtà e riduce il rischio di essere confinati in un ecosistema informativo limitato.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Essere consapevoli del funzionamento degli algoritmi&lt;br /&gt;
Comprendere come gli algoritmi di personalizzazione selezionano i contenuti permette agli utenti di riconoscere la propria esposizione limitata e di cercare attivamente punti di vista alternativi.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Usare piattaforme che promuovono la varietà dei contenuti&lt;br /&gt;
Alcune piattaforme digitali offrono strumenti per visualizzare contenuti non filtrati o diversificati. L’uso di tali piattaforme può aiutare a rompere la bolla informativa e aumentare l’esposizione a informazioni eterogenee.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Adottare comportamenti digitali critici&lt;br /&gt;
Verificare le fonti, confrontare le informazioni e discutere con persone che hanno punti di vista differenti sono pratiche che aiutano a mitigare gli effetti della filter bubble e a promuovere una maggiore consapevolezza digitale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In sintesi, combinando consapevolezza, diversificazione delle fonti e utilizzo di strumenti adeguati, è possibile ridurre l’impatto della filter bubble sulla percezione della realtà e sul dibattito pubblico.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;&amp;gt;Pariser, E. (2011). &amp;lt;i&amp;gt;The Filter Bubble: What the Internet Is Hiding from You&amp;lt;/i&amp;gt;.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;“Information filtering and personalization algorithms”, arXiv:1905.03919. https://arxiv.org/abs/1905.03919&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Arxiv2004&amp;quot;&amp;gt;“Social media recommendation dynamics”, arXiv:2004.09603. https://arxiv.org/abs/2004.09603&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;Applied Network Science (2024). Impact of recommender systems on information diversity. https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;&amp;gt;Springer (2024). Algorithmic personalization and its ethical implications. https://link.springer.com/article/10.1007/s13347-024-00758-4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;/references&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&lt;br /&gt;
&lt;br /&gt;
“Information filtering and personalization algorithms”, arXiv:1905.03919. https://arxiv.org/abs/1905.03919&lt;br /&gt;
&lt;br /&gt;
“Social media recommendation dynamics”, arXiv:2004.09603. https://arxiv.org/abs/2004.09603&lt;br /&gt;
&lt;br /&gt;
Applied Network Science (2024). Impact of recommender systems on information diversity. https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&lt;br /&gt;
&lt;br /&gt;
Springer (2024). Algorithmic personalization and its ethical implications. https://link.springer.com/article/10.1007/s13347-024-00758-4&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13383</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13383"/>
		<updated>2025-11-30T17:26:25Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* 4. Implicazioni sociali e culturali: */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La filter bubble (loc. s.le f.) è l’ambiente virtuale che ciascun utente costruisce su Internet scegliendo solo i contenuti che gli piacciono. In questa bolla, vediamo principalmente informazioni simili a quelle che già conosciamo e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie. Il termine filter bubble significa “bolla filtrata” ed è stato coniato da Eli Pariser nel libro The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;ref&amp;gt;[1] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi di personalizzazione==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della filter bubble, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati, rafforzando così un ecosistema chiuso di informazioni.&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 evidenziano inoltre che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref&amp;gt;[2] https://arxiv.org/abs/1905.03919&lt;br /&gt;
&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[3] https://arxiv.org/abs/2004.09603&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==3. Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;[1] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, riducendo la capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti mostrano che gli algoritmi di raccomandazione accentuano questa tendenza, riducendo ulteriormente la varietà dei contenuti e contribuendo alla polarizzazione delle opinioni.&amp;lt;ref&amp;gt;[4] https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&lt;br /&gt;
&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[5] https://link.springer.com/article/10.1007/s13347-024-00758-4&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Di conseguenza, la filter bubble non solo riduce la diversità informativa, ma può anche influenzare la percezione della realtà e il dibattito pubblico, perché gli utenti si trovano intrappolati in una “bolla” di contenuti che riflettono principalmente le loro idee e preferenze.&lt;br /&gt;
&lt;br /&gt;
==4. Implicazioni sociali e culturali: ==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi non influenzano solo ciò che un singolo utente vede, ma hanno anche effetti più ampi sulla società e sulla cultura. Quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, le differenze tra gruppi con visioni diverse tendono a essere enfatizzate, aumentando la polarizzazione sociale.&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno può ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le filter bubbles possono rafforzare stereotipi, diffondere disinformazione e ridurre l’esposizione a prospettive diverse, creando una società più frammentata. Questo può avere effetti negativi sul dibattito pubblico, sulla coesione sociale e sulla capacità collettiva di affrontare problemi complessi.&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative possono influenzare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che può condurre a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==5. Rischi: ==&lt;br /&gt;
&lt;br /&gt;
I rischi principali della filter bubble sono:&lt;br /&gt;
•vedere solo informazioni che confermano le proprie idee;&lt;br /&gt;
•non conoscere punti di vista diversi;&lt;br /&gt;
•essere più facilmente influenzati da pubblicità o notizie parziali.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==6. Rimedi ipotizzati: ==&lt;br /&gt;
&lt;br /&gt;
Per ridurre gli effetti della filter bubble, si possono adottare strategie semplici:&lt;br /&gt;
•leggere notizie da fonti diverse;&lt;br /&gt;
• consapevoli di come funzionano gli algoritmi;&lt;br /&gt;
•usare piattaforme che mostrano contenuti vari e non solo personalizzati.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;&amp;gt;Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;https://arxiv.org/abs/1905.03919&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Arxiv2004&amp;quot;&amp;gt;https://arxiv.org/abs/2004.09603&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;&amp;gt;https://link.springer.com/article/10.1007/s13347-024-00758-4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;/references&amp;gt;&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13382</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13382"/>
		<updated>2025-11-30T17:25:41Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* Bibliografia */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La filter bubble (loc. s.le f.) è l’ambiente virtuale che ciascun utente costruisce su Internet scegliendo solo i contenuti che gli piacciono. In questa bolla, vediamo principalmente informazioni simili a quelle che già conosciamo e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie. Il termine filter bubble significa “bolla filtrata” ed è stato coniato da Eli Pariser nel libro The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;ref&amp;gt;[1] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi di personalizzazione==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della filter bubble, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati, rafforzando così un ecosistema chiuso di informazioni.&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 evidenziano inoltre che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref&amp;gt;[2] https://arxiv.org/abs/1905.03919&lt;br /&gt;
&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[3] https://arxiv.org/abs/2004.09603&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==3. Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;[1] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, riducendo la capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti mostrano che gli algoritmi di raccomandazione accentuano questa tendenza, riducendo ulteriormente la varietà dei contenuti e contribuendo alla polarizzazione delle opinioni.&amp;lt;ref&amp;gt;[4] https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&lt;br /&gt;
&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[5] https://link.springer.com/article/10.1007/s13347-024-00758-4&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Di conseguenza, la filter bubble non solo riduce la diversità informativa, ma può anche influenzare la percezione della realtà e il dibattito pubblico, perché gli utenti si trovano intrappolati in una “bolla” di contenuti che riflettono principalmente le loro idee e preferenze.&lt;br /&gt;
&lt;br /&gt;
==4. Implicazioni sociali e culturali: ==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi non influenzano solo ciò che un singolo utente vede, ma hanno anche effetti più ampi sulla società e sulla cultura. Quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, le differenze tra gruppi con visioni diverse tendono a essere enfatizzate, aumentando la polarizzazione sociale.&amp;lt;ref&amp;gt;{{cite web |title=Impact of recommender systems on information diversity |url=https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&lt;br /&gt;
 |website=Applied Network Science |access-date=2025-11-30}}&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;{{cite web |title=Algorithmic personalization and its ethical implications |url=https://link.springer.com/article/10.1007/s13347-024-00758-4&lt;br /&gt;
 |website=Springer |access-date=2025-11-30}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno può ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref&amp;gt;Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le filter bubbles possono rafforzare stereotipi, diffondere disinformazione e ridurre l’esposizione a prospettive diverse, creando una società più frammentata. Questo può avere effetti negativi sul dibattito pubblico, sulla coesione sociale e sulla capacità collettiva di affrontare problemi complessi.&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative possono influenzare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che può condurre a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&lt;br /&gt;
&lt;br /&gt;
==5. Rischi: ==&lt;br /&gt;
&lt;br /&gt;
I rischi principali della filter bubble sono:&lt;br /&gt;
•vedere solo informazioni che confermano le proprie idee;&lt;br /&gt;
•non conoscere punti di vista diversi;&lt;br /&gt;
•essere più facilmente influenzati da pubblicità o notizie parziali.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==6. Rimedi ipotizzati: ==&lt;br /&gt;
&lt;br /&gt;
Per ridurre gli effetti della filter bubble, si possono adottare strategie semplici:&lt;br /&gt;
•leggere notizie da fonti diverse;&lt;br /&gt;
• consapevoli di come funzionano gli algoritmi;&lt;br /&gt;
•usare piattaforme che mostrano contenuti vari e non solo personalizzati.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;&amp;gt;Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;https://arxiv.org/abs/1905.03919&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Arxiv2004&amp;quot;&amp;gt;https://arxiv.org/abs/2004.09603&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;&amp;gt;https://link.springer.com/article/10.1007/s13347-024-00758-4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;/references&amp;gt;&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13381</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13381"/>
		<updated>2025-11-30T17:24:43Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* Bibliografia */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La filter bubble (loc. s.le f.) è l’ambiente virtuale che ciascun utente costruisce su Internet scegliendo solo i contenuti che gli piacciono. In questa bolla, vediamo principalmente informazioni simili a quelle che già conosciamo e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie. Il termine filter bubble significa “bolla filtrata” ed è stato coniato da Eli Pariser nel libro The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;ref&amp;gt;[1] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi di personalizzazione==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della filter bubble, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati, rafforzando così un ecosistema chiuso di informazioni.&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 evidenziano inoltre che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref&amp;gt;[2] https://arxiv.org/abs/1905.03919&lt;br /&gt;
&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[3] https://arxiv.org/abs/2004.09603&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==3. Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;[1] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, riducendo la capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti mostrano che gli algoritmi di raccomandazione accentuano questa tendenza, riducendo ulteriormente la varietà dei contenuti e contribuendo alla polarizzazione delle opinioni.&amp;lt;ref&amp;gt;[4] https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&lt;br /&gt;
&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[5] https://link.springer.com/article/10.1007/s13347-024-00758-4&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Di conseguenza, la filter bubble non solo riduce la diversità informativa, ma può anche influenzare la percezione della realtà e il dibattito pubblico, perché gli utenti si trovano intrappolati in una “bolla” di contenuti che riflettono principalmente le loro idee e preferenze.&lt;br /&gt;
&lt;br /&gt;
==4. Implicazioni sociali e culturali: ==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi non influenzano solo ciò che un singolo utente vede, ma hanno anche effetti più ampi sulla società e sulla cultura. Quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, le differenze tra gruppi con visioni diverse tendono a essere enfatizzate, aumentando la polarizzazione sociale.&amp;lt;ref&amp;gt;{{cite web |title=Impact of recommender systems on information diversity |url=https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&lt;br /&gt;
 |website=Applied Network Science |access-date=2025-11-30}}&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;{{cite web |title=Algorithmic personalization and its ethical implications |url=https://link.springer.com/article/10.1007/s13347-024-00758-4&lt;br /&gt;
 |website=Springer |access-date=2025-11-30}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno può ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref&amp;gt;Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le filter bubbles possono rafforzare stereotipi, diffondere disinformazione e ridurre l’esposizione a prospettive diverse, creando una società più frammentata. Questo può avere effetti negativi sul dibattito pubblico, sulla coesione sociale e sulla capacità collettiva di affrontare problemi complessi.&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative possono influenzare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che può condurre a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&lt;br /&gt;
&lt;br /&gt;
==5. Rischi: ==&lt;br /&gt;
&lt;br /&gt;
I rischi principali della filter bubble sono:&lt;br /&gt;
•vedere solo informazioni che confermano le proprie idee;&lt;br /&gt;
•non conoscere punti di vista diversi;&lt;br /&gt;
•essere più facilmente influenzati da pubblicità o notizie parziali.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==6. Rimedi ipotizzati: ==&lt;br /&gt;
&lt;br /&gt;
Per ridurre gli effetti della filter bubble, si possono adottare strategie semplici:&lt;br /&gt;
•leggere notizie da fonti diverse;&lt;br /&gt;
• consapevoli di come funzionano gli algoritmi;&lt;br /&gt;
•usare piattaforme che mostrano contenuti vari e non solo personalizzati.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;&amp;gt;Pariser, E. (2011). *The Filter Bubble: What the Internet Is Hiding from You.*&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;https://arxiv.org/abs/1905.03919&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Arxiv2004&amp;quot;&amp;gt;https://arxiv.org/abs/2004.09603&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;&amp;gt;https://link.springer.com/article/10.1007/s13347-024-00758-4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;/references&amp;gt;&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13380</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13380"/>
		<updated>2025-11-30T17:23:41Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* Note */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La filter bubble (loc. s.le f.) è l’ambiente virtuale che ciascun utente costruisce su Internet scegliendo solo i contenuti che gli piacciono. In questa bolla, vediamo principalmente informazioni simili a quelle che già conosciamo e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie. Il termine filter bubble significa “bolla filtrata” ed è stato coniato da Eli Pariser nel libro The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;ref&amp;gt;[1] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi di personalizzazione==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della filter bubble, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati, rafforzando così un ecosistema chiuso di informazioni.&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 evidenziano inoltre che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref&amp;gt;[2] https://arxiv.org/abs/1905.03919&lt;br /&gt;
&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[3] https://arxiv.org/abs/2004.09603&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==3. Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;[1] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, riducendo la capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti mostrano che gli algoritmi di raccomandazione accentuano questa tendenza, riducendo ulteriormente la varietà dei contenuti e contribuendo alla polarizzazione delle opinioni.&amp;lt;ref&amp;gt;[4] https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&lt;br /&gt;
&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[5] https://link.springer.com/article/10.1007/s13347-024-00758-4&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Di conseguenza, la filter bubble non solo riduce la diversità informativa, ma può anche influenzare la percezione della realtà e il dibattito pubblico, perché gli utenti si trovano intrappolati in una “bolla” di contenuti che riflettono principalmente le loro idee e preferenze.&lt;br /&gt;
&lt;br /&gt;
==4. Implicazioni sociali e culturali: ==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi non influenzano solo ciò che un singolo utente vede, ma hanno anche effetti più ampi sulla società e sulla cultura. Quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, le differenze tra gruppi con visioni diverse tendono a essere enfatizzate, aumentando la polarizzazione sociale.&amp;lt;ref&amp;gt;{{cite web |title=Impact of recommender systems on information diversity |url=https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&lt;br /&gt;
 |website=Applied Network Science |access-date=2025-11-30}}&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;{{cite web |title=Algorithmic personalization and its ethical implications |url=https://link.springer.com/article/10.1007/s13347-024-00758-4&lt;br /&gt;
 |website=Springer |access-date=2025-11-30}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno può ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref&amp;gt;Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le filter bubbles possono rafforzare stereotipi, diffondere disinformazione e ridurre l’esposizione a prospettive diverse, creando una società più frammentata. Questo può avere effetti negativi sul dibattito pubblico, sulla coesione sociale e sulla capacità collettiva di affrontare problemi complessi.&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative possono influenzare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che può condurre a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&lt;br /&gt;
&lt;br /&gt;
==5. Rischi: ==&lt;br /&gt;
&lt;br /&gt;
I rischi principali della filter bubble sono:&lt;br /&gt;
•vedere solo informazioni che confermano le proprie idee;&lt;br /&gt;
•non conoscere punti di vista diversi;&lt;br /&gt;
•essere più facilmente influenzati da pubblicità o notizie parziali.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==6. Rimedi ipotizzati: ==&lt;br /&gt;
&lt;br /&gt;
Per ridurre gli effetti della filter bubble, si possono adottare strategie semplici:&lt;br /&gt;
•leggere notizie da fonti diverse;&lt;br /&gt;
• consapevoli di come funzionano gli algoritmi;&lt;br /&gt;
•usare piattaforme che mostrano contenuti vari e non solo personalizzati.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;&amp;gt;Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;https://arxiv.org/abs/1905.03919&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Arxiv2004&amp;quot;&amp;gt;https://arxiv.org/abs/2004.09603&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;&amp;gt;https://link.springer.com/article/10.1007/s13347-024-00758-4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13379</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13379"/>
		<updated>2025-11-30T17:22:48Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* Note */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La filter bubble (loc. s.le f.) è l’ambiente virtuale che ciascun utente costruisce su Internet scegliendo solo i contenuti che gli piacciono. In questa bolla, vediamo principalmente informazioni simili a quelle che già conosciamo e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie. Il termine filter bubble significa “bolla filtrata” ed è stato coniato da Eli Pariser nel libro The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;ref&amp;gt;[1] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi di personalizzazione==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della filter bubble, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati, rafforzando così un ecosistema chiuso di informazioni.&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 evidenziano inoltre che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref&amp;gt;[2] https://arxiv.org/abs/1905.03919&lt;br /&gt;
&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[3] https://arxiv.org/abs/2004.09603&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==3. Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;[1] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, riducendo la capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti mostrano che gli algoritmi di raccomandazione accentuano questa tendenza, riducendo ulteriormente la varietà dei contenuti e contribuendo alla polarizzazione delle opinioni.&amp;lt;ref&amp;gt;[4] https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&lt;br /&gt;
&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[5] https://link.springer.com/article/10.1007/s13347-024-00758-4&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Di conseguenza, la filter bubble non solo riduce la diversità informativa, ma può anche influenzare la percezione della realtà e il dibattito pubblico, perché gli utenti si trovano intrappolati in una “bolla” di contenuti che riflettono principalmente le loro idee e preferenze.&lt;br /&gt;
&lt;br /&gt;
==4. Implicazioni sociali e culturali: ==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi non influenzano solo ciò che un singolo utente vede, ma hanno anche effetti più ampi sulla società e sulla cultura. Quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, le differenze tra gruppi con visioni diverse tendono a essere enfatizzate, aumentando la polarizzazione sociale.&amp;lt;ref&amp;gt;{{cite web |title=Impact of recommender systems on information diversity |url=https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&lt;br /&gt;
 |website=Applied Network Science |access-date=2025-11-30}}&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;{{cite web |title=Algorithmic personalization and its ethical implications |url=https://link.springer.com/article/10.1007/s13347-024-00758-4&lt;br /&gt;
 |website=Springer |access-date=2025-11-30}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno può ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref&amp;gt;Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le filter bubbles possono rafforzare stereotipi, diffondere disinformazione e ridurre l’esposizione a prospettive diverse, creando una società più frammentata. Questo può avere effetti negativi sul dibattito pubblico, sulla coesione sociale e sulla capacità collettiva di affrontare problemi complessi.&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative possono influenzare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che può condurre a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&lt;br /&gt;
&lt;br /&gt;
==5. Rischi: ==&lt;br /&gt;
&lt;br /&gt;
I rischi principali della filter bubble sono:&lt;br /&gt;
•vedere solo informazioni che confermano le proprie idee;&lt;br /&gt;
•non conoscere punti di vista diversi;&lt;br /&gt;
•essere più facilmente influenzati da pubblicità o notizie parziali.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==6. Rimedi ipotizzati: ==&lt;br /&gt;
&lt;br /&gt;
Per ridurre gli effetti della filter bubble, si possono adottare strategie semplici:&lt;br /&gt;
•leggere notizie da fonti diverse;&lt;br /&gt;
• consapevoli di come funzionano gli algoritmi;&lt;br /&gt;
•usare piattaforme che mostrano contenuti vari e non solo personalizzati.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&lt;br /&gt;
[1] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. [2] https://arxiv.org/abs/1905.03919 [3] https://arxiv.org/abs/2004.09603 [1] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. [4] https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3 [5] https://link.springer.com/article/10.1007/s13347-024-00758-4 Template:Cite web Template:Cite web Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;&amp;gt;Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;https://arxiv.org/abs/1905.03919&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Arxiv2004&amp;quot;&amp;gt;https://arxiv.org/abs/2004.09603&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;&amp;gt;https://link.springer.com/article/10.1007/s13347-024-00758-4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13378</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13378"/>
		<updated>2025-11-30T17:21:48Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* Bibliografia */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La filter bubble (loc. s.le f.) è l’ambiente virtuale che ciascun utente costruisce su Internet scegliendo solo i contenuti che gli piacciono. In questa bolla, vediamo principalmente informazioni simili a quelle che già conosciamo e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie. Il termine filter bubble significa “bolla filtrata” ed è stato coniato da Eli Pariser nel libro The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;ref&amp;gt;[1] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi di personalizzazione==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della filter bubble, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati, rafforzando così un ecosistema chiuso di informazioni.&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 evidenziano inoltre che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref&amp;gt;[2] https://arxiv.org/abs/1905.03919&lt;br /&gt;
&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[3] https://arxiv.org/abs/2004.09603&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==3. Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;[1] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, riducendo la capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti mostrano che gli algoritmi di raccomandazione accentuano questa tendenza, riducendo ulteriormente la varietà dei contenuti e contribuendo alla polarizzazione delle opinioni.&amp;lt;ref&amp;gt;[4] https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&lt;br /&gt;
&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[5] https://link.springer.com/article/10.1007/s13347-024-00758-4&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Di conseguenza, la filter bubble non solo riduce la diversità informativa, ma può anche influenzare la percezione della realtà e il dibattito pubblico, perché gli utenti si trovano intrappolati in una “bolla” di contenuti che riflettono principalmente le loro idee e preferenze.&lt;br /&gt;
&lt;br /&gt;
==4. Implicazioni sociali e culturali: ==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi non influenzano solo ciò che un singolo utente vede, ma hanno anche effetti più ampi sulla società e sulla cultura. Quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, le differenze tra gruppi con visioni diverse tendono a essere enfatizzate, aumentando la polarizzazione sociale.&amp;lt;ref&amp;gt;{{cite web |title=Impact of recommender systems on information diversity |url=https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&lt;br /&gt;
 |website=Applied Network Science |access-date=2025-11-30}}&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;{{cite web |title=Algorithmic personalization and its ethical implications |url=https://link.springer.com/article/10.1007/s13347-024-00758-4&lt;br /&gt;
 |website=Springer |access-date=2025-11-30}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno può ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref&amp;gt;Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le filter bubbles possono rafforzare stereotipi, diffondere disinformazione e ridurre l’esposizione a prospettive diverse, creando una società più frammentata. Questo può avere effetti negativi sul dibattito pubblico, sulla coesione sociale e sulla capacità collettiva di affrontare problemi complessi.&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative possono influenzare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che può condurre a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&lt;br /&gt;
&lt;br /&gt;
==5. Rischi: ==&lt;br /&gt;
&lt;br /&gt;
I rischi principali della filter bubble sono:&lt;br /&gt;
•vedere solo informazioni che confermano le proprie idee;&lt;br /&gt;
•non conoscere punti di vista diversi;&lt;br /&gt;
•essere più facilmente influenzati da pubblicità o notizie parziali.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==6. Rimedi ipotizzati: ==&lt;br /&gt;
&lt;br /&gt;
Per ridurre gli effetti della filter bubble, si possono adottare strategie semplici:&lt;br /&gt;
•leggere notizie da fonti diverse;&lt;br /&gt;
• consapevoli di come funzionano gli algoritmi;&lt;br /&gt;
•usare piattaforme che mostrano contenuti vari e non solo personalizzati.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&amp;lt;ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;&amp;gt;Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;https://arxiv.org/abs/1905.03919&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Arxiv2004&amp;quot;&amp;gt;https://arxiv.org/abs/2004.09603&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;&amp;gt;https://link.springer.com/article/10.1007/s13347-024-00758-4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;&amp;gt;Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;https://arxiv.org/abs/1905.03919&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Arxiv2004&amp;quot;&amp;gt;https://arxiv.org/abs/2004.09603&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;&amp;gt;https://link.springer.com/article/10.1007/s13347-024-00758-4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13377</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13377"/>
		<updated>2025-11-30T17:21:27Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* Bibliografia */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La filter bubble (loc. s.le f.) è l’ambiente virtuale che ciascun utente costruisce su Internet scegliendo solo i contenuti che gli piacciono. In questa bolla, vediamo principalmente informazioni simili a quelle che già conosciamo e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie. Il termine filter bubble significa “bolla filtrata” ed è stato coniato da Eli Pariser nel libro The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;ref&amp;gt;[1] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi di personalizzazione==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della filter bubble, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati, rafforzando così un ecosistema chiuso di informazioni.&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 evidenziano inoltre che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref&amp;gt;[2] https://arxiv.org/abs/1905.03919&lt;br /&gt;
&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[3] https://arxiv.org/abs/2004.09603&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==3. Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;[1] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, riducendo la capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti mostrano che gli algoritmi di raccomandazione accentuano questa tendenza, riducendo ulteriormente la varietà dei contenuti e contribuendo alla polarizzazione delle opinioni.&amp;lt;ref&amp;gt;[4] https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&lt;br /&gt;
&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[5] https://link.springer.com/article/10.1007/s13347-024-00758-4&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Di conseguenza, la filter bubble non solo riduce la diversità informativa, ma può anche influenzare la percezione della realtà e il dibattito pubblico, perché gli utenti si trovano intrappolati in una “bolla” di contenuti che riflettono principalmente le loro idee e preferenze.&lt;br /&gt;
&lt;br /&gt;
==4. Implicazioni sociali e culturali: ==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi non influenzano solo ciò che un singolo utente vede, ma hanno anche effetti più ampi sulla società e sulla cultura. Quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, le differenze tra gruppi con visioni diverse tendono a essere enfatizzate, aumentando la polarizzazione sociale.&amp;lt;ref&amp;gt;{{cite web |title=Impact of recommender systems on information diversity |url=https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&lt;br /&gt;
 |website=Applied Network Science |access-date=2025-11-30}}&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;{{cite web |title=Algorithmic personalization and its ethical implications |url=https://link.springer.com/article/10.1007/s13347-024-00758-4&lt;br /&gt;
 |website=Springer |access-date=2025-11-30}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno può ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref&amp;gt;Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le filter bubbles possono rafforzare stereotipi, diffondere disinformazione e ridurre l’esposizione a prospettive diverse, creando una società più frammentata. Questo può avere effetti negativi sul dibattito pubblico, sulla coesione sociale e sulla capacità collettiva di affrontare problemi complessi.&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative possono influenzare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che può condurre a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&lt;br /&gt;
&lt;br /&gt;
==5. Rischi: ==&lt;br /&gt;
&lt;br /&gt;
I rischi principali della filter bubble sono:&lt;br /&gt;
•vedere solo informazioni che confermano le proprie idee;&lt;br /&gt;
•non conoscere punti di vista diversi;&lt;br /&gt;
•essere più facilmente influenzati da pubblicità o notizie parziali.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==6. Rimedi ipotizzati: ==&lt;br /&gt;
&lt;br /&gt;
Per ridurre gli effetti della filter bubble, si possono adottare strategie semplici:&lt;br /&gt;
•leggere notizie da fonti diverse;&lt;br /&gt;
• consapevoli di come funzionano gli algoritmi;&lt;br /&gt;
•usare piattaforme che mostrano contenuti vari e non solo personalizzati.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&amp;lt;ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;&amp;gt;Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;https://arxiv.org/abs/1905.03919&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Arxiv2004&amp;quot;&amp;gt;https://arxiv.org/abs/2004.09603&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;&amp;gt;https://link.springer.com/article/10.1007/s13347-024-00758-4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;&amp;gt;Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;https://arxiv.org/abs/1905.03919&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Arxiv2004&amp;quot;&amp;gt;https://arxiv.org/abs/2004.09603&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;&amp;gt;https://link.springer.com/article/10.1007/s13347-024-00758-4&amp;lt;/ref&amp;gt;&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13376</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13376"/>
		<updated>2025-11-30T17:21:07Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* Note */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La filter bubble (loc. s.le f.) è l’ambiente virtuale che ciascun utente costruisce su Internet scegliendo solo i contenuti che gli piacciono. In questa bolla, vediamo principalmente informazioni simili a quelle che già conosciamo e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie. Il termine filter bubble significa “bolla filtrata” ed è stato coniato da Eli Pariser nel libro The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;ref&amp;gt;[1] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi di personalizzazione==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della filter bubble, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati, rafforzando così un ecosistema chiuso di informazioni.&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 evidenziano inoltre che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref&amp;gt;[2] https://arxiv.org/abs/1905.03919&lt;br /&gt;
&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[3] https://arxiv.org/abs/2004.09603&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==3. Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;[1] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, riducendo la capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti mostrano che gli algoritmi di raccomandazione accentuano questa tendenza, riducendo ulteriormente la varietà dei contenuti e contribuendo alla polarizzazione delle opinioni.&amp;lt;ref&amp;gt;[4] https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&lt;br /&gt;
&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[5] https://link.springer.com/article/10.1007/s13347-024-00758-4&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Di conseguenza, la filter bubble non solo riduce la diversità informativa, ma può anche influenzare la percezione della realtà e il dibattito pubblico, perché gli utenti si trovano intrappolati in una “bolla” di contenuti che riflettono principalmente le loro idee e preferenze.&lt;br /&gt;
&lt;br /&gt;
==4. Implicazioni sociali e culturali: ==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi non influenzano solo ciò che un singolo utente vede, ma hanno anche effetti più ampi sulla società e sulla cultura. Quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, le differenze tra gruppi con visioni diverse tendono a essere enfatizzate, aumentando la polarizzazione sociale.&amp;lt;ref&amp;gt;{{cite web |title=Impact of recommender systems on information diversity |url=https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&lt;br /&gt;
 |website=Applied Network Science |access-date=2025-11-30}}&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;{{cite web |title=Algorithmic personalization and its ethical implications |url=https://link.springer.com/article/10.1007/s13347-024-00758-4&lt;br /&gt;
 |website=Springer |access-date=2025-11-30}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno può ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref&amp;gt;Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le filter bubbles possono rafforzare stereotipi, diffondere disinformazione e ridurre l’esposizione a prospettive diverse, creando una società più frammentata. Questo può avere effetti negativi sul dibattito pubblico, sulla coesione sociale e sulla capacità collettiva di affrontare problemi complessi.&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative possono influenzare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che può condurre a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&lt;br /&gt;
&lt;br /&gt;
==5. Rischi: ==&lt;br /&gt;
&lt;br /&gt;
I rischi principali della filter bubble sono:&lt;br /&gt;
•vedere solo informazioni che confermano le proprie idee;&lt;br /&gt;
•non conoscere punti di vista diversi;&lt;br /&gt;
•essere più facilmente influenzati da pubblicità o notizie parziali.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==6. Rimedi ipotizzati: ==&lt;br /&gt;
&lt;br /&gt;
Per ridurre gli effetti della filter bubble, si possono adottare strategie semplici:&lt;br /&gt;
•leggere notizie da fonti diverse;&lt;br /&gt;
• consapevoli di come funzionano gli algoritmi;&lt;br /&gt;
•usare piattaforme che mostrano contenuti vari e non solo personalizzati.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&amp;lt;ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;&amp;gt;Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;https://arxiv.org/abs/1905.03919&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Arxiv2004&amp;quot;&amp;gt;https://arxiv.org/abs/2004.09603&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;&amp;gt;https://link.springer.com/article/10.1007/s13347-024-00758-4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13375</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13375"/>
		<updated>2025-11-30T17:20:44Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* Note */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La filter bubble (loc. s.le f.) è l’ambiente virtuale che ciascun utente costruisce su Internet scegliendo solo i contenuti che gli piacciono. In questa bolla, vediamo principalmente informazioni simili a quelle che già conosciamo e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie. Il termine filter bubble significa “bolla filtrata” ed è stato coniato da Eli Pariser nel libro The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;ref&amp;gt;[1] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi di personalizzazione==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della filter bubble, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati, rafforzando così un ecosistema chiuso di informazioni.&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 evidenziano inoltre che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref&amp;gt;[2] https://arxiv.org/abs/1905.03919&lt;br /&gt;
&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[3] https://arxiv.org/abs/2004.09603&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==3. Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;[1] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, riducendo la capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti mostrano che gli algoritmi di raccomandazione accentuano questa tendenza, riducendo ulteriormente la varietà dei contenuti e contribuendo alla polarizzazione delle opinioni.&amp;lt;ref&amp;gt;[4] https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&lt;br /&gt;
&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[5] https://link.springer.com/article/10.1007/s13347-024-00758-4&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Di conseguenza, la filter bubble non solo riduce la diversità informativa, ma può anche influenzare la percezione della realtà e il dibattito pubblico, perché gli utenti si trovano intrappolati in una “bolla” di contenuti che riflettono principalmente le loro idee e preferenze.&lt;br /&gt;
&lt;br /&gt;
==4. Implicazioni sociali e culturali: ==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi non influenzano solo ciò che un singolo utente vede, ma hanno anche effetti più ampi sulla società e sulla cultura. Quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, le differenze tra gruppi con visioni diverse tendono a essere enfatizzate, aumentando la polarizzazione sociale.&amp;lt;ref&amp;gt;{{cite web |title=Impact of recommender systems on information diversity |url=https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&lt;br /&gt;
 |website=Applied Network Science |access-date=2025-11-30}}&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;{{cite web |title=Algorithmic personalization and its ethical implications |url=https://link.springer.com/article/10.1007/s13347-024-00758-4&lt;br /&gt;
 |website=Springer |access-date=2025-11-30}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno può ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref&amp;gt;Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le filter bubbles possono rafforzare stereotipi, diffondere disinformazione e ridurre l’esposizione a prospettive diverse, creando una società più frammentata. Questo può avere effetti negativi sul dibattito pubblico, sulla coesione sociale e sulla capacità collettiva di affrontare problemi complessi.&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative possono influenzare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che può condurre a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&lt;br /&gt;
&lt;br /&gt;
==5. Rischi: ==&lt;br /&gt;
&lt;br /&gt;
I rischi principali della filter bubble sono:&lt;br /&gt;
•vedere solo informazioni che confermano le proprie idee;&lt;br /&gt;
•non conoscere punti di vista diversi;&lt;br /&gt;
•essere più facilmente influenzati da pubblicità o notizie parziali.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==6. Rimedi ipotizzati: ==&lt;br /&gt;
&lt;br /&gt;
Per ridurre gli effetti della filter bubble, si possono adottare strategie semplici:&lt;br /&gt;
•leggere notizie da fonti diverse;&lt;br /&gt;
• consapevoli di come funzionano gli algoritmi;&lt;br /&gt;
•usare piattaforme che mostrano contenuti vari e non solo personalizzati.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Pariser2011&amp;quot;&amp;gt;Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Arxiv1905&amp;quot;&amp;gt;https://arxiv.org/abs/1905.03919&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Arxiv2004&amp;quot;&amp;gt;https://arxiv.org/abs/2004.09603&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;AppliedNS&amp;quot;&amp;gt;https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Springer2024&amp;quot;&amp;gt;https://link.springer.com/article/10.1007/s13347-024-00758-4&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;/references&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13374</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13374"/>
		<updated>2025-11-30T17:16:44Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* 4. Implicazioni sociali e culturali: */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La filter bubble (loc. s.le f.) è l’ambiente virtuale che ciascun utente costruisce su Internet scegliendo solo i contenuti che gli piacciono. In questa bolla, vediamo principalmente informazioni simili a quelle che già conosciamo e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie. Il termine filter bubble significa “bolla filtrata” ed è stato coniato da Eli Pariser nel libro The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;ref&amp;gt;[1] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi di personalizzazione==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della filter bubble, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati, rafforzando così un ecosistema chiuso di informazioni.&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 evidenziano inoltre che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref&amp;gt;[2] https://arxiv.org/abs/1905.03919&lt;br /&gt;
&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[3] https://arxiv.org/abs/2004.09603&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==3. Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;[1] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, riducendo la capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti mostrano che gli algoritmi di raccomandazione accentuano questa tendenza, riducendo ulteriormente la varietà dei contenuti e contribuendo alla polarizzazione delle opinioni.&amp;lt;ref&amp;gt;[4] https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&lt;br /&gt;
&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[5] https://link.springer.com/article/10.1007/s13347-024-00758-4&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Di conseguenza, la filter bubble non solo riduce la diversità informativa, ma può anche influenzare la percezione della realtà e il dibattito pubblico, perché gli utenti si trovano intrappolati in una “bolla” di contenuti che riflettono principalmente le loro idee e preferenze.&lt;br /&gt;
&lt;br /&gt;
==4. Implicazioni sociali e culturali: ==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi non influenzano solo ciò che un singolo utente vede, ma hanno anche effetti più ampi sulla società e sulla cultura. Quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, le differenze tra gruppi con visioni diverse tendono a essere enfatizzate, aumentando la polarizzazione sociale.&amp;lt;ref&amp;gt;{{cite web |title=Impact of recommender systems on information diversity |url=https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&lt;br /&gt;
 |website=Applied Network Science |access-date=2025-11-30}}&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;{{cite web |title=Algorithmic personalization and its ethical implications |url=https://link.springer.com/article/10.1007/s13347-024-00758-4&lt;br /&gt;
 |website=Springer |access-date=2025-11-30}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno può ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref&amp;gt;Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le filter bubbles possono rafforzare stereotipi, diffondere disinformazione e ridurre l’esposizione a prospettive diverse, creando una società più frammentata. Questo può avere effetti negativi sul dibattito pubblico, sulla coesione sociale e sulla capacità collettiva di affrontare problemi complessi.&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative possono influenzare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che può condurre a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&lt;br /&gt;
&lt;br /&gt;
==5. Rischi: ==&lt;br /&gt;
&lt;br /&gt;
I rischi principali della filter bubble sono:&lt;br /&gt;
•vedere solo informazioni che confermano le proprie idee;&lt;br /&gt;
•non conoscere punti di vista diversi;&lt;br /&gt;
•essere più facilmente influenzati da pubblicità o notizie parziali.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==6. Rimedi ipotizzati: ==&lt;br /&gt;
&lt;br /&gt;
Per ridurre gli effetti della filter bubble, si possono adottare strategie semplici:&lt;br /&gt;
•leggere notizie da fonti diverse;&lt;br /&gt;
• consapevoli di come funzionano gli algoritmi;&lt;br /&gt;
•usare piattaforme che mostrano contenuti vari e non solo personalizzati.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13372</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13372"/>
		<updated>2025-11-30T17:15:08Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* 4. Implicazioni sociali e culturali: */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La filter bubble (loc. s.le f.) è l’ambiente virtuale che ciascun utente costruisce su Internet scegliendo solo i contenuti che gli piacciono. In questa bolla, vediamo principalmente informazioni simili a quelle che già conosciamo e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie. Il termine filter bubble significa “bolla filtrata” ed è stato coniato da Eli Pariser nel libro The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;ref&amp;gt;[1] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi di personalizzazione==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della filter bubble, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati, rafforzando così un ecosistema chiuso di informazioni.&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 evidenziano inoltre che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref&amp;gt;[2] https://arxiv.org/abs/1905.03919&lt;br /&gt;
&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[3] https://arxiv.org/abs/2004.09603&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==3. Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;[1] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, riducendo la capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti mostrano che gli algoritmi di raccomandazione accentuano questa tendenza, riducendo ulteriormente la varietà dei contenuti e contribuendo alla polarizzazione delle opinioni.&amp;lt;ref&amp;gt;[4] https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&lt;br /&gt;
&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[5] https://link.springer.com/article/10.1007/s13347-024-00758-4&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Di conseguenza, la filter bubble non solo riduce la diversità informativa, ma può anche influenzare la percezione della realtà e il dibattito pubblico, perché gli utenti si trovano intrappolati in una “bolla” di contenuti che riflettono principalmente le loro idee e preferenze.&lt;br /&gt;
&lt;br /&gt;
==4. Implicazioni sociali e culturali: ==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi non influenzano solo ciò che un singolo utente vede, ma hanno anche effetti più ampi sulla società e sulla cultura. Quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, le differenze tra gruppi con visioni diverse tendono a essere enfatizzate, aumentando la polarizzazione sociale. https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&lt;br /&gt;
&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt; https://link.springer.com/article/10.1007/s13347-024-00758-4&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno può ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref&amp;gt; Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le filter bubbles possono rafforzare stereotipi, diffondere disinformazione e ridurre l’esposizione a prospettive diverse, creando una società più frammentata. Questo può avere effetti negativi sul dibattito pubblico, sulla coesione sociale e sulla capacità collettiva di affrontare problemi complessi.&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative possono influenzare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che può condurre a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&lt;br /&gt;
&lt;br /&gt;
==5. Rischi: ==&lt;br /&gt;
&lt;br /&gt;
I rischi principali della filter bubble sono:&lt;br /&gt;
•vedere solo informazioni che confermano le proprie idee;&lt;br /&gt;
•non conoscere punti di vista diversi;&lt;br /&gt;
•essere più facilmente influenzati da pubblicità o notizie parziali.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==6. Rimedi ipotizzati: ==&lt;br /&gt;
&lt;br /&gt;
Per ridurre gli effetti della filter bubble, si possono adottare strategie semplici:&lt;br /&gt;
•leggere notizie da fonti diverse;&lt;br /&gt;
• consapevoli di come funzionano gli algoritmi;&lt;br /&gt;
•usare piattaforme che mostrano contenuti vari e non solo personalizzati.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13371</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13371"/>
		<updated>2025-11-30T17:13:13Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La filter bubble (loc. s.le f.) è l’ambiente virtuale che ciascun utente costruisce su Internet scegliendo solo i contenuti che gli piacciono. In questa bolla, vediamo principalmente informazioni simili a quelle che già conosciamo e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie. Il termine filter bubble significa “bolla filtrata” ed è stato coniato da Eli Pariser nel libro The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;ref&amp;gt;[1] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi di personalizzazione==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della filter bubble, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati, rafforzando così un ecosistema chiuso di informazioni.&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 evidenziano inoltre che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref&amp;gt;[2] https://arxiv.org/abs/1905.03919&lt;br /&gt;
&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[3] https://arxiv.org/abs/2004.09603&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==3. Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;[1] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, riducendo la capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti mostrano che gli algoritmi di raccomandazione accentuano questa tendenza, riducendo ulteriormente la varietà dei contenuti e contribuendo alla polarizzazione delle opinioni.&amp;lt;ref&amp;gt;[4] https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&lt;br /&gt;
&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[5] https://link.springer.com/article/10.1007/s13347-024-00758-4&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Di conseguenza, la filter bubble non solo riduce la diversità informativa, ma può anche influenzare la percezione della realtà e il dibattito pubblico, perché gli utenti si trovano intrappolati in una “bolla” di contenuti che riflettono principalmente le loro idee e preferenze.&lt;br /&gt;
&lt;br /&gt;
==4. Implicazioni sociali e culturali: ==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi non influenzano solo ciò che un singolo utente vede, ma hanno anche effetti più ampi sulla società e sulla cultura. Quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, le differenze tra gruppi con visioni diverse tendono a essere enfatizzate, aumentando la polarizzazione sociale.[4] https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&lt;br /&gt;
&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[5] https://link.springer.com/article/10.1007/s13347-024-00758-4&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno può ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref&amp;gt;[1] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le filter bubbles possono rafforzare stereotipi, diffondere disinformazione e ridurre l’esposizione a prospettive diverse, creando una società più frammentata. Questo può avere effetti negativi sul dibattito pubblico, sulla coesione sociale e sulla capacità collettiva di affrontare problemi complessi.&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative possono influenzare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che può condurre a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&lt;br /&gt;
&lt;br /&gt;
==5. Rischi: ==&lt;br /&gt;
&lt;br /&gt;
I rischi principali della filter bubble sono:&lt;br /&gt;
•vedere solo informazioni che confermano le proprie idee;&lt;br /&gt;
•non conoscere punti di vista diversi;&lt;br /&gt;
•essere più facilmente influenzati da pubblicità o notizie parziali.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==6. Rimedi ipotizzati: ==&lt;br /&gt;
&lt;br /&gt;
Per ridurre gli effetti della filter bubble, si possono adottare strategie semplici:&lt;br /&gt;
•leggere notizie da fonti diverse;&lt;br /&gt;
• consapevoli di come funzionano gli algoritmi;&lt;br /&gt;
•usare piattaforme che mostrano contenuti vari e non solo personalizzati.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13368</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13368"/>
		<updated>2025-11-30T17:04:07Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* 4. Implicazioni sociali e culturali: */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La filter bubble (loc. s.le f.) è l’ambiente virtuale che ciascun utente costruisce su Internet scegliendo solo i contenuti che gli piacciono. In questa bolla, vediamo principalmente informazioni simili a quelle che già conosciamo e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie. Il termine filter bubble significa “bolla filtrata” ed è stato coniato da Eli Pariser nel libro The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;ref&amp;gt;[1] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi di personalizzazione==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della filter bubble, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati, rafforzando così un ecosistema chiuso di informazioni.&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 evidenziano inoltre che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref&amp;gt;[2] https://arxiv.org/abs/1905.03919&lt;br /&gt;
&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[3] https://arxiv.org/abs/2004.09603&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==3. Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;[1] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, riducendo la capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti mostrano che gli algoritmi di raccomandazione accentuano questa tendenza, riducendo ulteriormente la varietà dei contenuti e contribuendo alla polarizzazione delle opinioni.&amp;lt;ref&amp;gt;[4] https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&lt;br /&gt;
&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[5] https://link.springer.com/article/10.1007/s13347-024-00758-4&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Di conseguenza, la filter bubble non solo riduce la diversità informativa, ma può anche influenzare la percezione della realtà e il dibattito pubblico, perché gli utenti si trovano intrappolati in una “bolla” di contenuti che riflettono principalmente le loro idee e preferenze.&lt;br /&gt;
&lt;br /&gt;
==4. Implicazioni sociali e culturali: ==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi non influenzano solo ciò che un singolo utente vede, ma hanno anche effetti più ampi sulla società e sulla cultura. Quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, le differenze tra gruppi con visioni diverse tendono a essere enfatizzate, aumentando la polarizzazione sociale.&amp;lt;ref&amp;gt;[4] https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&lt;br /&gt;
&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[5] https://link.springer.com/article/10.1007/s13347-024-00758-4&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno può ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi.&amp;lt;ref&amp;gt;[1] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le filter bubbles possono rafforzare stereotipi, diffondere disinformazione e ridurre l’esposizione a prospettive diverse, creando una società più frammentata. Questo può avere effetti negativi sul dibattito pubblico, sulla coesione sociale e sulla capacità collettiva di affrontare problemi complessi.&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative possono influenzare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che può condurre a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&lt;br /&gt;
&lt;br /&gt;
==5. Rischi: ==&lt;br /&gt;
&lt;br /&gt;
I rischi principali della filter bubble sono:&lt;br /&gt;
•vedere solo informazioni che confermano le proprie idee;&lt;br /&gt;
•non conoscere punti di vista diversi;&lt;br /&gt;
•essere più facilmente influenzati da pubblicità o notizie parziali.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==6. Rimedi ipotizzati: ==&lt;br /&gt;
&lt;br /&gt;
Per ridurre gli effetti della filter bubble, si possono adottare strategie semplici:&lt;br /&gt;
•leggere notizie da fonti diverse;&lt;br /&gt;
• consapevoli di come funzionano gli algoritmi;&lt;br /&gt;
•usare piattaforme che mostrano contenuti vari e non solo personalizzati.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
	<entry>
		<id>https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13367</id>
		<title>Filter bubble</title>
		<link rel="alternate" type="text/html" href="https://unipedia.fileli.unipi.it/index.php?title=Filter_bubble&amp;diff=13367"/>
		<updated>2025-11-30T17:02:48Z</updated>

		<summary type="html">&lt;p&gt;131.114.30.18: /* Funzionamento degli algoritmi di personalizzazione */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La filter bubble (loc. s.le f.) è l’ambiente virtuale che ciascun utente costruisce su Internet scegliendo solo i contenuti che gli piacciono. In questa bolla, vediamo principalmente informazioni simili a quelle che già conosciamo e poco contenuto nuovo. Per esempio, su Facebook, l’algoritmo mostra nella home post e foto che potrebbero piacere all’utente, mentre altri contenuti vengono nascosti. Solo il 5% degli utenti legge opinioni molto diverse dalle proprie. Il termine filter bubble significa “bolla filtrata” ed è stato coniato da Eli Pariser nel libro The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;ref&amp;gt;[1] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Funzionamento degli algoritmi di personalizzazione==&lt;br /&gt;
&lt;br /&gt;
Gli algoritmi dei social network analizzano costantemente le azioni dell’utente — clic, “mi piace”, commenti, condivisioni e tempo di visualizzazione — per costruire un profilo preciso dei suoi interessi. Ogni interazione viene interpretata come un segnale di preferenza, e sulla base di questi dati l’algoritmo decide quali contenuti mostrare più spesso nel feed.&lt;br /&gt;
&lt;br /&gt;
Secondo Pariser, questa logica di personalizzazione porta alla formazione della filter bubble, un ambiente informativo in cui l’utente vede principalmente contenuti che confermano le sue opinioni, mentre quelli diversi o contrastanti vengono progressivamente ridotti o nascosti.&lt;br /&gt;
&lt;br /&gt;
Studi recenti dimostrano che questo meccanismo può diminuire la diversità informativa, poiché gli algoritmi tendono a privilegiare contenuti simili a quelli già apprezzati, rafforzando così un ecosistema chiuso di informazioni.&lt;br /&gt;
&lt;br /&gt;
Ricerche più recenti pubblicate nel 2024 evidenziano inoltre che tali sistemi di raccomandazione possono aumentare la polarizzazione e limitare l’esposizione a prospettive alternative, contribuendo alla formazione di una bolla informativa sempre più marcata.&amp;lt;ref&amp;gt;[2] https://arxiv.org/abs/1905.03919&lt;br /&gt;
&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[3] https://arxiv.org/abs/2004.09603&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==3. Effetti ipotizzati==&lt;br /&gt;
&lt;br /&gt;
La filter bubble può far vedere agli utenti solo una parte della realtà, limitando l’esposizione a punti di vista diversi.&amp;lt;ref&amp;gt;[1] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt; Gli utenti tendono a ricevere prevalentemente contenuti che confermano le loro convinzioni, riducendo la capacità di comprendere opinioni alternative.&lt;br /&gt;
&lt;br /&gt;
Studi recenti mostrano che gli algoritmi di raccomandazione accentuano questa tendenza, riducendo ulteriormente la varietà dei contenuti e contribuendo alla polarizzazione delle opinioni.&amp;lt;ref&amp;gt;[4] https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&lt;br /&gt;
&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[5] https://link.springer.com/article/10.1007/s13347-024-00758-4&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Di conseguenza, la filter bubble non solo riduce la diversità informativa, ma può anche influenzare la percezione della realtà e il dibattito pubblico, perché gli utenti si trovano intrappolati in una “bolla” di contenuti che riflettono principalmente le loro idee e preferenze.&lt;br /&gt;
&lt;br /&gt;
==4. Implicazioni sociali e culturali: ==&lt;br /&gt;
&lt;br /&gt;
Le bolle informative create dagli algoritmi non influenzano solo ciò che un singolo utente vede, ma hanno anche effetti più ampi sulla società e sulla cultura. Quando gli utenti sono esposti principalmente a contenuti che confermano le loro opinioni, le differenze tra gruppi con visioni diverse tendono a essere enfatizzate, aumentando la polarizzazione sociale.&amp;lt;ref&amp;gt;[4] https://appliednetsci.springeropen.com/articles/10.1007/s41109-024-00679-3&lt;br /&gt;
&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;[5] https://link.springer.com/article/10.1007/s13347-024-00758-4&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Questo fenomeno può ridurre significativamente il dialogo tra persone con idee differenti, poiché ciascun gruppo vede principalmente informazioni coerenti con le proprie convinzioni e tende a ignorare o sminuire punti di vista alternativi. La formazione delle opinioni diventa quindi più “chiusa”, limitando la capacità di comprendere realtà diverse dalla propria.&amp;lt;ref&amp;gt;[1] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le implicazioni culturali sono altrettanto rilevanti: le filter bubbles possono rafforzare stereotipi, diffondere disinformazione e ridurre l’esposizione a prospettive diverse, creando una società più frammentata. Questo può avere effetti negativi sul dibattito pubblico, sulla coesione sociale e sulla capacità collettiva di affrontare problemi complessi, perché le persone tendono a vivere in ambienti informativi sempre più separati e autoreferenziali.&lt;br /&gt;
&lt;br /&gt;
Infine, le bolle informative possono influenzare anche il comportamento politico e le scelte culturali, dato che gli utenti ricevono informazioni selezionate in base alle loro preferenze, il che può condurre a decisioni più polarizzate e a una partecipazione pubblica meno consapevole.&lt;br /&gt;
&lt;br /&gt;
==5. Rischi: ==&lt;br /&gt;
&lt;br /&gt;
I rischi principali della filter bubble sono:&lt;br /&gt;
•vedere solo informazioni che confermano le proprie idee;&lt;br /&gt;
•non conoscere punti di vista diversi;&lt;br /&gt;
•essere più facilmente influenzati da pubblicità o notizie parziali.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==6. Rimedi ipotizzati: ==&lt;br /&gt;
&lt;br /&gt;
Per ridurre gli effetti della filter bubble, si possono adottare strategie semplici:&lt;br /&gt;
•leggere notizie da fonti diverse;&lt;br /&gt;
• consapevoli di come funzionano gli algoritmi;&lt;br /&gt;
•usare piattaforme che mostrano contenuti vari e non solo personalizzati.&lt;br /&gt;
&lt;br /&gt;
==Note==&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Bibliografia==&lt;/div&gt;</summary>
		<author><name>131.114.30.18</name></author>
	</entry>
</feed>