Questo articolo esplora l'evoluzione dell'influenza digitale, dalla Captologia – lo studio dei computer come tecnologie persuasiva – al fenomeno dell'Iperpersuasione, determinati dall'avvento dell'Intelligenza Artificiale. A differenza delle tecniche di persuasione tradizionali, la persuasione guidata dall'IA utilizza big data e microtargeting consente di creare profili cognitivi granulari attraverso la manipolazione subliminale e scalabile delle scelte individuali. L'articolo esamina come l'IA aggiri il pensiero razionale (il cosiddetto "Sistema 2") per colpire il "Sistema 1", istintivo ed emotivo, attraverso l'Hypernudging e la manipolazione computazionale. Lo studio analizza ulteriormente i rischi sistemici, tra cui l'effetto di conformità – in cui gli agenti IA possono innescare modificazioni comportamentali negli esseri umani – e le stretagie di controllo sociale, ideologico o politico di massa da parte di gruppi di potere. Pur riconoscendo le potenzialità dell'IA in settori come la sanità e l'istruzione, l'articolo mette in guardia dall'erosione dell'autonomia mentale e dai rischi della persuasione di massa. Per mitigare tali rischi, si propongono quattro strategie complementari: 1. Tutela della privacy: rafforzare il "diritto all'autodeterminazione informativa" individuale per limitare la profilazione estrema degli utenti. 2. Competizione pluralistica: promuovere un "mercato della persuasione" diversificato per prevenire il controllo monopolistico da parte degli apparati di potere. 3. Accountability e governance: garantire la verificabilità degli algoritmi e l'allineamento con i valori umani. 4. Alfabetizzazione all'intelligenza artificiale (AI Literacy): implementare una "profilassi cognitiva" attraverso l'educazione digitale per rafforzare il pensiero critico. Si sostiene pertanto il riconoscimento di un nuovo diritto fondamentale: il diritto all'autodeterminazione mentale, garantendo che gli individui rimangano liberi da interferenze cognitive di tipo algoritmico durante i processi decisionali.
Tecnologie persuasive e IA: quattro strategie per difendersi / Galetta, Giuseppe. - In: AGENDA DIGITALE EU. - ISSN 2421-4167. - (2025). [10.5281/zenodo.18048456]
Tecnologie persuasive e IA: quattro strategie per difendersi
Giuseppe Galetta
2025
Abstract
Questo articolo esplora l'evoluzione dell'influenza digitale, dalla Captologia – lo studio dei computer come tecnologie persuasiva – al fenomeno dell'Iperpersuasione, determinati dall'avvento dell'Intelligenza Artificiale. A differenza delle tecniche di persuasione tradizionali, la persuasione guidata dall'IA utilizza big data e microtargeting consente di creare profili cognitivi granulari attraverso la manipolazione subliminale e scalabile delle scelte individuali. L'articolo esamina come l'IA aggiri il pensiero razionale (il cosiddetto "Sistema 2") per colpire il "Sistema 1", istintivo ed emotivo, attraverso l'Hypernudging e la manipolazione computazionale. Lo studio analizza ulteriormente i rischi sistemici, tra cui l'effetto di conformità – in cui gli agenti IA possono innescare modificazioni comportamentali negli esseri umani – e le stretagie di controllo sociale, ideologico o politico di massa da parte di gruppi di potere. Pur riconoscendo le potenzialità dell'IA in settori come la sanità e l'istruzione, l'articolo mette in guardia dall'erosione dell'autonomia mentale e dai rischi della persuasione di massa. Per mitigare tali rischi, si propongono quattro strategie complementari: 1. Tutela della privacy: rafforzare il "diritto all'autodeterminazione informativa" individuale per limitare la profilazione estrema degli utenti. 2. Competizione pluralistica: promuovere un "mercato della persuasione" diversificato per prevenire il controllo monopolistico da parte degli apparati di potere. 3. Accountability e governance: garantire la verificabilità degli algoritmi e l'allineamento con i valori umani. 4. Alfabetizzazione all'intelligenza artificiale (AI Literacy): implementare una "profilassi cognitiva" attraverso l'educazione digitale per rafforzare il pensiero critico. Si sostiene pertanto il riconoscimento di un nuovo diritto fondamentale: il diritto all'autodeterminazione mentale, garantendo che gli individui rimangano liberi da interferenze cognitive di tipo algoritmico durante i processi decisionali.| File | Dimensione | Formato | |
|---|---|---|---|
|
Tecnologie persuasive e IA - Giuseppe Galetta.pdf
accesso aperto
Tipologia:
Versione Editoriale (PDF)
Licenza:
Creative commons
Dimensione
371.82 kB
Formato
Adobe PDF
|
371.82 kB | Adobe PDF | Visualizza/Apri |
I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.


