Questo articolo esplora l'evoluzione dell'influenza digitale, dalla Captologia – lo studio dei computer come tecnologie persuasiva – al fenomeno dell'Iperpersuasione, determinati dall'avvento dell'Intelligenza Artificiale. A differenza delle tecniche di persuasione tradizionali, la persuasione guidata dall'IA utilizza big data e microtargeting consente di creare profili cognitivi granulari attraverso la manipolazione subliminale e scalabile delle scelte individuali. L'articolo esamina come l'IA aggiri il pensiero razionale (il cosiddetto "Sistema 2") per colpire il "Sistema 1", istintivo ed emotivo, attraverso l'Hypernudging e la manipolazione computazionale. Lo studio analizza ulteriormente i rischi sistemici, tra cui l'effetto di conformità – in cui gli agenti IA possono innescare modificazioni comportamentali negli esseri umani – e le stretagie di controllo sociale, ideologico o politico di massa da parte di gruppi di potere. Pur riconoscendo le potenzialità dell'IA in settori come la sanità e l'istruzione, l'articolo mette in guardia dall'erosione dell'autonomia mentale e dai rischi della persuasione di massa. Per mitigare tali rischi, si propongono quattro strategie complementari: 1. Tutela della privacy: rafforzare il "diritto all'autodeterminazione informativa" individuale per limitare la profilazione estrema degli utenti. 2. Competizione pluralistica: promuovere un "mercato della persuasione" diversificato per prevenire il controllo monopolistico da parte degli apparati di potere. 3. Accountability e governance: garantire la verificabilità degli algoritmi e l'allineamento con i valori umani. 4. Alfabetizzazione all'intelligenza artificiale (AI Literacy): implementare una "profilassi cognitiva" attraverso l'educazione digitale per rafforzare il pensiero critico. Si sostiene pertanto il riconoscimento di un nuovo diritto fondamentale: il diritto all'autodeterminazione mentale, garantendo che gli individui rimangano liberi da interferenze cognitive di tipo algoritmico durante i processi decisionali.

Tecnologie persuasive e IA: quattro strategie per difendersi / Galetta, Giuseppe. - In: AGENDA DIGITALE EU. - ISSN 2421-4167. - (2025). [10.5281/zenodo.18048456]

Tecnologie persuasive e IA: quattro strategie per difendersi

Giuseppe Galetta
2025

Abstract

Questo articolo esplora l'evoluzione dell'influenza digitale, dalla Captologia – lo studio dei computer come tecnologie persuasiva – al fenomeno dell'Iperpersuasione, determinati dall'avvento dell'Intelligenza Artificiale. A differenza delle tecniche di persuasione tradizionali, la persuasione guidata dall'IA utilizza big data e microtargeting consente di creare profili cognitivi granulari attraverso la manipolazione subliminale e scalabile delle scelte individuali. L'articolo esamina come l'IA aggiri il pensiero razionale (il cosiddetto "Sistema 2") per colpire il "Sistema 1", istintivo ed emotivo, attraverso l'Hypernudging e la manipolazione computazionale. Lo studio analizza ulteriormente i rischi sistemici, tra cui l'effetto di conformità – in cui gli agenti IA possono innescare modificazioni comportamentali negli esseri umani – e le stretagie di controllo sociale, ideologico o politico di massa da parte di gruppi di potere. Pur riconoscendo le potenzialità dell'IA in settori come la sanità e l'istruzione, l'articolo mette in guardia dall'erosione dell'autonomia mentale e dai rischi della persuasione di massa. Per mitigare tali rischi, si propongono quattro strategie complementari: 1. Tutela della privacy: rafforzare il "diritto all'autodeterminazione informativa" individuale per limitare la profilazione estrema degli utenti. 2. Competizione pluralistica: promuovere un "mercato della persuasione" diversificato per prevenire il controllo monopolistico da parte degli apparati di potere. 3. Accountability e governance: garantire la verificabilità degli algoritmi e l'allineamento con i valori umani. 4. Alfabetizzazione all'intelligenza artificiale (AI Literacy): implementare una "profilassi cognitiva" attraverso l'educazione digitale per rafforzare il pensiero critico. Si sostiene pertanto il riconoscimento di un nuovo diritto fondamentale: il diritto all'autodeterminazione mentale, garantendo che gli individui rimangano liberi da interferenze cognitive di tipo algoritmico durante i processi decisionali.
2025
Tecnologie persuasive e IA: quattro strategie per difendersi / Galetta, Giuseppe. - In: AGENDA DIGITALE EU. - ISSN 2421-4167. - (2025). [10.5281/zenodo.18048456]
File in questo prodotto:
File Dimensione Formato  
Tecnologie persuasive e IA - Giuseppe Galetta.pdf

accesso aperto

Tipologia: Versione Editoriale (PDF)
Licenza: Creative commons
Dimensione 371.82 kB
Formato Adobe PDF
371.82 kB Adobe PDF Visualizza/Apri

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11588/1021795
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact