Hypernudging: gli algoritmi ci danno una “spinta gentile”?Tempo di lettura stimato: 15 min

di Emiliano Germani

(Le opinioni e le idee qui presentate sono espresse dall’autore a titolo puramente personale)

È possibile che gli algoritmi influenzino gli utenti dei servizi digitali agendo secondo alcune particolari modalità tipiche del nudging (per approfondire ti consigliamo il nostro articolo Nudge: la spinta gentile) [1]. E’ questa l’ipotesi introdotta dal paper “Hypernudge’: Big Data as a Mode of Regulation by Design” [2], che può offrire un interessante e innovativo quadro interpretativo su come gli algoritmi digitali sembrano in grado di guidare le decisioni degli individui operando attraverso set di opzioni pre-determinate e utilizzando un sistema di stimoli e dissuasioni [3]; o, per usare una definizione più tecnica, operando attraverso un sistema di regolazione delle scelte delle persone basato sul design delle informazioni [4].

L’hypernudging farebbe leva in particolare sul metodo della cosiddetta “selezione di default”.

Nella teoria dei nudge, le opzioni di default sono delle scelte predefinite che diventano effettive nel momento in cui i soggetti non intraprendono alcuna azione per cambiarle. Difatti, le opzioni di default funzionano come raccomandazioni accettate passivamente, soprattutto a causa del cosiddetto default bias [5], che porta le persone a preferire lo status quo delle possibilità anche quando non vi sono costi per cambiare la selezione.

Grazie all’uso dei Big Data e dell’intelligenza artificiale, l’hypernudging utilizzerebbe sempre sistemi di default di tipo altamente personalizzato (o sarebbe meglio dire profilato) che appartengono a tre categorie principali:

  • default persistenti: le scelte passate funzionano da predittore delle scelte future;
  • default predefiniti intelligenti: utilizzano e incrociano dati riferiti sia all’utente che a terzi ad esso collegati;
  • default di adattamento: le impostazioni vengono aggiornate in modo dinamico in base alle decisioni in tempo reale fatte dall’individuo.

Questi tre differenti metodi sarebbero spesso incrociati tra loro e utilizzati in modo sinergico dall’hypernudging.


Photo by NASA on Unsplash

Per capire come agirebbe un sistema hypernudge, basti pensare al meccanismo dei feed dei social network, ai risultati dei motori di ricerca, ai suggerimenti dei sistemi di navigazione satellitare. Gli utenti ricevono un set di opzioni di scelta limitato, che semplifica la loro esperienza, facilita la scelta, e che, generalmente, viene accettato, anche perché si accetta che tali siano frutto di un risultato ottimale (per bias di default, fiducia innata, ecc.). Il risultato è un design delle opzioni altamente profilato sulle caratteristiche e sui bisogni degli utenti che avrebbe un duplice obiettivo:

  • uno manifesto, cioè semplificare le decisioni e le azioni che ne conseguono (scegliere una strada, un ristorante, ecc.);
  • e uno più latente, cioè predeterminare decisioni e azioni future in base a finalità del fornitore del servizio e di utenti terzi (legate a scopi commerciali, di marketing, politici, ecc.).

Fin qui, siamo nel “normale” funzionamento degli algoritmi. Ma facendo riferimento al quadro teorico di hypernudging possiamo evidenziare una sorta di meccanismo di loop in retro-feedback. In effetti, gli algoritmi sono progettati per raccogliere, analizzare e trattare non solo i dati relativi alle caratteristiche delle persone, ma anche quelli relativi alle loro decisioni e alle loro azioni. In questo modo si può determinare un circolo di retroazione, in cui l’individuo viene influenzato in base a “ciò che fa” e “ciò che è”, e può essere spinto ad essere o fare determinate scelte in base alle influenze ricevute in precedenza, in un circolo che si auto-alimenta. Così l’invasività e pervasività dell’hypernudging sarebbero sostanzialmente totalizzanti (cosiddetta “iper personalizzazione”).

Ma c’è un altro aspetto da valutare. Le informazioni che determinano la profilazione dell’utente non sono solo quelle afferenti direttamente al soggetto e ai suoi comportamenti (dagli stili di vita, alle scelte di consumo, ai modi di interazione con i sistemi digitali). Nei sistemi di profilazione possono essere considerate anche informazioni relative alle sue reti sociali (reali e virtuali, concrete e potenziali), ai soggetti con cui interagisce a qualsiasi livello, agli individui profilati come “affini” dai sistemi di marketing predittivo. In questo modo, la valutazione del profilo informativo relativo al soggetto potrebbe diventare totalmente inaccessibile al soggetto stesso e la valutazione del suo profilo decisionale può essere collegata a fattori che riguardano soggetti terzi a cui viene considerato in qualche modo collegato, o sarebbe meglio dire correlato.

Date tali premesse, si evidenzia un’altra possibile caratteristica dei sistemi hypernudging. Essendo basate su loop di retro-feedback e correlazioni di affinità suscettibili esposti a bias e deformazioni interpretative, le informazioni raccolte e trattate possono avere spesso un carattere arbitrario, impreciso o parziale, pur essendo utilizzate per produrre precisi effetti di influenzamento. In questo modo, gli individui possono trovarsi inseriti in un meccanismo di costante “profezia che si auto-avvera”[6], che può deprivarli di autonomia nella determinazione non solo delle proprie scelte ma, potenzialmente, anche nella definizione di sé stessi. Nella dimensione digitale, non solo ciò che gli utenti scelgono (di leggere, consumare, ecc.), ma anche ciò che percepiscono di “essere” sarebbe determinabile da un algoritmo. Potremmo quindi dire che nei sistemi hypernudging l’impiego di Big Data, super-computer ad elevata potenza di calcolo e algoritmi non sarebbe limitato all’elaborazione di modelli predittivi altamente profilati, ma giungerebbe alla possibilità di definire veri e propri modelli prescrittivi.

    In base a quanto detto, i sistemi hypernudging presenterebbero alcune caratteristiche specifiche.

  • Algocrazia. Nei sistemi hypernudging gli individui sarebbero spesso privati della consapevolezza riguardo al “come” si formano le loro scelte e decisioni e raramente sono consapevoli del condizionamento. Un livello che trascende la semplice manipolazione, poiché l’individuo non arriva quasi mai a percepire la possibilità di un condizionamento e, se anche ne divenisse consapevole, metodi e processi rimarrebbero comunque a lui inaccessibili e quindi difficilmente elaborabili cognitivamente. In questo modo, l’individuo può essere doppiamente privato della sua libertà decisionale: da un lato, perché si illude di perseguire fini propri, dall’altro perché diretto verso fini che invece non gli appartengono, i quali non arriva quasi mai a conoscere e comprendere. Il tutto in cambio di una remunerazione cognitiva minimale: una facilitazione informativa che semplifica decisioni e azioni.
  • Coercizione nascosta. In deroga a quanto previsto dal sistema classico del nudging (dove l’architettura delle scelte può essere manipolata ma tutte le scelte restano potenzialmente accessibili), nell’hypernudging l’utente sarebbe sottoposto ad un sistema di raccomandazione di default in cui non è garantita l’opzione che tutte le possibilità di scelta rimangano disponibili. In effetti, il meccanismo di retro-feedback tende a limitare le opzioni. Profilati tramite modelli predittivi e indirizzati attraverso l’applicazione di modelli prescrittivi, gli utenti sarebbero del tutto inconsapevoli della presenza di alternative di scelta possibili, in quanto esposti ad un ecosistema informativo chiuso e tendente ad una progressiva restrizione. Così l’efficacia della selezione di default potrebbe determinare un effetto filter bubble [7] e potrebbe far sparire dall’ecosistema informativo dei soggetti esposti all’hypernudging la percezione stessa di possibili alternative decisionali. In questo modo, si potrebbe passare in sostanza dalla spinta gentile alla coercizione nascosta. Un esempio estremo e interessante in questo senso potrebbe essere dato dai cosiddetti dark patterns, elementi dell’interfaccia che possono essere usati da alcuni siti e piattaforme social network, appositamente disegnati e combinati fra di loro per confondere l’utente, con l’obiettivo di portarlo a compiere azioni non desiderate oppure di scoraggiarlo a prendere determinate decisioni [8]. In questo caso, la manipolazione interessa direttamente il piano della forma, definendo a priori le caratteristiche stesse di una vera e propria gabbia informativa in cui viene relegato l’utente.
  • Occultamento degli agenti. Le fonti e gli agenti dell’hypernudging (gli algoritmi di intelligenza artificiale) sono quasi sempre anonimi e impersonali.  Lo sviluppo di sistemi di intelligenza artificiale e del machine learning rende inoltre sempre più marginale l’intervento umano: paradossalmente, potrebbe quindi accadere che gli stessi agenti umani non conoscano interamente le possibilità di sviluppo e perfino le reali motivazioni del processo. Già oggi, ad esempio, esistono bot capaci di scrivere testi, produrre video, interagire con gli utenti in totale automazione. Le istruzioni di base con cui sono impostati rappresentano una sorta di canovaccio, ma gli stessi agenti che li hanno programmati non hanno esatta conoscenza di come queste possano evolversi. Il machine learning, infatti, può far sì che il programma modifichi la propria azione, “fagocitando” dati, ma anche gestendo dei processi esperienziali.
  • Iper-interferenza. Gli hypernudges agirebbero in modo massivo, condizionando gruppi numerosi di utenti e realizzando perfino sistemi di influenzamento incrociato e inconsapevole, sia attraverso interferenze dirette, sia attraverso interferenze collaterali, come avviene quando i modelli previsionali determinano l’impostazione degli hypernudges, oppure quando l’utente si ritrova in reti sociali selezionate sulla base dell’esposizione allo stesso sistema di hypernudging (come avviene sostanzialmente nelle echo chambers [9]). In questo modo potrebbe determinarsi una sorta di “perturbazione permanente”dell’ambiente informativo, che avvolge gli individui in modo multidimensionale, determinando una sorta di “effetto bozzolo”.

Photo by fabio on Unsplash

Proviamo a esemplificare una ipotesi di quello che potrebbe essere lo schema di un processo di hypernudging.

In un classico circuito hypernudging l’utente si trova davanti a set di opzioni limitate e predefinite, e prende quindi decisioni pre-determinate dalla ristrettezza delle informazioni e delle alternative disponibili (pensiamo al modo in cui vengono ordinati i risultati di ricerca sul web e a come tale ordine influenza valutazioni e scelte), orientato da finalità di terzi (ad esempio, il risultato offerto dai motori di ricerca è spesso determinato dagli investimenti promozionali) e manipolato da informazioni a lui riferite ma sottratte al suo controllo (motori di ricerca e social hanno algoritmi che selezionano preferibilmente i contenuti ritenuti più affini alle caratteristiche dell’utente).

Più l’utente ripete le scelte, più queste vengono contaminate da scelte precedenti (perché i sistemi digitali operano per profilazione) e anche da scelte di soggetti a lui associati da Big Data Analytics e algoritmi (a loro volta predeterminate e condizionate dall’azione combinata di modelli predittivi e prescrittivi).

La vorticosa spirale che si innesca determina una convergenza tra soggetti sottoposti agli stessi hypernudge, che tendono a influenzarsi ulteriormente tra loro (è ciò che avviene, ad esempio, con il meccanismo delle echo chambers).

Tali interazioni, possono diventare a loro volta dati che alimentano in retro-feedback il processo, che potenzialmente diventa capace di trarre costantemente nuove energie dagli stessi output che produce.

Le possibilità di un tale meccanismo potrebbero essere infinite e solo lontanamente immaginabili.


[1] La teoria del nudge è una disciplina che riunisce teorie e prassi derivate dall’economia, dalla psicologia e da altre scienze sociali. Obiettivo del “nudging” (in italiano spesso tradotto con “spinta gentile”) è definire strategie per indirizzare – in particolare da parte dei soggetti pubblici – i comportamenti individuali e collettivi verso obiettivi di interesse generale. In termini pratici, il “nudging” consiste nell’applicazione di rinforzi positivi o nell’evitamento e rimozione di rinforzi negativi per incidere sui processi decisionali dell’individuo o di gruppo. Sul tema, si suggerisce la lettura di: “Nudge. La spinta gentile”, di Richard H. Thaler, Cass R. Sunstein, Universale Economica Feltrinelli, 2014 (ISBN 8807884437).

[2] “Hypernudge’: Big Data as a Mode of Regulation by Design”, di Karen Yeung, May 2, 2016) Information, Communication & Society (2016) 1,19, TLI Think! Paper 28/2016 (disponibile in: SSRN: https://ssrn.com/abstract=2807574).

[3] Non si tratterebbe solo di informazioni personali riferite ai singoli individui in sè, ma di set di informazioni combinate riferite direttamente o indirettamente al singolo individuo. Ad esempio, gli algoritmi sono progettati per definire correlazioni e raccogliere e utilizzare informazioni su persone collegate, per poi ottimizzare la lista delle opzioni di scelta proposte in base a “persone come te” oppure “persone che scelgono e si comportano come te” (il cosiddetto “filtro collaborativo”. Per approfondimenti: “Using collaborative filtering to weave an information tapestry” di David Goldberg, David Nichols, Brian M. Oki, and Douglas Terry, ACM Press, 1992). 

[4] Yeung, 2016, ibidem

[5] Sul tema, in particolare: “Status quo bias in decision making”, di Samuelson, W. & R. J. Zeckhauser, Journal of Risk and Uncertainty, 1, pp 7–59 (1988)

[6] Un immediato e semplice esempio del meccanismo è il meccanismo di selezione dei contenuti nel modello delle piattaforme di contenuti televisivi on demand. Le scelte passate condizionano il set di offerta futuro, “imprigionando” l’utente in una bolla di scelte che più si ripete più si rinforza.

[7] Il termine indica la tendenza degli utenti di social a “rinchiudersi” in spazi di segregazione culturale ed ideologica, “bolle” virtuali in cui incontrano prevalentemente o addirittura esclusivamente persone o contenuti riferiti a set limitati di idee e valori, quelli cui si sentono maggiormente affini. Il fenomeno è collegato sia alla “naturale” tendenza di molti utenti che tendono a ridurre il carico cognitivo consolidando le visioni e credenze consolidate (e le reti di relazioni che condividono e sostengono tali visioni e credenze), sia ai meccanismi di funzionamento degli algoritmi, che tendono a facilitare gli utenti pre-selezionando i contenuti considerati più affini ai loro orientamenti e bisogni (da cui l’effetto di “filtraggio”). Per un approfondimento, in particolare: “The Filter Bubble: What the Internet Is Hiding from You”, di Eli Pariser, 2012, Penguin Books

[8] “La dark UX […] si basa principalmente sul ribaltamento di basilari teorie di psicologia usate in ambito visivo, come ad esempio la Teoria del Carico Cognitivo Pertinente (ovvero la nostra capacità di risparmiare memoria di lavoro memorizzando degli schemi di comportamento che tendiamo a ripetere, dando per scontato l’output e ignorando piccole “modifiche” al percorso che possono essere sfruttate per ingannarci). Il risultato è un’interfaccia fastidiosa e difficile da usare, disseminata di trappole cognitive che ci richiedono una soglia di attenzione estremamente alta durante la navigazione. A proposito, vale la pena ricordare qui vale la pena ricordare che secondo uno studio svolto in Canada nel 2015, Microsoft ha rivelato che la soglia di attenzione media per gli umani è crollata dai 12 secondi di inizio secolo ad appena 8 oggi, […]  Oltre ad avere un impatto diretto sulle nostre scelte la dark UX viene utilizzata anche nell’ambito ormai tristemente noto delle fake news per creare una sensazione di falsa affidabilità della fonte. […] “Anche i dettagli delle interfacce usate da Facebook e Google tradiscono gli utenti: camuffando ogni URL con le stesse identiche vesti, tutte queste aziende legittimano la diffusione di menzogne attraverso il design,” un po’ come il caso del fu Giornale/Giomale.[…]” Tratto da “Cosa sono i dark pattern. Che controllano la nostra vita online”, Motherboard, 31 luglio 2018, disponibile in: https://motherboard.vice.com/it/article/ev8vde/dark-pattern-harry-brignull-design-online. Sul tema di segnala anche: “The Dark (Patterns) Side of UX Design”, a cura di Gray C. M., Kou Y., Battels B., Hoggatt J. & Toombs A. L., 2018, disponibile in https://dl.acm.org/citation.cfm?id=3174108.

[9] Parliamo di una metafora con cui si descrive la situazione, tipica per molti utenti dei social, di trovarsi a contatto con reti di relazioni e contenuti selezioni per affinità e che si consolidano in continue ripetizioni da parte di più fonti, come in una sorta di eco, appunto. In queste camere virtuali, i soggetti si trovano progressivamente isolati da reti di relazioni e contenuti percepiti come “non affini” e sono sopraffatti dal “rumore dell’eco”. Il fenomeno è collegato a quello delle filter bubble. Echo chambers e filter bubble sono due fondamentali vettori di disinformazione e fake news.

Vuoi ricevere altri contenuti come questo direttamente nella tua mail?
Iscriviti al form in basso, ti manderemo un articolo al mese – fresco di editing e non una mail in più.

Iscriviti alla newsletter del nostro Blog

* indicates required

L’Autore

Emiliano Germani è dottore di ricerca in scienze sociali e filosofiche presso l’Università di Roma “Tor Vergata”, funzionario esperto in comunicazione digitale presso l’Autorità Garante per la protezione dei dati personali e docente a contratto di comunicazione, protezione dati e nuove tecnologie presso università e soggetti privati.

Lascia un commento