Il nuovo mercato? Hackerare la Mente!

Il nuovo mercato? Hackerare la Mente!

Hackerare la mente: il lato oscuro degli algoritmi AI che ci tengono incollati allo schermo

Possiamo fare un parallelismo molto inquietante tra le azioni che l’industria alimentare ha creato negli anni nei confronti del nostro corpo e l’intelligenza artificiale sulla nostra mente e badate bene, non si tratta certo di fantascienza, ma di una precisa dinamica economica che versa su un unico obbiettivo: MASSIMIZZARE IL PROFITTO!

Il precedente alimentare: quando il cibo divenne dipendenza

Per capire cosa sta accadendo oggi con il digitale, vale la pena guardare indietro. Per decenni, l’industria alimentare ha lavorato sistematicamente per rendere i propri prodotti irresistibili, combinando zucchero, grassi e sale in proporzioni studiate per aggirare i normali meccanismi di sazietà del cervello. Il risultato? Consumatori che mangiano più del necessario non per fame, ma per un impulso quasi automatico. Una forma di dipendenza chimica costruita a tavolino.

Oggi sappiamo che il cibo ultra-processato ha contribuito a un deterioramento reale della salute pubblica. Non per negligenza dei consumatori, ma perché il sistema era progettato esattamente per funzionare così.

Lawrence Lansink e la tesi sull’AI che “hackera” la mente

È su questo sfondo che Lawrence Lansink ha costruito la sua analisi. La sua tesi è diretta: l’intelligenza artificiale sta hackerando la nostra mente, e lo sta facendo seguendo esattamente la stessa logica dell’industria alimentare — quella del profitto che prevale su qualsiasi altra considerazione.

Il meccanismo è diverso, ma la struttura è identica. Al posto di zucchero e grassi, ci sono gli algoritmi. Al posto del palato, c’è il sistema emotivo. E al posto della dipendenza da cibo, c’è quella da schermo.

Come gli algoritmi usano le emozioni come leva

Gli algoritmi dei social media non sono neutrali. Leggono in tempo reale le reazioni degli utenti — click, tempo di permanenza, condivisioni, commenti — e imparano rapidamente che certi tipi di contenuti generano più coinvolgimento. In particolare, i contenuti che scatenano emozioni forti: rabbia, indignazione, paura, senso di appartenenza tribale.

Il risultato pratico è che il feed di ogni utente tende a riempirsi di contenuti polarizzanti, pensati — spesso inconsciamente — per dividere. Il tribalismo e la faziosità non sono conseguenze inattese: sono prodotti attivamente premiati dal sistema perché generano attenzione prolungata, e l’attenzione prolungata si traduce in più spazi pubblicitari venduti.

Lo schermo come vetrina: vendere pubblicità a ogni scroll

Il modello di business alla base dei grandi social media è semplice: tenere le persone incollate allo schermo il più a lungo possibile per poter vendere pubblicità. Non è un segreto. È scritto nei report finanziari delle grandi piattaforme. L’AI è lo strumento che rende questo possibile su scala globale, personalizzando l’esperienza di miliardi di utenti in tempo reale.

La conseguenza è che i contenuti non vengono selezionati in base alla loro qualità, utilità o verità, ma in base alla loro capacità di trattenere l’utente. Questo produce un flusso continuo di quello che potremmo definire “contenuto spazzatura” — emotivamente stimolante, spesso divisivo, raramente costruttivo.

Il prezzo sociale: divisione, rabbia, isolamento

Se il cibo spazzatura ci ha reso fisicamente meno sani, i contenuti spazzatura generati e amplificati dagli algoritmi ci stanno rendendo socialmente e mentalmente più fragili. La polarizzazione politica, l’incapacità di tollerare opinioni diverse, la diffidenza sistematica verso chi non appartiene al proprio gruppo: sono tutti fenomeni che hanno accelerato in parallelo alla crescita dei social media basati su AI.

La rabbia, come spiega l’analisi di Lawrence Lansink, non è un effetto collaterale indesiderato. È un ingrediente funzionale al sistema, così come lo zucchero è un ingrediente funzionale al cibo ultra-processato.

Svuotare la mente per riempire i portafogli

C’è una frase che sintetizza bene l’intera dinamica: per massimizzare i profitti, stanno svuotando la nostra mente. Non si tratta di un processo consapevolmente malvagio da parte di ogni singolo ingegnere o manager. È l’esito prevedibile di un sistema di incentivi sbagliato, dove il parametro di successo è il tempo trascorso sull’app, non il benessere dell’utente.

Esattamente come l’industria alimentare non ha “scelto” di rendere le persone obese, ma ha costruito prodotti ottimizzati per la vendita sapendo le conseguenze, le piattaforme digitali costruiscono esperienze ottimizzate per il coinvolgimento sapendo che il prezzo viene pagato, alla fine, dagli utenti.

È ora di riprendere il controllo della nostra mente

La buona notizia è che riconoscere il problema è già metà della soluzione. Siamo arrivati a un punto in cui la consapevolezza collettiva su questi meccanismi sta crescendo, e con essa la domanda di strumenti e approcci diversi.

L’intelligenza artificiale non è il nemico in sé. Il vero problema è l’utilizzo che ne viene fatto quando l’unico obiettivo è il profitto. Ma la stessa tecnologia può essere orientata diversamente: verso strumenti che aiutano a imparare, a ragionare in modo critico, a connettersi in modo più autentico. Esistono già esempi in questa direzione, e stanno aumentando.

Dobbiamo usare l’AI per rinforzare la nostra mente, non per indebolirla. Questo significa scegliere consapevolmente quali piattaforme usare e come, pretendere trasparenza sugli algoritmi, sostenere modelli di business che non dipendano dalla vendita di attenzione. Significa, in sintesi, smettere di essere il prodotto e tornare a essere le persone.

Fonte principale di riferimento: Analisi e tesi di Lawrence Lansink sul tema AI e manipolazione cognitiva. Le osservazioni sul parallelismo con l’industria alimentare sono basate su studi consolidati sul marketing dei cibi ultra-processati e sulla progettazione dei feed algoritmici.

Ennio Barbieri