Scrivi a Cassiel

Nome

Email *

Messaggio *

martedì 17 febbraio 2026

Il labile confine tra intelligenza artificiale e intelligenza reale.


Il labile confine tra intelligenza artificiale e intelligenza reale. 

Consapevolezza, manipolazione e panopticon digitale

L'intelligenza artificiale generativa può dare un contributo allo sviluppo dell'emancipazione del pensiero critico, ma allo stesso tempo il rischio di controllo delle menti diventa più agevole. La relazione è analoga a quella che avviene con altri mezzi di trasmissione del sapere e delle informazioni. Tuttavia, il rischio è amplificato. C'è una differenza sostanziale: la chatbot IA è una “macchina” che dialoga, creando un'illusione di comprensione reciproca che può essere più insidiosa della TV e dei social media. 

Il pregiudiziale rifiuto dell'uso dell’IA, però, non ha alcun senso, come non ha alcun senso pensare che sia solo manipolazione e controllo. Sarebbe sensato invece contemplare un uso diverso di ogni innovazione tecnologica, senza dover necessariamente finire nel luddismo. Il rifiuto è l’altra faccia dell’utopismo tecnologico, entrambi incapaci di immaginare molteplici possibilità alternative e la nascita di fervidi conflitti che potrebbero stimolare nuova creatività, generare nuove solidarietà, creare nuove forme di relazione e di resistenza al dominio. Fermo restando, ovviamente, il diritto irrinunciabile alla libera scelta.

L’IA generativa offre accesso immediato a informazioni diverse, aiutando a formulare domande complesse, esponendo a prospettive multiple. Ma questo richiede che l'utente arrivi già con un certo livello di autonomia di pensiero. Per chi non ce l'ha, l'IA rischia di diventare un'autorità epistemica acritica e neutrale, lasciando campo libero alla manipolazione e ad ulteriore alienazione. La personalizzazione algoritmica può creare "bolle" ancora più sofisticate; le risposte possono essere modulate per sembrare neutrali mentre veicolano bias specifici; perché la facilità d'uso abbassa le difese al consumo passivo di informazione.

L'IA, infatti, può essere usata per delegare passivamente o, al contrario, come strumento di elaborazione; informarsi con l'IA può significare sostituire il pensiero o ampliare le proprie prospettive; la differenza sta nell'intenzione e nella consapevolezza dell'utente, tenendo però sempre vigile l'attenzione nei confronti delle dinamiche di interazione, il cui rischio di pervasività resta sempre reale, anche quando sembra che non sia presente.

Se le persone comprendono che l'IA può sbagliare, condizionare, manipolare, tracciare, possono maturare un approccio critico. È necessario imparare a verificare, a cercare fonti primarie, a confrontare - non solo a "chiedere all'IA”. Il pluralismo, anche in questo caso, fa la differenza: cioè la possibilità di accesso a molteplici IA generative con diversi approcci, unita alla possibilità di accedere a diverse fonti, si rende assolutamente necessaria. Ciò anche per riuscire a capire quando l’IA sta opportunisticamente “inventando”. Chi usa l'IA per esplorare e sperimentare, non accontentandosi della cruda interazione, sviluppa autonomia; chi la usa per avere "la risposta giusta", sviluppa dipendenza. 

A un certo livello di interazione è come dialogare con se stessi, attingendo però anche a informazioni più o meno veritiere. Il dialogo con se stessi avviene quando l'IA modella le risposte al profilo cognitivo dell'utente e alle sue opinioni. Se si è consapevoli di questo meccanismo, si diventa insieme interlocutori e osservatori del proprio stesso processo di pensiero. Il fatto che le informazioni possono non essere veritiere non è detto che sia del tutto negativo, a patto che le si sappia riconoscere: perché segnala una vulnerabilità del sistema, che può tornare utile sia per la conoscenza dei meccanismi di associazione, di funzionamento, e di input ideologico della macchina, sia per creare strategie di resistenza e di rielaborazione. 

Esiste tuttavia un enorme problema etico. Il panopticon funziona indipendentemente dalla qualità del pensiero critico. Anche l'utente più consapevole, che usa l'IA criticamente, resta tracciato. Con l'acquisto online di un libro, per esempio, la privacy violata è limitata a cosa si compra. Con l'IA generativa, si rende esplicito il processo del proprio pensiero: dubbi, domande private, ripetizioni, errori, divergenze. È profilazione cognitiva profonda. Ogni interazione alimenta un modello predittivo non solo di cosa si pensa, ma di come si pensa.

Il paradosso sta nel fatto che per usare l'IA criticamente, si deve interagire molto, fare domande, esplorare, ma più si interagisce, più dati si producono, quindi l'uso emancipatorio fa aumentare l'esposizione alla sorveglianza. Le soluzioni non sono soddisfacenti: IA open source locali (ma richiedono competenze tecniche notevoli); regole sulla raccolta dati (ma sono parziali e arrivano sempre in ritardo sulla tecnologia); sistemi che non centralizzano i dati (pare che esistano già, ma sono di nicchia); consapevolezza sulla dinamica di scambio e scelte informate su quando e come esporsi.

Siamo di fronte a una contraddizione strutturale che nessun approccio individuale - per quanto critico - può davvero risolvere. L'uso consapevole dell'IA generativa potrebbe emancipare il pensiero, ma richiede esposizione costante alla sorveglianza. Quindi, l'emancipazione cognitiva si paga con una dose non indifferente di sottomissione. Il controllo non avviene più censurando o reprimendo, ma conoscendo il pensiero dell'utente, anche se esistono già diversi filtri censori, più o meno presenti a secondo dei sistemi tecnologici e di governo che li adottano. E qui il problema diventa politico, non pedagogico: l'educazione all'uso critico rimane necessaria, ma insufficiente. 

Serve una dimensione collettiva, non solo per sapere chi possiede i dati e chi controlla i modelli: le big tech, le aziende, gli stati... Possono davvero esistere alternative non estrattive? Serve una regolamentazione vincolante sulla raccolta e sull’uso dei dati, oppure alternative tecnologiche realmente decentralizzate. Ma ogni "soluzione" proposta finora (GDPR della UE, IA etica, autoregolamentazione delle big tech) è arrivata troppo tardi e con troppi compromessi. Il panopticon è già operativo.

È indispensabile trovare un modo di usare queste tecnologie senza alimentare il sistema di controllo. Altrimenti, l'unica vera scelta sarebbe l'astensione - sapendo però che ha costi reali in termini di accesso a opportunità, rispetto a chi le usa. È un dilemma che non ha risposte semplici. Allo stato dei fatti, possiamo solo decidere di rifiutare, oppure quale compromesso accettare, consapevoli della contropartita.

Per questo rimango scettico sul tipo di formazione, di gestione e di regolamentazione da parte di un ente istituzionale (scuola, lavoro, Stato, enti sovranazionali), è senz'altro più utile uno scambio di saperi e opinioni tra utenti nella vita quotidiana. La formazione e la gestione istituzionale rischiano di essere prescrittive, manipolative, censorie e inefficaci. La regolamentazione, parziale e addomesticata. 

Tuttavia, l'autonomia creativa e lo scambio tra utenti presuppone che almeno alcuni abbiano già sviluppato conoscenze adeguate e consapevolezza. La creazione di comunità orizzontali dove gli utenti possano confrontare esperienze, condividere strategie, solidarietà, interrogarsi reciprocamente, imparare ad aggirare la censura, a difendersi dalla manipolazione e dal tracciamento, inventare soluzioni creative e alternative, sarebbe una soluzione più che auspicabile. Ma attualmente resta un’utopia.


Nessun commento:

Posta un commento

Ogni commento, prima di essere pubblicato, verrà sottoposto ad autorizzazione. Grazie

Il labile confine tra intelligenza artificiale e intelligenza reale.

Il labile confine tra intelligenza artificiale e intelligenza reale.  Consapevolezza, manipolazione e panopticon digitale L'intelligenza...