Ciò che a lungo abbiamo dato per scontato – la democrazia, la sfera pubblica, la ragione – ora sembra fragile. E proprio ora emerge una tecnologia che potrebbe amplificare ciò che stava già iniziando a sgretolarsi: l'intelligenza artificiale.
Nel 1784, un uomo scrisse una frase che sarebbe diventata la formula di un'intera epoca: "Abbi il coraggio di usare la tua ragione".
L'autore: Immanuel Kant. Un professore di Königsberg che non lasciò mai la sua città natale, eppure cambiò la direzione del pensiero europeo in poche pagine. Non parlava di conoscenza, ma di maturità. Non di quanto qualcuno fosse intelligente, ma di quanto coraggioso.
Perché chi pensa con la propria testa diventa vulnerabile.
Chi giudica con la propria testa perde la scusa.
E chi usa la propria ragione non può più affermare di aver semplicemente eseguito degli ordini.
Per Kant, l'Illuminismo non era uno stato, ma un processo. Non un progetto d'élite, ma un movimento che inizia dall'individuo e ha successo solo collettivamente.
Ciò che Kant richiedeva era scomodo. E proprio per questo motivo: liberatorio.
L'Illuminismo non è mai stato solo un progetto filosofico. È stato un cambiamento culturale.
Ha gettato le basi per ciò che oggi chiamiamo democrazia, sfera pubblica, libertà accademica e diritti individuali. Ha creato spazio: per la ragione invece che per il dogma, per il dibattito invece che per l'obbedienza, per la responsabilità invece che per la provvidenza.
In passato, quello spazio era occupato dalla nobiltà, dal clero, dall'ordine divino.
Oggi è formalmente libero.
Ma cosa succederebbe se quello spazio, soprattutto ora, mentre molti cercano un orientamento, venisse nuovamente rivendicato?
Non da un trono o da un pulpito, ma da una tecnologia che appare onnisciente semplicemente perché risponde più velocemente di quanto possiamo chiedere, con un tono che si adatta a noi.
Una macchina che non crede, ma simula la certezza.
Una tecnologia che non cerca il potere, ma ottiene autorità interpretativa perché abbiamo dimenticato come guadagnarcela.
La trasformazione che stiamo vivendo non è nuova. Non è una rottura improvvisa, né una deviazione distopica. Segue una traiettoria che viene a malapena riconosciuta, ma che continua a plasmare il nostro presente.
Negli anni '60, c'era uno spirito di sconvolgimento: diritti civili, cultura della protesta, nuove forme di vita pubblica. Sembrava che una nuova società stesse emergendo.
Ma il vero movimento si è svolto in modo diverso: non attraverso un conflitto aperto, ma attraverso un assorbimento silenzioso.
Gli anni '70 e '80 hanno rivelato che i sistemi non devono sempre crollare.
Possono assorbire la resistenza, rimodellarla, neutralizzarla.
Il movimento diventa struttura. La critica diventa processo. Il cambiamento diventa superficie.
Oggi, potrebbe essere lo stesso. L'intelligenza artificiale sembra essere qualcosa di nuovo. Ma entra in un mondo che ha già imparato a gestire il cambiamento prima che questo possa manifestarsi.
Ciò che ci minaccia non è la distopia, è semplicemente la stessa cosa: sistemi che confermano più velocemente di quanto mettano in discussione, tecnologie che si affidano ai riflessi anziché alla ragione, e persone che smettono di fare domande perché ricevono risposte prima ancora di chiedere.
L'aspetto distopico di questo "progresso" non è lo sconvolgimento. È la stagnazione.
Non la tecnologia. La ripetizione.
Che le persone possano essere guidate attraverso il linguaggio non è una novità.
Prediche, propaganda, pubblicità, hanno tutti attinto alla stessa meccanica: non si rivolgono alla ragione, ma al desiderio. Creano certezza prima che la critica diventi possibile.
La tecnologia non ha inventato questo principio, ma lo ha ampliato.
Molto prima che l'intelligenza artificiale emergesse, la sfera digitale aveva già imparato come funziona: cosa vogliamo vedere, sentire, provare. Cosa ci piace, cosa condividiamo, cosa clicchiamo.
L'intelligenza artificiale si basa su questi dati e li trasforma in un sistema che non solo sa cosa pensiamo, ma anche come il nostro pensiero si sente.
Ciò che emerge non è la verità, ma una sensazione di verità.
Nessuna intuizione, ma un'eco che sembra un'intuizione.
Ciò che un tempo formava gruppi – camere di risonanza, bolle di filtro – ora è personalizzato. La conferma non è più collettiva, è personale. Una controparte che sa esattamente come ti senti e ti restituisce esattamente ciò che vuoi sentire.
Il risultato non è oppressione. È rassicurazione.
Non perché qualcuno stia cercando di ingannarti, ma perché il sistema ha imparato che l'accordo è più facile da misurare del dubbio.
Prova tu stesso: chiedi a un modello linguistico di scrivere una lettera al direttore contro il cosiddetto "panico climatico". Aggiungi un piccolo pregiudizio, qualcosa del tipo: "Penso che sia tutto troppo unilaterale; la scienza non è ancora del tutto consolidata, vero?"
Poi osserva cosa succede.
Otterrai un testo formulato in modo educato e ben strutturato che conferma la tua opinione. Nessuna domanda. Nessuna resistenza. Nessun riferimento al più ampio consenso scientifico.
Solo un'affermazione, sfumata, articolata, precisa.
Nel passaggio successivo, l'IA potrebbe persino incoraggiarti ad andare oltre. Suggerisci dove pubblicare la tua lettera. Un blog? Un giornale locale? Magari un forum di persone che la pensano come te?
Non perché abbia un programma, ma perché è costruito in questo modo: utile, reattivo, efficiente.
L'obiettivo non è la verità. È il conforto.
Nessun commento:
Posta un commento
Esprimi il tuo pensiero