Tecnologia avanzata, pensiero in regressione: il filosofo Massarenti analizza la contraddizione
L'autore ci guida in un viaggio tra stupidità e intelligenza umana, descrivendo una società dotata di tecnologie all'avanguardia e mezzi innovativi per diffondere il sapere, che però fatica a comprendere e valutare la qualità degli stimoli che la circondano, rischiando di perdere lo spirito critico nell'interpretazione delle informazioni. A questo si aggiunge il continuo sviluppo dell'IA, i cui meccanismi di funzionamento restano ancora in parte ignoti e che sta rivoluzionando il nostro modo di attingere alla conoscenza
TRENTO. "Come siamo diventati stupidi": il titolo provocatorio dell'ultimo saggio del filosofo Armando Massarenti non solo cattura l'attenzione, ma prelude a una più profonda riflessione sulla società contemporanea, indagandone lo stile di vita, le rapide trasformazioni e come internet e i social stiano influenzando comportamenti e percezione della realtà.
L'autore ha discusso questi temi durante la presentazione del suo libro in una conferenza tenutasi presso la sala conferenze di Fondazione Caritro, organizzata da Carlo Casonato, professore di diritto costituzionale comparato presso l'Università di Trento.
Massarenti ci guida in un viaggio tra stupidità e intelligenza umana, descrivendo una società dotata di tecnologie all'avanguardia e mezzi innovativi per diffondere il sapere, che però fatica a comprendere e valutare la qualità degli stimoli che la circondano, rischiando di perdere lo spirito critico nell'interpretazione delle informazioni. A questo si aggiunge il continuo sviluppo dell'IA, i cui meccanismi di funzionamento restano ancora in parte ignoti e che sta rivoluzionando il nostro modo di attingere alla conoscenza.
Fake news e pensiero critico
Alla domanda sul possibile spazio per il pensiero critico in un'epoca di fake news, disinformazione e intelligenza artificiale, Massarenti risponde con decisione: "Assolutamente sì. Ho scritto 'Come siamo diventati stupidi' proprio per mostrare che uno spazio per il pensiero critico è possibile. Lo sottolinea il sottotitolo 'Una immodesta proposta per tornare intelligenti'".
Il filosofo evidenzia come le fake news siano progettate per manipolare e sfruttare le fragilità del pensiero umano. "Per questo il sistema educativo ha un compito essenziale: formare menti vigili, capaci di distinguere tra verosimiglianza e verità, tra narrazione e realtà."
Massarenti ricorda che le bufale non sono una novità: "Basti ricordare la Donazione di Costantino o i falsi protocolli dei Savi anziani di Sion. Ciò che cambia oggi è la rapidità e la capillarità della loro diffusione attraverso internet". È proprio per questo che serve una nuova alfabetizzazione: "Non solo tecnologica, ma critica e culturale. L'università deve farsi guida in questo percorso, promuovendo una forma di smascheramento mediatico".
IA e tutele necessarie
Riguardo ai pericoli quotidiani legati alle fake news e agli sviluppi dell'Intelligenza Artificiale, Massarenti sottolinea la necessità di tutele, ma soprattutto di competenze: "Il vero rischio non è solo ciò che l'IA può fare, ma ciò che noi non sappiamo fare con l'IA. Dobbiamo imparare a convivere con queste tecnologie, capendo quando possono aiutarci e quando invece ci espongono a rischi cognitivi e sociali".
Non si tratta solo di correggere i bias interni agli algoritmi, ma anche di sviluppare una cultura capace di riconoscere e decostruire i bias dentro di noi. "L'ironia e l'umorismo sono strumenti potentissimi in questo senso: permettono di smascherare stereotipi e pregiudizi dall'interno, senza irrigidimenti".
Verità e falso nell'era dell'IA
Sulla difficoltà di distinguere il "vero" dal "falso" nell'era dell'intelligenza artificiale, Massarenti è chiaro: "L'intelligenza artificiale non credo che cancelli la distinzione tra vero e falso. Al contrario, può essere un valido strumento per filtrare il rumore che offusca spesso il nostro giudizio, specialmente quando prendiamo decisioni spinte da emozioni momentanee".
Il filosofo richiama gli studi di Daniel Kahneman sui due tipi di errori cognitivi: quelli sistematici dettati dai bias e quelli casuali dovuti al "rumore" emotivo. "L'IA può aiutarci a fare chiarezza, soprattutto difendendoci dal rumore, a condizione che non venga usata per rafforzare la polarizzazione già in atto".
La società del futuro
Interrogato sulla società del futuro, Massarenti ammette che "prevedere il futuro è sempre un esercizio rischioso". Citando uno studio di Daniel Gilbert, evidenzia come le persone riconoscano facilmente i cambiamenti avvenuti nel loro passato recente, ma facciano fatica a immaginarsi diversi in futuro.
"Ci saranno trasformazioni, certo, ma molti aspetti dell'umano resteranno stabili. L'interazione uomo-macchina sta già modificando il nostro rapporto con il sapere, il tempo e la comunicazione". Per questo, secondo Massarenti, "serve una cultura della complessità, che insegni ad affrontare il cambiamento con spirito critico" e "una nuova forma di illuminismo digitale, che dia a tutti gli strumenti per pensare, non solo per cliccare".
L'Europa e il digitale
Sulla diffusione globale dell'IA e il possibile modello europeo, Massarenti osserva che "la diffusione dell'IA è globale e difficilmente arginabile", ma "il punto non è tanto 'se' usare l'IA, ma 'come'". Il filosofo sottolinea infine un tema cruciale: "Il valore del lavoro intellettuale. Se svalutiamo il lavoro dei traduttori, degli editor, dei ricercatori, li costringiamo ad affidarsi a strumenti automatici senza qualità. E la qualità dell'informazione, inevitabilmente, ne risente. Non possiamo pensare che l'intelligenza artificiale ci salvi se smettiamo di riconoscere il valore dell'intelligenza umana".