“Dobbiamo temere i padroni della Rete, non gli strumenti. Il potere informativo e l’asimmetria di conoscenza di dati che hanno le multinazionali del digitale rispetto a noi utenti, ma anche ai governi, è talmente sproporzionata che risulta difficile ipotizzare una regolamentazione”. Ne è convinto don Fabio Pasqualetti, decano della Facoltà di Scienze della comunicazione sociale dell’Università pontificia salesiana e consultore del Dicastero per la Comunicazione
“I social media, che funzionano anche grazie ad algoritmi e sistemi di intelligenza artificiale, stanno procurando danni a livello sociale, politico ed economico. È un territorio in cui non c’è stata regolamentazione: internet è partito come grande utopia di democratizzazione del mondo e libertà di espressione, ma è passato nelle mani delle multinazionali del digitale che fanno i loro interessi. E poi ci sono anche competizioni più complesse come quella feroce sulla ricerca e lo sviluppo dell’intelligenza artificiale tra Stati Uniti e Cina. Chi può fermare cosa?”. Se lo domanda don Fabio Pasqualetti, decano della Facoltà di Scienze della comunicazione sociale dell’Università pontificia salesiana e consultore del Dicastero per la Comunicazione, all’indomani dell’appello di mille esperti per una moratoria di almeno 6 mesi nell’addestramento dei sistemi avanzati di intelligenza artificiale e della sospensione di ChatGpt in Italia per iniziativa del Garante della privacy.
C’è un rischio reale di arrivare allo “scenario Terminator” in cui l’intelligenza artificiale, dotata di coscienza e capacità cognitive superiori a quelle umane, metterà a rischio la nostra sopravvivenza?
Non deve preoccupare l’intelligenza artificiale, ma i gruppi di potere che la gestiscono. ChatGpt, ad esempio, è un sistema assolutamente stupido di per sé che non sa nemmeno quello che scrive. Ma chi decide cosa fargli fare e cosa no? Come mai, ad esempio, risponde a certe domande e ad altre no?
Dobbiamo temere i padroni della Rete, non gli strumenti. Il potere informativo e l’asimmetria di conoscenza di dati che hanno le multinazionali del digitale rispetto a noi utenti, ma anche ai governi, è talmente sproporzionata che risulta difficile ipotizzare una regolamentazione.
Per questo lo “scenario Terminator” non ha senso ad oggi. Lo avrà quando andremo a pasticciare con la vita, combinando intelligenza artificiale e ingegneria biogenetica. Allora bisognerà preoccuparsi, perché la vita non la puoi spegnere.