Effettua la tua ricerca
More results...
Mutuo 100% per acquisto in asta
assistenza e consulenza per acquisto immobili in asta
Molti sostengono che l’intelligenza artificiale sia una innovazione ancora più radicale della stampa. E che di conseguenza, essa sia destinata a modificare profondamente le nostre democrazie.
Va letto in questa direzione il fatto che Deep Mind, una sussidiaria di Google ha annunciato di stare lavorando a un progetto chiamato «Habermas machine».
Il nome del programma è un omaggio a Jurgen Habermas, uno dei massimi filosofi tedeschi contemporanei, che ha dedicato la sua intera produzione scientifica a spiegare il nesso tra la democrazia e lo sviluppo della sfera pubblica. Intesa come il luogo del confronto razionale tra idee e posizioni, alla ricerca di una intesa.
Il programma di Google è un sistema AI progettato per facilitare il dialogo inclusivo e promuovere il consenso nelle discussioni di gruppo, aiutando le persone a trovare un terreno comune durante i processi di deliberazione. La «Habermas Machine» funziona analizzando le opinioni dei partecipanti a una discussione e generando sintesi che riflettono le aree di accordo potenziale. La scopo è quello di aiutare «piccoli gruppi a trovare un terreno comune quando discutono di questioni politiche divisive» iterando «dichiarazioni di gruppo basate sulle opinioni personali e sulle critiche dei singoli utenti, con l’obiettivo di massimizzare le valutazioni del gruppo».
L’idea è che, quando è difficile mettersi d’accordo, le macchine possono aiutare a trovare punti in comune. L’esperimento, ancora in una fase prototipale, apre possibilità interessanti. Non è difficile immaginare situazioni in cui il suo impiego possa permettere di sbrogliare discussioni che rischierebbero solo di incancrenirsi. Ma, allo stesso tempo, questa nuova funzionalità pone interrogativi che non vanno sottovalutati.
Prima di tutto, occorre capire se gli algoritmi che regolano il funzionamento della macchina non nascondano pregiudizi ideologici in grado di influenzare il risultato della discussione. Si tratta di un problema sorto anche in altre applicazioni e a cui non è facile rispondere. E che dovrebbe pertanto consigliare una certa cautela.
In secondo luogo, i primi esperimenti hanno mostrato che i partecipanti tendono a preferire le affermazioni generate dalle macchine a quelle prodotte dagli altri partner della discussione. Ciò ha come effetto la riduzione della diversità delle opinioni all’interno del gruppo. Una tendenza che i ricercatori interpretano positivamente («l’IA trova un terreno comune tra i partecipanti con opinioni diverse»). Ma potrebbe invece essere il sintomo che la macchina tende a ingenerare atteggiamenti di acritica sottomissione: come se la macchina avesse un’autorità superiore che non può essere contraddetta.
Rimane poi da chiedersi quali possano essere gli effetti di lungo periodo di un’innovazione di questo tipo sulla salute della democrazia. Per gli ottimisti, gli esperimenti di Google aprono interessanti possibilità per nuovi modelli di democrazia deliberativa. Mettendo a disposizione strumenti efficaci per confrontare le opinioni e arrivare a decisioni comuni.
Per i critici, muoversi su questa strada significa indebolire competenze comunicative e capacità di dialogo che solo le basi stesse di quella sfera pubblica che Habermas ha posto all’origine delle moderne democrazie.
Risolvere controversie e costruire consenso sono due funzioni essenziali in una società avanzata. Che, diventando ogni giorno più complessa, si trova nella necessità di dotarsi di nuovi strumenti per non sprofondare nella conflittualità.
Avanzare in questa direzione comporta comunque effetti collaterali di non poco conto. Il problema è che il digitale non «pensa», ma elabora stocasticamente i dati. Il che significa che i contenuti (testi, immagini, suoni) sono elaborati in modo statistico, a prescindere dal senso. O meglio nell’unico senso ammesso, che è quello della efficienza realizzativa: raggiungere lo scopo nel modo migliore possibile. All’interno di tale cornice, la scatola nera che usa i dati non riconosce il senso (i simboli, i giochi di parole, l’ironia, le connotazioni… con effetti grotteschi, per esempio sulle traduzioni simultanee) ma solo le correlazioni. Non interpreta, calcola. Ottiene risultati impressionanti, ma solo sulla base di ciò che è già presente; a volte commette errori grossolani e rimane esposta a manipolazioni difficili da smascherare. Creando connessioni insensate, anche se apparentemente coerenti.
Non sappiamo cosa Habermas pensi degli studi di Deep Mind che portano il suo nome. Ma di sicuro la strada intrapresa costringerà a domandarsi quale forma dovrà avere la democrazia all’era della intelligenza artificiale. La risposta per il momento non c’è. Meglio prepararsi per tempo.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link