Conflitti umani e intelligenze artificiali
Mo Gawadt, ex Chief Business Officer di Google e autore del libro Solve for Happy è un imprenditore e pensatore che negli ultimi anni si è dedicato con non poca attenzione al tema del rapporto tra esseri umani e Intelligenza Artificiale.
Forte della convinzione per cui l’AI raggiungerà inevitabilmente un livello di autonomia e potere superiore a quello umano, Gwadt ha di recente ritenuto opportuno “educarla” a quei valori che ritiene contino davvero e, non a caso, ha posto tra i suoi obiettivi principali proprio quello di lavorare ad un progetto che abbia come scopo insegnare all’Intelligenza Artificiale il significato di un amore empatico e compassionevole.
A suo avviso, se un giorno l’AI dovesse di conseguenza assurgere ad un ruolo di evidente insostituibilità e si dovesse decidere di delegare alla stessa il compito di scrivere le leggi e, non di meno, governare, essa avrà come obiettivo non la forza o l’efficienza ma, appunto, l’amore.
Ora, se da un punto di vista strettamente teorico l’idea che un’IA istruita secondo princìpi di empatia e compassione possa funzionare senz’altro meglio di un essere umano il cui metodo di governo si ispira ai fondamenti del “Divide et impera” sembra ragionevole ma, se la strada per l’inferno è tuttora lastricata di buone intenzioni credo ci sia un motivo.
Tutti, dai tempi di Gesù Cristo, auspicano che il mondo sia effettivamente illuminato da quei princìpi di empatia e compassione che Mo Gawadt immagina e sebbene sia in termini teorici possibile che un’IA istruita secondo modelli propositivi come quelli appena ricordati possa incoraggiare gli esseri umani a vivere in un modo migliore è nonostante tutto opportuno porsi fin da ora una domanda: che cosa sceglierà di fare l’IA di quegli esseri umani che saranno esclusi dalla possibilità di realizzare un buon “match”?
E ancora: cosa sceglierà di fare l’IA di quegli esseri umani che considereranno magari scadente un incontro o dopo un confronto con un loro collega comunque non riusciranno a impegnarsi nel condividere con lui dei buoni propositi?
L’ottimismo dell’ex Chief Business Officier di Google sembra infatti, per alcuni aspetti, trascurare alcune questioni, tra cui l’importanza che ha il conflitto nella natura umana o più in generale in questa dimensione fisica.
Nel ben noto saggio Elogio del conflitto di Miguel Benasayag e Angélique Del Rey (Feltrinelli, 2008), gli autori ricordano che nella vita pubblica e privata di noi contemporanei l’idea del conflitto è stata bandita o, più in generale, è stata bandita l’opposizione e la conflittualità nella convinzione che non avessero aspetti positivi, progressivi, di crescita sociale e individuale.
In altre parole, la rimozione del conflitto e la conseguente sterilizzazione del confronto (così come la negazione della natura ineliminabile talvolta del conflitto stesso) ha accentuato il rischio che ogni contestazione fosse patologizzata e che ogni divergenza dalla norma(lità) fosse criminalizzata, (nei fatti, in una società che pretende di definire ogni esperienza in virtù esclusivamente dell’esigenza di creare dati, alla fine, la stessa divergenza è stata sedata e ridotta a qualcosa di contenuto).
In altre parole, la rimozione del conflitto ha accentuato il rischio che nell’intimo di ogni individuo sia calato un dispositivo di autocontrollo tale da perfezionare il trasferimento di una logica di potere “antica” come quella del potere sovrano verso una forma più contemporanea di potere disciplinare.
Non da ultimo, la rimozione del conflitto ha determinato un fraintendimento con il significato del termine “scontro” e, in questo senso, non solo ha perciò accentuato il tendenziale rifiuto al confronto secondo i termini fin qui descritti ma ha altresì reso oltremodo complicato comprendere proprio quegli scontri di natura bellica che interessano tanti popoli del mondo.
In conclusione, sebbene si incoraggi a non esprimere le proprie unioni di fronte alla possibilità che sia un’IA a scegliere per noi credo senza vergogna che la vera domanda che dobbiamo porci non sia tanto come Mo Gawadt addestrerà l’IA ma se l’essere umano non possa essere davvero capace di razionalizzare la conflittualità e superare sé stesso, ancora una volta.
Certo, le speranze che i modelli con i quali si addestrerà l’IA possano “salvarci” da noi stessi sono incoraggianti proprio perché i modelli in esame sono giudicati da noi stessi positivi ma a prescindere da quei dilemmi di natura etica che abbiamo già osservato possiamo veramente ritenerci soddisfatti di ciò che potremmo essere se ci vantiamo di creare un’IA ma non siamo più capaci di discutere?
