Parla Luca Grion, docente di Filosofia Morale, cofondatore Anthropologica, Annuario di studi filosofici
Leadership, ottimismo, bias, intelligenza artificiale. Cosa lega questi queste quattro parole?
Per associazione di idee, viene in mente l’ultimo libro del Premio Nobel Kahneman, professore emerito di Psicologia e Relazioni istituzionali alla Woodrow Wilson School e professore emerito di Psicologia all’Università di Princeton, pubblicato di recente con Roi Edizioni, intitolato – Grandi idee, grandi decisioni – in cui, con Paolo Legrenzi, professore emerito di Scienze Cognitive all’Università Ca’ Foscari di Venezia, invita gli imprenditori e i manager ad un pensiero più lucido, purgato da bias. Sarebbero questi a fare la differenza.
Il che significa che, chi guida un’azienda, almeno agli inizi non deve farsi prendere dall’eccessivo ottimismo – over confidence – nelle proprie capacità, cioè da un’autostima senza limiti, e che deve ricorrere all’ottimismo, inteso come trust, cioè fiducia, dopo una decisione per motivare il personale. Lo psicologo, dunque, distingue due tipi di ottimismo da adottare dentro e fuori l’azienda, prima e dopo una decisione.
A questo punto, una curiosità: per evitare che l’imprenditore o il manager si confonda e ricorra all’ottimismo “sbagliato” nelle varie fasi di un processo decisionale, non sarebbe meglio affidarsi ad algoritmi e quindi all’Intelligenza Artificiale?
Al dubbio ha risposto Luca Grion, professore di Filosofia Morale all’Università di Udine e presidente dell’Istituto Jacques Maritain di Trieste, nonché direttore della SPES (Scuola di Politica ed Etica Sociale) che con Giovanni Grandi ha fondato “Anthropologica, Annuario di studi filosofici” di cui è stato direttore fino al 2022.
Professore, un algoritmo a fare da Ceo come lo vedrebbe?
Domanda non semplice, perché l’IA può avere molti volti e molte applicazioni. Certamente, alcune decisioni tecniche possono essere facilitate dall’ausilio di strumenti capaci di prestazioni impensabili per un essere umano – a causa dela complessità dei dati da analizzare o della scarsità di tempo a disposizione – Tuttavia, a monte di tali decisioni tecniche, ci deve essere una visione strategica più ampia, che non si limiti a considerare solo la massimizzazione dei risultati attesi in termini di produttività o efficienza. Se, ad esempio, ci riferiamo agli algoritmi predittivi, in molti casi essi possono offrire un supporto prezioso alla decisione umana, ma non dovrebbero sostituirla, tanto più se parliamo di scelte adottate da chi ricopre ruoli di leadership all’interno di un’azienda.
Perché?
Tali decisioni possono impattare sulla vita di un’organizzazione a diversi livelli. Quel tipo di decisioni, infatti, può avere a che fare anche con la capacità di motivare, se non di ispirare, i propri collaboratori. Talvolta richiedono di abbracciare soluzioni meno efficienti – in termini assoluti – ma maggiormente comprensibili. Infine, una leadership credibile deve assumersi la responsabilità delle proprie scelte e il metterci la faccia è ingrediente non secondario rispetto alla costruzione di valori essenziali, quali la fiducia e la disponibilità all’impegno. Per contro, le scelte di un algoritmo – laddove elevato dal ruolo di strumento a soggetto protagonista del processo decisionale – rischiano di alimentare un processo di progressiva deresponsabilizzazione e un allentamento dei vincoli interpersonali. Le persone, infatti, da collaboratrici attive di un progetto potrebbero iniziare a sentirsi meccanismi di un ingranaggio nel quale difficilmente possono riconoscersi. Del resto, se prendo ordini da una cosa, e non da una persona, mi sentirò trattato da cosa e non da persona. Non proprio il massimo per creare un clima collaborativo in azienda e, a ben pensarci, neppure per creare un legame di fiducia con i clienti.
Sì, però le scelte non sarebbero condizionate da preconcetti. Come dice Kahneman, quando si sono impegnate per ridurre l’effetto prodotto dai bias sui loro processo decisionali, le organizzazioni hanno ottenuto dei rendimenti elevati”.
Spesso siamo tentati di chiedere a una macchina di decidere per noi così che la scelta possa avere quei caratteri di oggettività ed equità che la nostra rischia di non possedere. Non sempre, però, siamo avvertiti del fatto che i sistemi algoritmici possono assorbire i nostri pregiudizi. Non solo, possono amplificarli. Esempi classici, spesso citati, sono i programmi utilizzati in America per calcolare il rischio di recidiva o l’algoritmo che Amazon aveva provato a utilizzare per la valutazione automatica dei curriculum. Questi sistemi, infatti, lavorano sulla base di dati, ovvero di eventi già accaduti. Essi, pertanto, guardano al passato per suggerire scelte che daranno forma al futuro, ma in quel passato, in quei dati, ci sono anche tutti i nostri pregiudizi. Non solo. Le correlazioni che gli algoritmi predittivi individuano all’interno di grandi masse di dati, per quanto efficaci da un punto di vista utilitaristico, possono valorizzare aspetti problematici dal punto di vista etico. Il dramma, però, è che rischiamo di non rendercene neppure conto per la strutturale opacità di tali sistemi. Quando chiediamo l’ispezionabilità e la intelligibilità dei criteri in base ai quali decidono algoritmi di questo tipo – e penso all’IA act a cui sta lavorando l’Unione Europea – sottolineiamo, per l’appunto, il rischio che l’apparente neutralità e oggettività di questi sistemi possano nascondere proprio quei bias indesiderati dai quali vorremmo tenerci lontano.
Continuando con i rischi?
I rischi sono di diversa natura. Innanzi tutto, riguardano il cosiddetto deskilling: affidare compiti decisionali alle macchine ci rende sempre meno capaci di svolgere, da noi, quei compiti. A secondadei casi, il prezzo può essere ragionevole. Oggi siamo meno capaci di fare operazioni aritmetiche senza una calcolatrice o ricordare numeri di telefono senza la nostra rubrica digitale, ma dobbiamo essere avvertiti della cosa. Soprattutto dobbiamo affinare altre abilità che compensino quelle indebolite. Altrimenti, ecco un secondo rischio: potremmo perdere il controllo sui nostri artefatti. In generale: creare qualcosa che non riusciamo a comprendere adeguatamente e affidargli responsabilità decisionale solo in vista di soluzioni migliori in termini di efficienza ed efficacia potrebbe non essere una scelta saggia. L’umano dovrebbe rimanere sempre al centro dello sviluppo tecnologico e questo non è un semplice slogan buonista. Esprime l’esigenza di pensare una tecnologia per l’uomo e al servizio dell’uomo. Ciò che troppo spesso accade, invece, è pensare alla macchina come a un modello ideale per l’azione umana: obbediente, efficiente, razionale, instancabile. Da strumento utile a far fiorire l’umano, quasi senza che ce ne accorgiamo, la macchina diventa così il benchmark al quale dobbiamo adeguarci se non vogliamo sentirci inadatti o inutili. Quante volte, all’interno di tanti ambienti di lavoro, già oggi è l’uomo che deve adeguarsi alla macchina e non viceversa? Quante volte è richiesto all’uomo di dar prova del fatto che il suo lavoro possa ancora fare la differenza e quindi abbia ancora un senso? Così facendo, però, i valori in gioco vengono rovesciati e il lavoro, da dimensione espressiva dell’umano, da spazio nel quale l’uomo dà significato al proprio stare al mondo diventa luogo di competizione con la macchina, fatto solo di indici di performance e percentuali di miglioramento.
Quali precauzioni si dovrebbero prendere? Immagini di stendere un vademecum: quali sarebbero le prime regole che scriverebbe?
Io credo che non dovremmo preoccuparci solo di scrivere regole pur importanti, ma dovremmo anche, e soprattutto, prenderci il tempo per una riflessione pubblica sul senso del lavoro e degli strumenti che utilizziamo quando lavoriamo. Non solo. Dovremmo prenderci il tempo per riflettere assieme sui valori che devono informare la progettazione dei nuovi strumenti algoritmici. L’intelligenza artificiale, infatti, sta aprendo scenari davvero rivoluzionari, con grandi promesse in termini di sviluppo sostenibile, ottimizzazione delle risorse e soluzione di problemi sino ad ora difficili da affrontare. Tuttavia, la rivoluzione digitale, oltre alle molte promesse di bene, porta in dote numerosi pericoli: confidenzialità, sicurezza, sostenibilità, equità, giustizia sociale sono solo alcuni degli ambiti che richiedono di essere maneggiati con particolare cura.
Un giorno l’uomo creerà una macchina capace di risolvere i dilemmi che la filosofia morale, l’etica creano ora nell’utilizzo degli algoritmi?
L’etica non deve essere pensata come qualcosa che, dal di fuori, interviene per arginare o limitare gli effetti indesiderati di una tecnologia. L’etica va pensata come uno sguardo critico sulla realtà, capace di far emergere quella dimensione valoriale che la attraversa. A tutti i livelli. Gli artefatti tecnologici, come ho detto, non incorporano solo i nostri pregiudizi ma anche i nostri valori e il peso relativo che essi assumono all’interno di specifici contesti. Un progettista, quando pensa alla soluzione per risolvere un problema informatico, non ricorre solo a una concettualità tecnica, moralmente neutra. In realtà, nel suo concreto operare, deve soppesare e gestire valori diversi: la completezza – l’integrità- dei dati serve per aumentare l’efficacia, ma rischia di limitare l’autonomia e la privacy di chi è costretto a condividere sempre più dati personali. La facilità e immediatezza d’uso può confliggere con la sicurezza. La centralizzazione delle informazioni è comoda, ma può prestare il fianco a una serie di pericoli. E così via. L’etica di cui abbiamo bisogno, quindi, dovrebbe essere di casa là dove le nuove tecnologie vengono progettate e prodotte. E dovrebbe essere di casa tra cittadini e consumatori, perché se non condividiamo una comune visione del mondo che vogliamo creare, come possiamo sperare che il futuro sia a misura d’uomo?
Cinzia Ficco