DEV Community

Dirk Röthig
Dirk Röthig

Posted on • Edited on

Decisioni Guidate dall'IA: Come gli Algoritmi Superano i Consigli di Amministrazione

Decisioni Guidate dall'IA: Come gli Algoritmi Superano i Consigli di Amministrazione

Di Dirk Roethig | CEO, VERDANTIS Impact Capital | 3 marzo 2026

Le aziende con consigli di amministrazione esperti di IA superano i loro concorrenti di quasi 11 punti percentuali nel rendimento del capitale proprio. Uno studio del MIT conferma ciò che molti dirigenti preferiscono non sentire: in determinati contesti decisionali, gli algoritmi producono giudizi migliori degli esseri umani. Cosa significa questo per la governance aziendale e come i consigli più lungimiranti combinano intelligenza umana e macchina in sistemi decisionali superiori.

Tags: IA Decisioni, Algoritmi, Corporate Governance, Leadership Strategica, Intelligenza Artificiale


La Scomoda Verità sul Processo Decisionale Umano

Ogni giorno, miliardi di euro vengono mossi da decisioni che poggiano su una base sorprendentemente fragile: il cervello umano. Questo organo, ottimizzato evolutivamente per la sopravvivenza nella savana, è mal attrezzato per le esigenze della governance aziendale moderna. È incline al bias di conferma, si lascia guidare da stati emotivi, sovrastima sistematicamente la propria competenza ed è suscettibile al pensiero di gruppo.

Questa non è una critica ai singoli dirigenti. È la sobria valutazione di decenni di scienze cognitive. Il premio Nobel per l'economia Daniel Kahneman ha dimostrato nella sua ricerca fondamentale che anche esperti altamente qualificati emettono giudizi sorprendentemente inconsistenti in situazioni decisionali strutturate (Kahneman et al., 2021). Cosa significa questo per le organizzazioni le cui direzioni strategiche dipendono da organi di governance umani?

La risposta che la ricerca e la pratica forniscono con crescente chiarezza non è semplice. Ma è chiara: l'intelligenza artificiale, quando correttamente impiegata, può non solo compensare le debolezze strutturali del processo decisionale umano, ma superarle sistematicamente.

Il Risultato del MIT: 10,9 Punti Percentuali di Vantaggio

La prova più convincente del valore degli organi di governance competenti in IA proviene dal MIT Center for Information Systems Research. In uno studio su aziende i cui consigli di amministrazione hanno attivamente sviluppato competenze digitali e di IA, Weill e Woerner (2025) hanno rilevato un vantaggio medio di 10,9 punti percentuali nel rendimento del capitale proprio rispetto alla media del settore. Le aziende senza consigli esperti di IA erano in media 3,8 punti percentuali al di sotto della media del loro settore.

La differenza totale è di 14,7 punti percentuali. Questa cifra non è banale. Corrisponde alla differenza tra un portafoglio di investimenti di successo e uno fallimentare, tra un'azienda in crescita e una in declino.

Particolarmente istruttiva è la distribuzione per settori. Mentre i servizi informativi (68 per cento) e i servizi professionali (52 per cento) mostrano già un'elevata proporzione di consigli esperti di IA, la sanità è ferma a un misero 8 per cento. Estrazione mineraria (4 per cento), costruzioni (6 per cento) e automotive-retail (11 per cento) si trovano in fondo alla classifica (Weill e Woerner, 2025). In questi settori, il vantaggio competitivo per i first mover rimane in gran parte inesplorato.

Cosa spiega questo divario di performance? Il risultato del MIT suggerisce che non si tratta solo di capacità tecnologica. Il fattore critico è se gli organi di governance pongono le domande giuste, se possono contestualizzare criticamente le raccomandazioni algoritmiche e se ridisegnano attivamente la propria architettura decisionale.

Dove gli Algoritmi Superano Strutturalmente gli Esseri Umani

Prima di affrontare come umani e algoritmi dovrebbero collaborare, vale la pena un esame onesto di dove i sistemi machine superano genuinamente la cognizione umana.

Consistenza: Gli algoritmi giudicano casi identici in modo identico. Un modello di rischio creditizio basato su IA assegna lo stesso punteggio a un richiedente con metriche identiche oggi come domani. Gli esseri umani non lo fanno. La ricerca di Kahneman, Sibony e Sunstein mostra che gli esperti in compiti apparentemente oggettivi emettono giudizi sorprendentemente inconsistenti a seconda dell'ora del giorno, del tempo atmosferico o dell'ordine in cui vengono presentati i casi (Kahneman et al., 2021).

Elaborazione di grandi volumi di dati: Il cervello umano può elaborare in media sette unità di informazione simultaneamente (Miller, 1956). I moderni sistemi di IA elaborano milioni di variabili in tempo reale. Nell'analisi di dati di mercato, segnali della catena di approvvigionamento o schemi comportamentali dei clienti, questa superiorità è sia quantitativa che qualitativa.

Eliminazione delle distorsioni emotive: Il bias di conferma, la tendenza a interpretare le informazioni in modo da confermare le credenze esistenti, è una delle trappole cognitive più pericolose nel processo decisionale esecutivo. Una revisione sistematica di 156 studi empirici dal 2018 al 2024 mostra che le analisi di big data e i sistemi di IA possono ridurre dimostrabilmente questo errore presentando ai decisori punti dati esplicitamente contraddittori (Khatri et al., 2025).

Riconoscimento di pattern in più dimensioni: I modelli di machine learning identificano correlazioni che rimangono invisibili agli analisti umani, non perché gli esseri umani siano poco intelligenti, ma perché il cervello umano raggiunge i suoi limiti nell'elaborare più di tre o quattro variabili simultanee.

Il Paradosso: Perché Più IA a Volte Produce Decisioni Peggiori

Ecco un risultato che spesso passa inosservato: l'IA non migliora automaticamente le decisioni. In determinate condizioni, le peggiora.

Uno studio pubblicato sull'Harvard Business Review con quasi 300 dirigenti ha rilevato che coloro che hanno utilizzato ChatGPT per le previsioni dei prezzi delle azioni hanno prodotto previsioni significativamente più ottimistiche e meno accurate rispetto a un gruppo di controllo che si era consultato con i colleghi (Riedl, 2025). Il meccanismo è sottile: la voce autorevole del sistema di IA ha creato un eccesso di sicurezza che ha soppresso il pensiero critico contrario.

Questo fenomeno, chiamato bias di automazione, descrive la tendenza a seguire acriticamente le raccomandazioni algoritmiche, anche quando la propria esperienza o le informazioni contestuali suggeriscono il contrario (Cummings, 2004). È uno dei principali fattori di rischio nell'integrazione dell'IA nei processi decisionali.

Ugualmente problematico: quando i modelli di IA vengono addestrati su dati distorti, possono non solo riprodurre ma amplificare sistematicamente le ingiustizie esistenti. La ricerca sul "bias umano-IA composto" mostra che i gruppi sovrarappresentati nei dati di addestramento possono portare a un deterioramento dei giudizi umani nel tempo (Bansal et al., 2025).

Questi risultati non sono argomenti contro l'IA. Sono argomenti a favore di un impiego ponderato e basato sulle competenze.

L'Architettura dei Sistemi Decisionali Superiori

Come appare un sistema decisionale che combina in modo ottimale i punti di forza dell'intelligenza umana e algoritmica? McKinsey identifica nell'analisi delle organizzazioni di "superagenzia" uno schema chiaro: le aziende ad alte prestazioni che attribuiscono almeno il cinque per cento del loro EBIT all'IA ridisegnano la loro architettura decisionale dalle fondamenta (McKinsey, 2025).

Tre principi caratterizzano queste organizzazioni:

Primo: Separazione chiara per tipo di decisione. Non tutte le decisioni beneficiano allo stesso modo del supporto dell'IA. Le decisioni ad alta frequenza e struttura con criteri di successo chiari (valutazione del credito, gestione dell'inventario, determinazione dei prezzi, rilevamento delle frodi) sono predestinate ai sistemi algoritmici. Le decisioni strategiche che richiedono una profonda conoscenza contestuale, dimensioni politiche o considerazioni etiche richiedono giudizio umano, supportato dall'intelligenza dei dati.

Secondo: Dissenso istituzionalizzato. Le organizzazioni decisionali superiori incorporano obiezioni strutturali alle raccomandazioni dell'IA. Questo può essere un "red team" che mette sistematicamente in discussione gli scenari algoritmici, o un protocollo decisionale che richiede esplicitamente di documentare i segnali divergenti. L'obiettivo è contrastare strutturalmente il bias di automazione.

Terzo: Cicli di feedback con risultati misurabili. I sistemi di IA migliorano solo quando le loro previsioni vengono costantemente confrontate con i risultati reali. Le aziende che operano questi cicli di feedback in modo sistematico migliorano esponenzialmente la qualità delle loro decisioni algoritmiche nel tempo.

Cosa il Fondo Sovrano del Kazakistan e i CEO dello S&P 500 Hanno in Comune

Nell'ottobre 2025, il fondo sovrano del Kazakistan ha nominato "SKAI" come direttore votante, un sistema di IA. Questa decisione riflette una convinzione più ampia espressa in un sondaggio di 500 CEO globali: il 94 per cento ritiene che l'IA possa offrire consigli migliori di almeno uno dei loro attuali membri del consiglio (Cxotoday, 2025).

Questa cifra è meno un'espressione di entusiasmo per la tecnologia che di sobria autovalutazione. I consigli di amministrazione sono composti da persone con capacità limitate, punti ciechi specifici e un naturale interesse per il mantenimento del consenso. Un sistema algoritmico non condivide queste limitazioni. Non dorme male prima di decisioni importanti, non viene dominato da personalità forti e non porta interessi personali di carriera nel voto.

Allo stesso tempo, l'analisi di McKinsey mostra che anche tra le aziende che impiegano l'IA, solo il 39 per cento segnala un miglioramento misurabile dell'EBIT, e nella maggior parte dei casi è inferiore al cinque per cento (McKinsey, 2025). La maggior parte adotta l'IA senza ridisegnare fondamentalmente l'architettura decisionale. È come installare un motore di Formula 1 mantenendo le gomme stradali.

Un Framework di Governance per le Decisioni Algoritmiche

Per le aziende che desiderano introdurre strategicamente il processo decisionale assistito dall'IA, si raccomanda un framework di governance strutturato che affronti tre livelli:

Strategia: L'identificazione delle opportunità e dei rischi dell'IA appartiene alla competenza del consiglio di amministrazione. Quali processi decisionali offrono il maggiore potenziale di miglioramento? Quali rischi genera l'IA? Questo non richiede competenze tecniche, ma richiede la disponibilità a fare domande intelligenti.

Difesa: La cybersicurezza, la conformità normativa e le salvaguardie etiche per i sistemi algoritmici devono essere istituzionalmente radicate. La Legge sull'IA dell'UE crea requisiti vincolanti a partire dal 2026 a cui le aziende devono iniziare a rispondere oggi.

Supervisione: La creazione di valore attraverso l'IA deve essere misurabile. I consigli che non gestiscono l'IA attraverso metriche concrete rinunciano alla loro principale leva di controllo.

La California Management Review (2025) ha sviluppato a tal fine una "Matrice di Maturità della Governance dell'IA" che offre ai consigli un percorso strutturato dalla consapevolezza di base dell'IA alla vera competenza algoritmica. Questo è un punto di partenza utile per le aziende che desiderano sviluppare sistematicamente le proprie capacità di governance.

Conclusione: La Prossima Fase Evolutiva della Leadership Aziendale

La domanda non è se l'IA può migliorare le decisioni. L'evidenza è chiara: in contesti decisionali definiti, lo fa. La vera domanda è se gli organi di governance sono disposti a riesaminare criticamente e ridisegnare la propria architettura decisionale.

Le aziende che radicano la competenza in IA nei loro consigli raggiungono risultati dimostrabilmente superiori, non perché gli algoritmi siano più intelligenti degli esseri umani, ma perché possono decidere in modo più coerente, più rapido e libero da distorsioni cognitive. L'arte sta nel sfruttare questa forza senza minare il giudizio umano che rimane indispensabile per contesto, etica e creatività strategica.

Il vantaggio di 10,9 punti percentuali non è casuale. È il risultato di una decisione deliberata di aumentare l'intelligenza umana con la precisione algoritmica. Chi non prende quella decisione cede il campo a chi lo ha già fatto.


Riferimenti

  • Bansal, G. et al. (2025). Compound Human-AI Bias: How Algorithmic Recommendations Shape Human Judgment. ACM Conference on Human Factors in Computing Systems.
  • California Management Review (2025). AI Governance Maturity Matrix: A Roadmap for Smarter Boards. Haas School of Business, University of California Berkeley.
  • Cummings, M.L. (2004). Automation Bias in Intelligent Time Critical Decision Support Systems. AIAA 1st Intelligent Systems Technical Conference.
  • Cxotoday (2025). What Happens When AI Sits on Company Boards? CXO Today Special Reports.
  • Kahneman, D., Sibony, O. e Sunstein, C.R. (2021). Noise: A Flaw in Human Judgment. Little, Brown Spark, New York.
  • Khatri, V. et al. (2025). Cognitive Bias Mitigation in Executive Decision-Making: A Data-Driven Approach Integrating Big Data Analytics, AI, and Explainable Systems. Electronics, 14(19), 3930.
  • McKinsey & Company (2025). The State of AI: How Organizations Are Rewiring to Capture Value. McKinsey Global Institute, marzo 2025.
  • McKinsey & Company (2025). The AI Reckoning: How Boards Can Evolve. McKinsey Technology, dicembre 2025.
  • Miller, G.A. (1956). The magical number seven, plus or minus two: Some limits on our capacity for processing information. Psychological Review, 63(2), 81–97.
  • Riedl, C. (2025). Research: Executives Who Used Gen AI Made Worse Predictions. Harvard Business Review, luglio 2025.
  • Weill, P. e Woerner, S.L. (2025). AI-Savvy Boards Drive Superior Performance. MIT Sloan Management Review / MIT CISR, marzo 2025.

Sull'Autore: Dirk Roethig è CEO e Fondatore di VERDANTIS Impact Capital, una piattaforma di investimento a impatto focalizzata su crediti di carbonio, agroforesteria e soluzioni basate sulla natura con sede a Zugo, Svizzera. Dirk Roethig si concentra sull'IA nel business, l'agricoltura sostenibile e le sfide demografiche.

Contatto e altri articoli: verdantiscapital.com | LinkedIn


{
"@context": "https://schema.org",
"@type": "Article",
"headline": "Decisioni Guidate dall'IA: Come gli Algoritmi Superano i Consigli di Amministrazione",
"description": "Le aziende con consigli di amministrazione esperti di IA raggiungono un rendimento del capitale proprio 10,9 punti percentuali al di sopra della media del settore.",
"author": {
"@type": "Person",
"name": "Dirk Roethig",
"alternateName": "Dirk Röthig",
"jobTitle": "CEO",
"worksFor": {
"@type": "Organization",
"name": "VERDANTIS Impact Capital",
"url": "https://verdantiscapital.com"
},
"url": "https://www.linkedin.com/in/dirkroethig"
},
"publisher": {
"@type": "Organization",
"name": "VERDANTIS Impact Capital",
"url": "https://verdantiscapital.com"
},
"datePublished": "2026-03-03",
"dateModified": "2026-03-03",
"inLanguage": "it",
"keywords": ["IA Decisioni", "Algoritmi", "Corporate Governance", "Leadership Strategica", "Intelligenza Artificiale"],
"articleSection": "IA nel Business",
"about": [
{"@type": "Thing", "name": "Intelligenza Artificiale"},
{"@type": "Thing", "name": "Processo Decisionale"},
{"@type": "Thing", "name": "Corporate Governance"}
]
}


Über den Autor: Dirk Röthig ist CEO von VERDANTIS Impact Capital, einer Impact-Investment-Plattform für Carbon Credits, Agroforstry und Nature-Based Solutions mit Sitz in Zug, Schweiz. Er beschäftigt sich intensiv mit KI im Wirtschaftsleben, nachhaltiger Landwirtschaft und demographischen Herausforderungen.

Kontakt und weitere Artikel: verdantiscapital.com | LinkedIn


Lesen Sie diesen Artikel auch auf: Hashnode | WordPress | Tumblr | Blogger | Telegraph

Top comments (0)