Come lavorare con l’AI: perché “human in the loop” non basta più

Man mano che l’intelligenza artificiale generativa si diffonde all’interno delle organizzazioni, i dirigenti si trovano di fronte a una domanda solo apparentemente semplice: come devono collaborare gli esseri umani con l’AI? La risposta più ricorrente – “tenere gli esseri umani nel loop” – è rassicurante, ma spesso vaga e insufficiente.

Per capire come le aziende possano davvero estrarre valore dalla collaborazione uomo–AI, è stato condotto un esperimento sul campo con 244 consulenti chiamati a risolvere un problema di business utilizzando GPT-4. Lo studio, realizzato con il supporto di ricercatori della Harvard Business School, del MIT Sloan, della Wharton School e della Warwick Business School, ha analizzato quasi 5.000 interazioni uomo–AI, facendo emergere dinamiche molto più complesse di quanto suggerisca la formula “human-in-the-loop”.

Tre modelli di collaborazione emergenti

Pur avendo a disposizione gli stessi strumenti e lo stesso compito, i partecipanti si sono spontaneamente divisi in tre stili distinti di collaborazione, con risultati molto diversi.

Il gruppo più numeroso è quello dei “cyborg” (60%). Questi professionisti adottano una logica di co-creazione continua, dialogando con l’AI lungo l’intero flusso di lavoro. L’intelligenza artificiale viene utilizzata per ogni sotto-attività, in modo iterativo e flessibile, diventando un vero partner cognitivo.

I “centauri” (14%) usano invece l’AI in modo selettivo e mirato. Mantengono il controllo dell’intero processo decisionale e ricorrono alla GenAI per rafforzare le proprie capacità: mappare il problema, raccogliere input metodologici, affinare contenuti. L’AI è uno strumento potente, ma resta chiaramente subordinato al giudizio umano.

Infine, gli “auto-automatizzatori” (27%) delegano all’AI interi flussi di lavoro, con un coinvolgimento critico minimo. Forniscono istruzioni e dati, accettando poi i risultati quasi senza modificarli. L’output è rapido e formalmente corretto, ma spesso superficiale: più un lavoro “fatto dall’AI” che “con l’AI”.

Chi decide cosa e come

Per interpretare questi modelli, i ricercatori hanno costruito un framework basato su due domande chiave: chi decide cosa va fatto? e chi decide come farlo?

I cyborg mantengono il controllo umano sugli obiettivi, ma concedono all’AI ampia autonomia sulle modalità operative.
I centauri tengono entrambe le leve – obiettivi e processi – saldamente in mano all’essere umano.
Gli auto-automatizzatori cedono invece entrambe le dimensioni alla macchina.

Le implicazioni per le aziende

I risultati suggeriscono che le imprese dovrebbero abbandonare l’idea di un unico modello universale di collaborazione uomo–AI. Limitarsi a invocare una generica “supervisione umana” produce esiti incoerenti, perché i dipendenti stanno già adottando stili molto diversi.

Serve invece allineare i modelli di collaborazione agli obiettivi strategici. Per decisioni ad alto rischio e che richiedono accuratezza, l’approccio da centauro è il più indicato. Per attività esplorative e creative, il modello cyborg può offrire maggior valore. L’automazione quasi totale dovrebbe essere riservata solo a compiti realmente routinari.

Un altro punto critico è il rischio di compiacenza dell’automazione. Il fatto che oltre un quarto dei partecipanti abbia delegato quasi tutto all’AI indica quanto sia forte la tentazione di “lasciare fare alla macchina”. Le organizzazioni devono quindi sviluppare strumenti per intercettare questo slittamento.

Infine, va ripensato il modo in cui si misura il successo dell’adozione dell’AI: valutare solo l’output finale non basta. Occorre monitorare la qualità dell’interazione lungo il processo e investire sia nelle competenze di dominio sia nella capacità di usare criticamente l’AI.

La sfida dell’expertise nell’era dell’AI

La GenAI apre un paradosso: promette di amplificare giudizio, creatività e produttività, ma rischia anche di erodere le competenze se il pensiero viene delegato in modo eccessivo. Gli stessi strumenti che rafforzano l’expertise in alcune mani possono sostituirla in altre.

La lezione dello studio è chiara: collaborare bene con l’AI è possibile, ma non automatico. I modelli di cyborg e centauro mostrano che tecnologia e competenze umane possono crescere insieme. La vera sfida per i dirigenti è creare contesti organizzativi che favoriscano queste forme di collaborazione, evitando la scorciatoia seducente – ma potenzialmente autodistruttiva – dell’automazione totale.