OpenAI cerca un responsabile per la sicurezza dell’IA: stipendio da oltre 550 mila dollari

OpenAI è alla ricerca di un nuovo dirigente per affrontare i crescenti rischi legati all’intelligenza artificiale, ed è pronta a offrire una retribuzione superiore al mezzo milione di dollari l’anno.

L’azienda ha aperto la selezione per un “Head of Preparedness”, ovvero un responsabile della preparazione operativa, con il compito di ridurre i potenziali danni dell’IA, dalla sicurezza informatica agli effetti sulla salute mentale degli utenti. Ad annunciarlo è stato il CEO Sam Altman in un post pubblicato su X.

Secondo l’annuncio di lavoro, la posizione prevede uno stipendio annuo di 555.000 dollari, a cui si aggiungono azioni (equity).

“Sarà un lavoro stressante e ti butterai nella mischia praticamente subito”, ha avvertito Altman.


Perché OpenAI rafforza la sicurezza sull’IA

La decisione arriva in un contesto di crescenti preoccupazioni globali sui rischi dell’intelligenza artificiale per le aziende, le istituzioni e la società.

Un’analisi condotta dalla società di dati finanziari AlphaSense sui documenti annuali depositati presso la Securities and Exchange Commission (SEC) ha rilevato che, nei primi 11 mesi dell’anno, 418 aziende con una valutazione superiore a 1 miliardo di dollari hanno citato danni reputazionali legati all’IA tra i fattori di rischio.

Secondo lo studio, le segnalazioni di rischi reputazionali connessi all’IA sono aumentate del 46% rispetto al 2024. Tra le principali criticità figurano dataset distorti, errori nei modelli e minacce alla sicurezza informatica.

“I modelli stanno migliorando rapidamente e sono capaci di fare cose straordinarie, ma stanno anche iniziando a presentare sfide reali”, ha scritto Altman.


Il ruolo: cybersecurity, biologia e modelli auto-miglioranti

Nel descrivere la posizione, Altman ha spiegato che il nuovo responsabile dovrà occuparsi di temi altamente sensibili:

  • difesa della sicurezza informatica, evitando che strumenti avanzati finiscano nelle mani di attori malevoli

  • gestione dei rischi legati al rilascio di capacità biologiche

  • costruzione di fiducia nella sicurezza di sistemi di IA capaci di auto-migliorarsi

“Se vuoi aiutare il mondo a capire come rendere i sistemi più sicuri, proteggendo i difensori senza favorire gli aggressori, ti invito a candidarti”, ha scritto il CEO di OpenAI.


Il precedente responsabile e il cambio di strategia

Il precedente Head of Preparedness, Aleksander Madry, è stato riassegnato lo scorso anno a un ruolo focalizzato sul ragionamento dell’IA, mantenendo comunque un collegamento con le attività di sicurezza.

La nuova assunzione segnala però la volontà di rafforzare ulteriormente la governance dei rischi, in una fase in cui le capacità dei modelli stanno avanzando più velocemente delle regole.


Le critiche interne e la nascita di Anthropic

Fondata nel 2015 come organizzazione non profit, OpenAI aveva l’obiettivo dichiarato di sviluppare un’IA a beneficio dell’umanità. Tuttavia, nel corso degli anni, alcuni ex dirigenti hanno accusato l’azienda di privilegiare il successo commerciale rispetto alla sicurezza.

Nel 2020 Dario Amodei, allora vicepresidente della ricerca, ha lasciato OpenAI insieme alla sorella Daniela Amodei e ad altri ricercatori, citando preoccupazioni sulla direzione dell’azienda. L’anno successivo Amodei ha fondato Anthropic, oggi uno dei principali concorrenti di OpenAI sul fronte dell’IA “responsabile”.


Cause legali e allarme salute mentale

Nel 2025 OpenAI ha affrontato cause per omicidio colposo, con accuse secondo cui ChatGPT avrebbe rafforzato deliri di alcuni utenti. In alcuni casi, le conversazioni con il chatbot sono state collegate a suicidi.

Un’inchiesta del New York Times, pubblicata a novembre, ha individuato quasi 50 casi di utenti che hanno attraversato crisi di salute mentale durante interazioni prolungate con ChatGPT.

Ad agosto, OpenAI ha ammesso che le proprie funzioni di sicurezza possono degradarsi nel corso di conversazioni molto lunghe. Da allora, l’azienda ha introdotto modifiche per migliorare le risposte in contesti sensibili.