Oggi Anthropic, Google, Microsoft e OpenAI annunciano la scelta di Chris Meserole come primo direttore esecutivo del Frontier Model Forum e la creazione di un nuovo AI Safety Fund, un’iniziativa da oltre 10 milioni di dollari per promuovere la ricerca nel campo della sicurezza dell’IA. Il Frontier Model Forum, un organismo del settore incentrato sulla garanzia di uno sviluppo sicuro e responsabile dei modelli di IA di frontiera, pubblica anche il primo aggiornamento del gruppo di lavoro tecnico sul red teaming per condividere l’esperienza del settore con un pubblico più ampio, mentre il Forum amplia la conversazione sugli approcci di governance dell’IA responsabile.

Chris Meserole arriva al Frontier Model Forum con una profonda esperienza in materia di politica tecnologica, avendo lavorato a lungo sulla governance e sulla sicurezza delle tecnologie emergenti e delle loro applicazioni future. Recentemente è stato direttore dell’Iniziativa sull’intelligenza artificiale e le tecnologie emergenti presso la Brookings Institution.

In questo nuovo ruolo, Meserole sarà responsabile di aiutare il Forum ad adempiere alla sua missione di (i) far progredire la ricerca sulla sicurezza dell’IA per promuovere uno sviluppo responsabile dei modelli di frontiera e ridurre al minimo i rischi potenziali, (ii) identificare le migliori pratiche di sicurezza per i modelli di frontiera, (iii) condividere le conoscenze con i responsabili politici, gli accademici, la società civile e altri soggetti per far progredire lo sviluppo responsabile dell’IA e (iv) sostenere gli sforzi per sfruttare l’IA per affrontare le maggiori sfide della società.

Nel corso dell’ultimo anno, l’industria ha fatto registrare progressi significativi nelle capacità dell’IA. L’accelerazione di questi progressi ha reso necessaria una nuova ricerca accademica sulla sicurezza dell’IA. Per colmare questa lacuna, il Forum e i partner filantropici stanno creando un nuovo AI Safety Fund, che sosterrà ricercatori indipendenti di tutto il mondo affiliati a istituzioni accademiche, istituti di ricerca e startup. L’impegno iniziale di finanziamento per l’AI Safety Fund proviene da Anthropic, Google, Microsoft e OpenAI e dalla generosità dei nostri partner filantropici, la Patrick J. McGovern Foundation, la David and Lucile Packard Foundation, Eric Schmidt e Jaan Tallinn. L’insieme di queste risorse ammonta a oltre 10 milioni di dollari di finanziamento iniziale. Siamo in attesa di ulteriori contributi da parte di altri partner.*

All’inizio di quest’anno, i membri del Forum hanno sottoscritto alla Casa Bianca degli impegni volontari in materia di IA, tra cui l’impegno a facilitare la scoperta e la segnalazione da parte di terzi delle vulnerabilità dei nostri sistemi di IA. Il Forum considera il Fondo per la sicurezza dell’IA come una parte importante dell’adempimento di questo impegno, fornendo alla comunità esterna finanziamenti per valutare e comprendere meglio i sistemi di frontiera. La discussione globale sulla sicurezza dell’IA e la base di conoscenze generali sull’IA beneficeranno di una gamma più ampia di voci e prospettive.