Anthropic abbandona la promessa di mettere la sicurezza al primo posto

by admin on

Anthropic, l’azienda di intelligenza artificiale che da tempo si è posizionata come il laboratorio di ricerca più attento alla sicurezza del settore, sta abbandonando l’impegno centrale della sua Politica di Scalabilità Responsabile, un impegno preso nel 2023 a non addestrare mai un sistema di intelligenza artificiale a meno che non fosse in grado di garantire in anticipo l’adeguatezza delle sue misure di sicurezza (sicurezza dai rischi – safety). “Con il rapido progresso dell’intelligenza artificiale, non ritenevamo davvero sensato assumere promesse unilaterali… se i concorrenti sono in vantaggio”, ha dichiarato al TIME il direttore scientifico Jared Kaplan.

La politica rivista, approvata all’unanimità dal CEO Dario Amodei e dal consiglio di amministrazione di Anthropic, impegna invece l’azienda a eguagliare o superare gli sforzi in materia di sicurezza dei concorrenti e a ritardare lo sviluppo solo se Anthropic si considera leader nella corsa all’intelligenza artificiale e ritiene che i rischi catastrofici siano significativi.

L’azienda prevede inoltre di pubblicare “Rapporti sui rischi” dettagliati ogni tre-sei mesi e di pubblicare “Roadmap di sicurezza di frontiera” che definiscano i futuri obiettivi di sicurezza. Chris Painter, direttore delle politiche presso l’organizzazione no-profit per la valutazione dell’intelligenza artificiale METR, che ha esaminato una prima bozza, ha dichiarato a TIME che il cambiamento segnala che Anthropic “ritiene di dover passare alla modalità di triage con i suoi piani di sicurezza, perché i metodi per valutare e mitigare i rischi non tengono il passo con il ritmo delle capacità”.

Riferimento: https://time.com/7380854/exclusive-anthropic-drops-flagship-safety-pledge/
https://slashdot.org/story/26/02/25/1355245/anthropic-drops-flagship-safety-pledge

Written by: admin

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *