Anthropic, l’azienda di intelligenza artificiale che da tempo si è posizionata come il laboratorio di ricerca più attento alla sicurezza del settore, sta abbandonando l’impegno centrale della sua Politica di Scalabilità Responsabile, un impegno preso nel 2023 a non addestrare mai un sistema di intelligenza artificiale a meno che non fosse in grado di garantire in anticipo l’adeguatezza delle sue misure di sicurezza (sicurezza dai rischi – safety). “Con il rapido progresso dell’intelligenza artificiale, non ritenevamo davvero sensato assumere promesse unilaterali… se i concorrenti sono in vantaggio”, ha dichiarato al TIME il direttore scientifico Jared Kaplan.
La politica rivista, approvata all’unanimità dal CEO Dario Amodei e dal consiglio di amministrazione di Anthropic, impegna invece l’azienda a eguagliare o superare gli sforzi in materia di sicurezza dei concorrenti e a ritardare lo sviluppo solo se Anthropic si considera leader nella corsa all’intelligenza artificiale e ritiene che i rischi catastrofici siano significativi.
L’azienda prevede inoltre di pubblicare “Rapporti sui rischi” dettagliati ogni tre-sei mesi e di pubblicare “Roadmap di sicurezza di frontiera” che definiscano i futuri obiettivi di sicurezza. Chris Painter, direttore delle politiche presso l’organizzazione no-profit per la valutazione dell’intelligenza artificiale METR, che ha esaminato una prima bozza, ha dichiarato a TIME che il cambiamento segnala che Anthropic “ritiene di dover passare alla modalità di triage con i suoi piani di sicurezza, perché i metodi per valutare e mitigare i rischi non tengono il passo con il ritmo delle capacità”.
Riferimento: https://time.com/7380854/exclusive-anthropic-drops-flagship-safety-pledge/
https://slashdot.org/story/26/02/25/1355245/anthropic-drops-flagship-safety-pledge


![[Guida] Eternal Terminal: connessioni SSH persistenti su GNU/Linux](https://www.feedlinux.com/wp-content/uploads/2021/01/eternal-terminal-install-300x139.png)




Lascia un commento