ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

Anthropic esorta a regolamentare l’IA per evitare catastrofi

 

Anthropic ha evidenziato i potenziali rischi dei sistemi di IA e chiede una regolamentazione ben strutturata per evitare potenziali catastrofi. L’organizzazione sostiene che una regolamentazione mirata è essenziale per sfruttare i benefici dell’IA e al contempo mitigarne i pericoli.

Man mano che i sistemi di IA si evolvono in capacità come la matematica, il ragionamento e la codifica, il loro potenziale uso improprio in aree come la cybersicurezza o persino le discipline biologiche e chimiche aumenta in modo significativo.

Anthropic avverte che i prossimi 18 mesi sono cruciali per l’azione dei politici, poiché la finestra per una prevenzione proattiva si sta restringendo. In particolare, il Frontier Red Team di Anthropic sottolinea come i modelli attuali possano già contribuire a vari compiti legati all’offesa informatica e prevede che i modelli futuri saranno ancora più efficaci.

Particolarmente preoccupante è il potenziale dei sistemi di intelligenza artificiale di esacerbare l’uso improprio di sostanze chimiche, biologiche, radiologiche e nucleari (CBRN). L’AI Safety Institute del Regno Unito ha scoperto che diversi modelli di IA possono ora eguagliare le competenze umane a livello di dottorato nel fornire risposte a richieste di informazioni di carattere scientifico.

Per far fronte a questi rischi, Anthropic ha dettagliato la sua Responsible Scaling Policy (RSP ), rilasciata nel settembre 2023, come solida contromisura. La RSP prevede un aumento delle misure di sicurezza corrispondenti al livello di sofisticazione delle capacità dell’IA.

Il quadro RSP è progettato per essere adattivo e iterativo, con valutazioni regolari dei modelli di IA che consentono di perfezionare tempestivamente i protocolli di sicurezza. Anthropic afferma di essersi impegnata a mantenere e migliorare la sicurezza attraverso varie espansioni del team, in particolare nei settori della sicurezza, dell’interpretabilità e della fiducia, assicurando la preparazione per i rigorosi standard di sicurezza stabiliti dal suo RSP.

Anthropic ritiene che l’adozione diffusa di RSP in tutto il settore dell’IA, anche se principalmente volontaria, sia essenziale per affrontare i rischi dell’IA.

Una regolamentazione trasparente ed efficace è fondamentale per rassicurare la società sull’adesione delle aziende di IA alle promesse di sicurezza. I quadri normativi, tuttavia, devono essere strategici, incentivando pratiche di sicurezza solide senza imporre oneri inutili.

Anthropic immagina regolamenti chiari, mirati e adattivi ai paesaggi tecnologici in evoluzione, sostenendo che sono fondamentali per raggiungere un equilibrio tra la mitigazione dei rischi e la promozione dell’innovazione.

Negli Stati Uniti, Anthropic suggerisce che la legislazione federale potrebbe essere la risposta definitiva alla regolamentazione dei rischi dell’IA, anche se, in caso di ritardo nell’azione federale, potrebbero essere necessarie iniziative guidate dagli Stati. I quadri legislativi sviluppati dai Paesi di tutto il mondo dovrebbero consentire la standardizzazione e il riconoscimento reciproco per sostenere un’agenda globale sulla sicurezza dell’IA, riducendo al minimo i costi di adesione alle normative nelle diverse regioni.

Inoltre, Anthropic affronta lo scetticismo nei confronti dell’imposizione di regolamenti, sottolineando che regolamenti troppo ampi e incentrati su casi d’uso sarebbero inefficienti per i sistemi di IA generali, che hanno applicazioni diverse. Le normative dovrebbero invece riguardare le proprietà fondamentali e le misure di sicurezza dei modelli di IA.

Pur coprendo ampi rischi, Anthropic riconosce che alcune minacce immediate, come i deepfakes, non sono al centro delle sue proposte attuali, poiché altre iniziative stanno affrontando questi problemi a breve termine.

In definitiva, Anthropic sottolinea l’importanza di istituire regolamenti che stimolino l’innovazione piuttosto che soffocarla. L’onere iniziale della conformità, sebbene inevitabile, può essere ridotto al minimo grazie a test di sicurezza flessibili e accuratamente progettati. Un’adeguata regolamentazione può persino contribuire a salvaguardare gli interessi nazionali e l’innovazione del settore privato, proteggendo la proprietà intellettuale dalle minacce interne ed esterne.

Concentrandosi sui rischi misurati empiricamente, Anthropic prevede un panorama normativo che non pregiudica né favorisce i modelli open o closed-source. L’obiettivo rimane chiaro: gestire i rischi significativi dei modelli di AI di frontiera con una regolamentazione rigorosa ma adattabile.

Leggi di più su www.artificialintelligence-news.com

altre news