ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

Velocità e sicurezza possono davvero coesistere nella corsa all’intelligenza artificiale?

Una critica sulla sicurezza dell’IA da parte di un ricercatore di OpenAI rivolta a un rivale ha aperto una finestra sulla lotta del settore: una battaglia contro se stesso.

Il tutto è iniziato con un avvertimento da parte di Boaz Barak, un professore di Harvard attualmente in congedo che si occupa di sicurezza presso OpenAI. Ha definito il lancio del modello Grok di xAI “completamente irresponsabile”, non per le sue buffonate da prima pagina, ma per ciò che mancava: una scheda di sistema pubblica, valutazioni di sicurezza dettagliate, gli artefatti di base della trasparenza che sono diventati la fragile norma.

Era un appello chiaro e necessario. Ma una candida riflessione, pubblicata appena tre settimane dopo aver lasciato l’azienda, dall’ex ingegnere di OpenAI Calvin French-Owen, ci mostra l’altra metà della storia.

Il racconto di French-Owen suggerisce che un gran numero di persone di OpenAI sta effettivamente lavorando sulla sicurezza, concentrandosi su minacce molto reali come l’incitamento all’odio, le armi biologiche e l’autolesionismo. Tuttavia, egli ci dice: “La maggior parte del lavoro svolto non viene pubblicato”, ha scritto, aggiungendo che OpenAI “dovrebbe davvero fare di più per farlo conoscere”

In questo caso, la semplice narrazione di un attore buono che rimprovera uno cattivo crolla. Al suo posto, vediamo il vero dilemma del settore messo a nudo. L’intero settore dell’IA è intrappolato nel “paradosso sicurezza-velocità”, un conflitto profondo e strutturale tra la necessità di muoversi a rotta di collo per competere e l’esigenza morale di muoversi con cautela per tutelare la nostra sicurezza.

French-Owen suggerisce che OpenAI si trova in uno stato di caos controllato, avendo triplicato il suo organico fino a oltre 3.000 persone in un solo anno, dove “tutto si rompe quando si scala così rapidamente” Questa energia caotica è incanalata dall’immensa pressione di una “corsa a tre cavalli” verso l’AGI contro Google e Anthropic. Il risultato è una cultura di incredibile velocità, ma anche di segretezza.

Considera la creazione di Codex, l’agente di codifica di OpenAI. French-Owen definisce il progetto un “mad-dash sprint”, in cui un piccolo team ha costruito un prodotto rivoluzionario da zero in sole sette settimane.

Si tratta di un esempio di velocità da manuale; la descrizione del lavoro fino a mezzanotte e anche nei weekend per realizzarlo. Questo è il costo umano della velocità. In un ambiente che si muove così velocemente, c’è da meravigliarsi se il lento e metodico lavoro di pubblicazione della ricerca sulla sicurezza dell’intelligenza artificiale sembra una distrazione dalla corsa?

Questo paradosso non nasce dalla cattiveria, ma da un insieme di forze potenti e interconnesse.

C’è l’ovvia pressione competitiva per essere i primi. C’è anche il DNA culturale di questi laboratori, che sono nati come gruppi sciolti di “scienziati e armeggiatori” e che hanno preferito le scoperte ai processi metodici. E c’è un semplice problema di misurazione: è facile quantificare la velocità e le prestazioni, ma è eccezionalmente difficile quantificare un disastro che è stato evitato con successo.

Nei consigli di amministrazione di oggi, le metriche visibili della velocità saranno quasi sempre più forti dei successi invisibili della sicurezza. Tuttavia, per progredire, non basta puntare il dito: bisogna cambiare le regole fondamentali del gioco.

Dobbiamo ridefinire il significato di spedizione di un prodotto, rendendo la pubblicazione di un caso di sicurezza parte integrante del codice stesso. Abbiamo bisogno di standard a livello industriale che impediscano a una singola azienda di essere punita a livello competitivo per la sua diligenza, trasformando la sicurezza da una caratteristica a una base condivisa e non negoziabile.

Tuttavia, soprattutto, dobbiamo coltivare una cultura all’interno dei laboratori di intelligenza artificiale in cui ogni ingegnere – non solo il reparto sicurezza – senta un senso di responsabilità.

La corsa alla creazione dell’Intelligenza Artificiale non riguarda chi arriva prima, ma il modo in cui arriviamo. Il vero vincitore non sarà l’azienda che sarà semplicemente la più veloce, ma quella che dimostrerà a un mondo che ci guarda che l’ambizione e la responsabilità possono e devono avanzare insieme.

(Foto di Olu Olamigoke Jr.)

Leggi di più su www.artificialintelligence-news.com

altre news