Meta rilascia i modelli di Llama 3.1, mantenendo una strategia open

Meta ha rilasciato i suoi modelli Llama 3.1 aggiornati nelle versioni 8B, 70B e 405B e si è impegnata a rispettare la visione open source di Mark Zuckerberg per il futuro dell’intelligenza artificiale. Le nuove aggiunte alla famiglia di modelli Llama di Meta sono dotate di una lunghezza di contesto estesa a 128k e del supporto di otto lingue. Meta afferma che l’attesissimo modello 405B dimostra “flessibilità, controllo e capacità all’avanguardia senza pari, in grado di rivaleggiare con i migliori modelli closed source” Meta sostiene inoltre che Llama 3.1 405B è “il modello di fondazione open source più grande e più capace al mondo” Con i costi di calcolo da capogiro spesi per addestrare modelli sempre più grandi, si è speculato molto sul fatto che il modello di punta 405B di Meta potrebbe essere il suo primo modello a pagamento. Llama 3.1 405B è stato addestrato su oltre 15 trilioni di token utilizzando 16.000 NVIDIA H100, con un probabile costo di centinaia di milioni di dollari. In un post sul blog, il CEO di Meta, Mark Zuckerberg, ha ribadito che l’AI open source è la strada da seguire e che il rilascio di Llama 3.1 è il passo successivo “verso l’AI open source che diventa lo standard del settore” I modelli di Llama 3.1 sono liberi di essere scaricati e modificati o perfezionati con una suite di servizi di Amazon, Databricks e NVIDIA. I modelli sono disponibili anche su fornitori di servizi cloud come AWS, Azure, Google e Oracle. Da oggi, l’open source è in prima linea. Presentazione di Llama 3.1: I nostri modelli più performanti. Oggi rilasciamo una serie di nuovi modelli Llama 3.1, tra cui il tanto atteso 405B. Questi modelli offrono migliori capacità di ragionamento, un contesto più ampio di 128K token… pic.twitter.com/1iKpBJuReD – AI at Meta (@AIatMeta) 23 luglio 2024 Prestazioni Meta afferma di aver testato i suoi modelli su oltre 150 set di dati di riferimento e ha pubblicato i risultati dei benchmark più comuni per mostrare come i suoi nuovi modelli si posizionano rispetto ad altri modelli leader. Non c’è molto che separa Llama 3.1 405B da GPT-4o e Claude 3.5 Sonnet. Ecco i dati relativi al modello 405B e alle versioni più piccole 8B e 70B. Confronto tra il benchmark di Llama 3.1 405B e gli altri modelli principali. Fonte: Meta: Meta Confronto tra Llama 3.1 405B e altri modelli di punta. Fonte: Meta Meta Meta ha anche effettuato “valutazioni umane approfondite che confrontano Llama 3.1 con i modelli concorrenti in scenari reali” Questi dati si basano sul fatto che gli utenti decidono se preferiscono la risposta di un modello o di un altro. La valutazione umana di Llama 3.1 405B riflette una parità simile a quella rivelata dai dati di benchmark. Risultati della valutazione umana di Llama 3.1 405B rispetto a GPT-4, GPT-4o e Claude 3.5 Sonnet. Fonte: Meta: Meta Meta afferma che il suo modello è veramente aperto: i pesi del modello Llama 3.1 sono disponibili per il download, anche se i dati di addestramento non sono stati condivisi. L’azienda ha inoltre modificato la licenza per consentire l’utilizzo dei modelli Llama per migliorare altri modelli di intelligenza artificiale. La libertà di perfezionare, modificare e utilizzare i modelli di Llama senza restrizioni farà suonare un campanello d’allarme per i critici dell’ IA open source. Zuckerberg sostiene che un approccio open source è il modo migliore per evitare danni involontari. Se un modello di intelligenza artificiale è aperto al controllo, secondo Zuckerberg, è meno probabile che sviluppi comportamenti emergenti pericolosi che altrimenti sfuggirebbero a modelli chiusi. Per quanto riguarda il potenziale di danno intenzionale, Zuckerberg afferma: “Finché tutti avranno accesso a generazioni simili di modelli – cosa che l’open source promuove – i governi e le istituzioni con maggiori risorse di calcolo saranno in grado di controllare i cattivi attori con meno calcolo” Per quanto riguarda il rischio che avversari statali come la Cina accedano ai modelli di Meta, Zuckerberg afferma che gli sforzi per tenerli fuori dalle mani dei cinesi non funzioneranno. “I nostri avversari sono bravissimi nello spionaggio, rubare modelli che stanno in una chiavetta è relativamente facile, e la maggior parte delle aziende tecnologiche non opera in modo tale da rendere questo più difficile”, ha spiegato. L’entusiasmo per un modello di intelligenza artificiale open source come Llama 3.1 405B che sfida i grandi modelli chiusi è giustificato. Ma con i sussurri di GPT-5 e Claude 3.5 Opus che aspettano dietro le quinte, i risultati di questi benchmark potrebbero non invecchiare molto bene. Leggi di più su dailyai.com
Il caso CrowdStrike è una lezione di comunicazione di crisi

Sono stati giorni difficili per CrowdStrike e per i marchi dei suoi clienti più importanti. Microsoft, Delta e altri sono stati direttamente colpiti dall’interruzione globale del 18 luglio, con molti che hanno citato la schermata blu della morte come un segno che l’anno 2000 è finalmente arrivato nel 2024. L’incidente si è verificato quando un aggiornamento difettoso di CrowdStrike ha compromesso 8,5 milioni di dispositivi Windows a livello globale. Sebbene Microsoft abbia sottolineato che si trattava di meno dell’1% di tutti i dispositivi Windows, la percentuale ha avuto conseguenze significative a causa del tipo di organizzazioni servite da CrowdStrike: compagnie aeree, ospedali, banche e società di telecomunicazioni, centri di infrastrutture critiche. Le ripercussioni finanziarie per CrowdStrike sono state immediate e gravi: un crollo del 22% del valore delle azioni, che ha cancellato quasi 16 miliardi di dollari dalla capitalizzazione di mercato dell’azienda. L’effetto a catena di questo colpo finanziario si è fatto sentire in tutti i settori, suscitando preoccupazioni sulla solidità delle infrastrutture digitali e sui contesti legali che regolano questi fallimenti su larga scala. Marchi come Delta e Microsoft hanno subito ripercussioni per la loro comunicazione (o mancanza di comunicazione). Ma il team di CrowdStrike, nonostante le conseguenze che hanno avuto sulle azioni e sulla percezione del marchio, ha dato a tutti noi una lezione sulla comunicazione di crisi. Che cosa ha fatto sì che alcune comunicazioni del marchio abbiano avuto successo mentre altre hanno fallito? Passi falsi del marchio e caos conseguente Delta Airlines è emersa come marchio chiave per il sentimento negativo, in quanto il vettore ha dovuto affrontare numerose cancellazioni di voli e ritardi. Il Segretario ai Trasporti degli Stati Uniti Pete Buttigieg ha dovuto ricordare a Delta le leggi che tutelano i clienti delle compagnie aeree, sottolineando la volatilità e l’insoddisfazione dell’opinione pubblica durante la vicenda. Delta è stata criticata per la sua mancanza di comunicazione immediata e trasparente. I passeggeri di vari aeroporti sono stati lasciati nel limbo, come dimostrano gli innumerevoli post sui social media che immortalano scene di esasperazione e attese di ore. Gli esperti del settore hanno poi sostenuto che la gestione di Delta avrebbe potuto essere notevolmente migliorata gestendo e distribuendo in modo proattivo informazioni più accurate e rassicurazioni attraverso vari canali per mantenere la fiducia dei clienti e mitigare la frustrazione. Per molti viaggiatori, la frustrazione per le lune di miele e le riunioni di famiglia perse è stata solo peggiorata dalla sensazione di essere abbandonati dagli agenti al gate e dal personale negli aeroporti. Microsoft ha dovuto affrontare anche le reazioni dell’opinione pubblica. Sebbene l’azienda abbia chiarito la portata dell’interruzione e abbia fornito indicazioni sulle soluzioni da adottare, l’interruzione prolungata ha evidenziato le vulnerabilità dell’affidarsi a soluzioni di cybersicurezza di terze parti. Le aziende, dai media agli uffici governativi, ne hanno risentito, dovendo affrontare tempi di inattività e perdite finanziarie che, secondo gli esperti, potrebbero raggiungere i miliardi di dollari. A differenza della reazione di Delta, quella di Microsoft è stata un misto di frustrazione e meme, con molti che scherzavano sul fatto che mentre i prodotti Windows non funzionavano, in qualche modo Microsoft Teams funzionava ancora. Questo, oltre ai numerosi meme sulla schermata blu della morte, ha reso assolutamente impossibile nascondersi dall’interruzione del servizio. La risposta di CrowdStrike L’amministratore delegato di CrowdStrike, George Kurtz, ha dovuto affrontare un notevole scrutinio per aver presentato delle scuse che, secondo alcuni, non erano sufficientemente schiette o empatiche. Le critiche sono emerse quasi immediatamente, con persone come Lulu Cheng Meservey dell’azienda di PR Rostra che si sono rivolte a Twitter per riscrivere la sua risposta. Queste critiche hanno evidenziato la necessità di un riconoscimento più sincero e trasparente del disagio causato. Domenica, il responsabile della sicurezza di CrowdStrike, Shawn Henry, ha rilasciato delle scuse personali e sentite che racchiudono la gravità della situazione e l’impegno dell’azienda a correggere il proprio errore: Questa dichiarazione è un modello di come dovrebbe essere una comunicazione di crisi efficace. Il messaggio di Henry è efficace perché: Riconosce il problema: Henry inizia ammettendo apertamente il fallimento, un primo passo fondamentale per riconquistare la fiducia. Esprime scuse sincere: Le scuse sono genuine e sentite e rafforzano la responsabilità dell’azienda. Fa riferimento all’autorità del passato: Evidenziando i precedenti successi e la dedizione sua e dell’azienda, Henry ricorda agli stakeholder i contributi che hanno consolidato la loro fiducia nel corso degli anni. Crea un legame personale: Il messaggio è personale e riflessivo, il che aiuta a creare un legame emotivo con il pubblico. Impegna all’azione: Promettendo di imparare e di crescere dall’incidente, Henry posiziona CrowdStrike come impegnata nel miglioramento continuo e nell’affidabilità. Questa risposta non può essere e non sarà l’ultima; la risposta principale deve riguardare il modo in cui è stata risolta la situazione e le misure che si stanno adottando per evitare che si ripeta. La fiducia deve essere ricostruita dalle fondamenta e, sebbene le scuse siano un ottimo inizio, devono essere seguite da azioni per assicurarsi che i clienti rimangano. Andare avanti L’aspetto più importante che emerge da questa disfatta è l’importanza cruciale di elaborare strutture di gestione del rischio resilienti. L’interconnessione dei moderni ecosistemi digitali richiede misure di cybersecurity che non solo proteggano, ma anche si adattino rapidamente alle vulnerabilità e le correggano. Una comunicazione efficace, piani d’azione rapidi e approcci incentrati sul cliente saranno fondamentali per gestire e mitigare tali interruzioni in futuro. Sebbene questo tipo di incidenti sia difficile da prevedere, è necessario che i brand costruiscano una cultura dell’azione e dell’empatia per mantenere un senso di fiducia nei confronti dei clienti che si aspettano che non accada il peggio. Una pianificazione d’emergenza con il cuore è il modo in cui si vince e si corregge la rotta. Leggi di più su www.adweek.com
Come l’intelligenza artificiale sta trasformando le scommesse sportive per ottenere quote migliori

Nel mondo delle scommesse sportive, il successo dipende dalla capacità di prevedere con precisione i risultati. L’IA sta rivoluzionando il settore fornendo agli scommettitori strumenti sofisticati per migliorare le loro probabilità. Sfruttando l’analisi dei dati, l’apprendimento automatico e l’elaborazione in tempo reale, l’IA sta rivoluzionando l’approccio tradizionale alle scommesse sportive. Questo articolo approfondisce il modo in cui gli algoritmi di IA stanno trasformando le scommesse sportive, fornendo dati reali, statistiche e approfondimenti che ne dimostrano l’impatto. L’ascesa dell’IA nelle scommesse sportive Le scommesse sportive sono sempre state un gioco di numeri, ma l’avvento dell’IA le ha portate a un altro livello. Gli algoritmi di intelligenza artificiale sono in grado di analizzare grandi quantità di dati, riconoscere schemi e fare previsioni con notevole precisione. Secondo un blog di sportbet.one, si prevede che il mercato dell’IA nello sport raggiungerà i 3,5 miliardi di dollari entro il 2026, con un tasso di crescita annuale composto (CAGR) del 28,32% dal 2019 al 2026. Questa impennata è dovuta alla crescente domanda di processi decisionali basati sui dati nelle scommesse sportive. Analisi predittiva: Il cuore delle scommesse AI Il cuore dell’impatto dell’IA sulle scommesse sportive è l’analisi predittiva. I modelli di apprendimento automatico, come l’analisi di regressione, le reti neurali e gli alberi decisionali, vengono utilizzati per analizzare i dati storici e prevedere i risultati futuri. Ad esempio, uno studio pubblicato sul Journal of Sports Analytics ha rilevato che i modelli di apprendimento automatico sono in grado di prevedere i risultati delle partite della NFL con un’accuratezza fino al 75%, un livello significativamente superiore rispetto ai metodi tradizionali. Raccolta ed elaborazione dei dati Gli algoritmi di IA prosperano grazie ai dati. Raccolgono ed elaborano informazioni provenienti da varie fonti, tra cui le statistiche sulle prestazioni passate, le condizioni dei giocatori, le previsioni del tempo e persino i sentimenti dei social media. Secondo un’indagine dell’International Journal of Computer Applications, i modelli di IA che incorporano diverse fonti di dati possono migliorare l’accuratezza delle previsioni fino al 20%. Riconoscimento dei modelli e rilevamento delle anomalie Uno dei maggiori punti di forza dell’IA è la sua capacità di riconoscere modelli e individuare anomalie. Gli algoritmi di apprendimento automatico possono identificare tendenze sottili che gli analisti umani potrebbero non notare. Ad esempio, l’intelligenza artificiale può rilevare il calo delle prestazioni di un giocatore a causa di infortuni non dichiarati, analizzando le minime variazioni nel suo stile di gioco. Questa capacità consente agli scommettitori di prendere decisioni più informate e di individuare le scommesse di valore che offrono rendimenti più elevati. Analisi in tempo reale per le scommesse live Le scommesse live, in cui le quote cambiano rapidamente durante una partita, traggono immensi vantaggi dalle capacità di analisi in tempo reale dell’IA. Gli algoritmi di IA possono elaborare flussi di dati in diretta e modificare i pronostici al volo. Secondo un rapporto del Journal of Gambling Studies, i sistemi di scommesse in tempo reale alimentati dall’IA potrebbero aumentare i profitti degli scommettitori del 15-25% rispetto ai metodi tradizionali. Questo vantaggio è particolarmente evidente negli sport ad alta velocità come il basket e il calcio. Analisi del sentimento: Valutare l’opinione pubblica Il sentimento del pubblico può influenzare in modo significativo i risultati sportivi. L’intelligenza artificiale utilizza l’elaborazione del linguaggio naturale (NLP) per analizzare il sentiment dai social media, dagli articoli di cronaca e da altri dati testuali. Ad esempio, durante la Coppa del Mondo FIFA 2018, un modello di intelligenza artificiale ha analizzato oltre 10 milioni di tweet per valutare l’opinione pubblica e ha previsto con precisione i risultati del 70% delle partite. L’analisi del sentiment aggiunge un ulteriore livello di approfondimento, aiutando gli scommettitori a comprendere i fattori psicologici in gioco. I dati del forum di scommesse sportive di BMR dimostrano che anche le discussioni e i sentimenti della comunità possono influenzare in modo significativo le decisioni di scommessa. Gestione del rischio e opportunità di arbitraggio L’intelligenza artificiale eccelle nella gestione del rischio, analizzando la probabilità di vari risultati e suggerendo scommesse che massimizzano i rendimenti riducendo al minimo le perdite potenziali. Questo include l’identificazione di opportunità di arbitraggio, in cui è possibile sfruttare le discrepanze nelle quote tra i diversi bookmaker. Secondo uno studio dell’European Journal of Operational Research, le strategie di arbitraggio guidate dall’intelligenza artificiale possono produrre rendimenti fino al 10% annuo, superando di gran lunga i metodi di scommessa tradizionali. Sistemi di scommesse automatizzati I sistemi di scommesse automatizzati, o bot, alimentati dall’intelligenza artificiale stanno diventando sempre più popolari. Questi sistemi sono in grado di piazzare scommesse in base a criteri predefiniti e all’analisi dei dati in tempo reale, eseguendo operazioni ad alta velocità per garantire che vengano sfruttate le quote migliori. Ad esempio, un bot AI sviluppato dal MIT Computer Science and Artificial Intelligence Laboratory ha ottenuto un ritorno sull’investimento (ROI) del 25% in un periodo di sei mesi sfruttando i dati in tempo reale e l’apprendimento automatico. Analisi delle prestazioni di giocatori e squadre I modelli avanzati di intelligenza artificiale valutano le prestazioni dei singoli giocatori e le dinamiche di squadra, tenendo conto di fattori quali infortuni, trasferimenti di giocatori e strategie di squadra. Uno studio pubblicato nella rivista IEEE Transactions on Knowledge and Data Engineering ha dimostrato che i modelli di intelligenza artificiale sono in grado di prevedere le prestazioni dei giocatori con un’accuratezza dell’85%, aiutando in modo significativo gli scommettitori a prendere decisioni informate, soprattutto in tornei come i campionati giovanili UEFA. Analisi di mercato: Trovare scommesse convenienti Gli algoritmi di intelligenza artificiale analizzano i mercati delle scommesse per individuare le scommesse più convenienti. Capendo come si muovono le quote e perché, gli scommettitori possono individuare le opportunità in cui le quote sono a loro favore. Secondo un rapporto di Grand View Research, l’analisi di mercato guidata dall’AI può migliorare l’efficienza delle scommesse fino al 30%, rendendola uno strumento prezioso per gli scommettitori seri. In conclusione Gli algoritmi di intelligenza artificiale stanno trasformando le scommesse sportive fornendo agli scommettitori potenti strumenti per migliorare le loro quote. Dall’analisi predittiva e in tempo reale all’analisi
Alcune grosse Big Tech dell’AI si uniscono alla Coalition for Secure AI (CoSAI)

Alcuni dei nomi più importanti delle Big Tech si sono riuniti per fondare la Coalition for Secure AI (CoSAI). Non esiste ancora uno standard globale per le pratiche di sviluppo sicuro dell’IA, e le attuali misure di sicurezza dell’IA sono frammentate e spesso gestite internamente dalle aziende che creano i modelli di IA. CoSAI è un’iniziativa open-source ospitata dall’ente di standardizzazione globale OASIS che mira a standardizzare e condividere le migliori pratiche relative allo sviluppo e all’utilizzo sicuro dell’IA. Tra le aziende Big Tech che sostengono l’iniziativa figurano Google, IBM, Intel, Microsoft, NVIDIA e PayPal. Altri sponsor fondatori sono Amazon, Anthropic, Cisco, Chainguard, Cohere, GenLab, OpenAI e Wiz. Sono invece assenti Apple e Meta. CoSAI mira a sviluppare e condividere misure di sicurezza complete che affrontino rischi quali: furto del modello avvelenamento dei dati di addestramento iniezione di input dannosi tramite prompt injection prevenzione degli abusi su scala ridotta attacchi all’inferenza di appartenenza attacchi di inversione del modello o di inversione del gradiente per dedurre informazioni private estrazione di informazioni riservate dai dati di formazione Lostatuto di CoSAI dice che “il progetto non prevede che i seguenti argomenti rientrino nell’ambito di applicazione: disinformazione, allucinazioni, contenuti odiosi o abusivi, pregiudizi, generazione di malware, generazione di contenuti di phishing o altri argomenti nel dominio della sicurezza dei contenuti” Google ha già il suo Google Secure AI Framework (SAIF) e OpenAI ha il suo progetto di allineamento, che ha subito un’infestazione. Tuttavia, fino a CoSAI non c’è stato un forum per unire le migliori pratiche di sicurezza dell’IA che gli operatori del settore hanno sviluppato in modo indipendente. Abbiamo visto piccole startup come Mistral hanno avuto un’ascesa vertiginosa grazie ai modelli di IA che hanno prodotto, ma molte di queste piccole aziende non hanno le risorse per finanziare i team di sicurezza dell’IA. CoSAI sarà una preziosa fonte gratuita di best practice sulla sicurezza dell’IA per i piccoli e grandi operatori del settore. Heather Adkins, Vicepresidente e responsabile della resilienza della sicurezza informatica di Google, ha dichiarato: “Utilizziamo l’IA da molti anni e ne vediamo il continuo potenziale per i difensori, ma riconosciamo anche le opportunità per gli avversari”. “CoSAI aiuterà le organizzazioni, grandi e piccole, a integrare l’IA in modo sicuro e responsabile, aiutandole a sfruttarne i vantaggi e a mitigarne i rischi” Nick Hamilton, Head of Governance, Risk, and Compliance di OpenAI, ha dichiarato: “Lo sviluppo e l’implementazione di tecnologie di IA sicure e affidabili sono al centro della missione di OpenAI. crediamo che lo sviluppo di standard e pratiche solide sia essenziale per garantire un uso sicuro e responsabile dell’IA e ci impegniamo a collaborare con tutto il settore per farlo”. “Attraverso la nostra partecipazione a CoSAI, intendiamo contribuire con le nostre competenze e risorse alla creazione di un ecosistema di IA sicuro e vantaggioso per tutti” Speriamo che persone come Ilya Sutskever e altri che hanno lasciato OpenAI a causa di problemi di sicurezza contribuiscano volontariamente a CoSAI. Leggi di più su dailyai.com
La “paura” è la chiave per costruire sistemi di intelligenza artificiale più adattabili, resistenti e naturali?

La ricerca sull’IA è alimentata dalla ricerca di una sempre maggiore sofisticazione, che comprende l’addestramento dei sistemi a pensare e comportarsi come gli esseri umani. L’obiettivo finale? Chi lo sa. L’obiettivo per ora? Creare agenti di IA autonomi e generalizzati in grado di svolgere un’ampia gamma di compiti. Questo concetto è chiamato intelligenza artificiale generale (AGI) o superintelligenza, che significa la stessa cosa. È difficile individuare con precisione cosa comporti l’AGI perché non c’è praticamente alcun consenso su cosa sia l’”intelligenza”, né su quando e come i sistemi artificiali potrebbero raggiungerla. Alcuni ritengono addirittura che l’intelligenza artificiale, allo stato attuale, non potrà mai ottenere un’intelligenza generale. Il professor Tony Prescott e il dottor Stuart Wilson dell’Università di Sheffield hanno descritto i modelli linguistici generativi, come ChatGPT, come intrinsecamente limitati perché sono “disincarnati” e non hanno alcuna percezione sensoriale o fondamento nel mondo naturale. Il capo scienziato di Meta, Yann LeCun, ha affermato che anche l’intelligenza di un gatto domestico è infinitamente più avanzata dei migliori sistemi di intelligenza artificiale di oggi. “Ma perché questi sistemi non sono intelligenti come un gatto?” Ha chiesto LeCun al World Government Summit di Dubai. “Un gatto è in grado di ricordare, di comprendere il mondo fisico, di pianificare azioni complesse, di fare un certo livello di ragionamento – in realtà molto meglio dei più grandi LLM. Questo ci dice che ci manca qualcosa di concettualmente importante per far sì che le macchine siano intelligenti come gli animali e gli esseri umani” Anche se queste abilità potrebbero non essere necessarie per raggiungere l’intelligenza artificiale, c’è un certo consenso sul fatto che per spostare sistemi complessi di intelligenza artificiale dal laboratorio al mondo reale sarà necessario adottare comportamenti simili a quelli osservati negli organismi naturali. Quindi, come si può ottenere questo risultato? Un approccio consiste nel sezionare gli elementi della cognizione e capire come i sistemi di IA possano imitarli. Un precedente saggio di DailyAI ha analizzato la curiosità e la sua capacità di guidare gli organismi verso nuove esperienze e obiettivi, alimentando l’evoluzione collettiva del mondo naturale. Ma c’è un’altra emozione – un’altra componente essenziale della nostra esistenza – da cui l’intelligenza artificiale potrebbe trarre beneficio. Si tratta della paura. Come l’intelligenza artificiale può imparare dalla paura biologica Lungi dall’essere una debolezza o un difetto, la paura è uno degli strumenti più potenti dell’evoluzione per mantenere gli organismi al sicuro. L’amigdala è la struttura centrale che governa la paura nei vertebrati. Negli esseri umani, è una piccola struttura a forma di mandorla situata in profondità nei lobi temporali del cervello. L’amigdala guida principalmente la risposta alla paura nei vertebrati. Spesso soprannominata “centro della paura”, l’amigdala funge da sistema di allarme precoce, scrutando costantemente le informazioni sensoriali in arrivo alla ricerca di potenziali minacce. Quando viene rilevata una minaccia – che sia l’improvviso sbandamento di un’auto in frenata o un’ombra che si muove nell’oscurità – l’amigdala entra in azione, innescando una cascata di cambiamenti fisiologici e comportamentali ottimizzati per una rapida risposta difensiva: La frequenza cardiaca e la pressione sanguigna aumentano, preparando il corpo a “combattere o fuggire” L’attenzione si restringe e si acuisce, focalizzandosi sulla fonte del pericolo I riflessi si accelerano, preparando i muscoli a un’azione evasiva in una frazione di secondo L’elaborazione cognitiva passa a una modalità rapida, intuitiva, “meglio prevenire che curare” Questa risposta non è un semplice riflesso, ma una serie di cambiamenti altamente adattivi e sensibili al contesto che adattano in modo flessibile il comportamento alla natura e alla gravità della minaccia. È anche eccezionalmente rapida. Diventiamo consapevoli di una minaccia circa 300-400 millisecondi dopo il rilevamento iniziale. Inoltre, l’amigdala non opera in modo isolato. È densamente interconnessa con altre regioni cerebrali chiave coinvolte nella percezione, nella memoria, nel ragionamento e nell’azione. Perché la paura potrebbe essere utile all’intelligenza artificiale Allora, perché la paura è importante nel contesto dell’IA? Nei sistemi biologici, la paura è un meccanismo fondamentale per individuare e rispondere rapidamente alle minacce. Imitando questo sistema nell’IA, possiamo potenzialmente creare sistemi artificiali più robusti e adattabili. Ciò è particolarmente importante per i sistemi autonomi che interagiscono con il mondo reale. Un esempio: nonostante l’intelligenza artificiale sia esplosa negli ultimi anni, le auto senza conducente tendono ancora a non essere sicure e affidabili. Le autorità di regolamentazione stanno indagando su numerosi incidenti mortali che hanno coinvolto auto a guida autonoma, compresi i modelli Tesla dotati di Autopilot e di guida autonoma completa. Parlando al Guardian nel 2022, Matthew Avery, direttore della ricerca presso Thatcham Research, ha spiegato perché le auto senza conducente sono state così difficili da perfezionare: “Il punto numero uno è che questa roba è più difficile di quanto i produttori si siano resi conto”, afferma Avery. Secondo le stime di Avery, circa l’80% delle funzioni di guida autonoma riguardano compiti relativamente semplici come il mantenimento della corsia e l’evitamento degli ostacoli di base. Le azioni successive, invece, sono molto più impegnative. “L’ultimo 10% è davvero difficile”, sottolinea Avery, “come quando c’è una mucca in mezzo alla strada che non vuole muoversi” Certo, le mucche non incutono timore di per sé. Ma qualsiasi guidatore concentrato probabilmente non avrebbe alcuna possibilità di fermarsi se si trovasse a sfrecciare verso una mucca a velocità sostenuta. Un sistema di intelligenza artificiale si affida alla sua formazione e alla tecnologia per vedere la mucca e prendere la decisione appropriata. Questo processo non è sempre sufficientemente rapido o affidabile, il che comporta un elevato rischio di collisioni e incidenti, soprattutto quando il sistema incontra qualcosa che non è stato addestrato a capire. L’aggiunta della paura ai sistemi di intelligenza artificiale potrebbe fornire un mezzo alternativo, più rapido e più efficiente per prendere una decisione. Nei sistemi biologici, la paura innesca risposte rapide e istintive che non richiedono un’elaborazione complessa. Ad esempio, un guidatore umano potrebbe frenare istintivamente al solo pensiero di un ostacolo, anche prima di averne valutato appieno la natura. Questa reazione quasi istantanea, guidata da una risposta di paura, potrebbe fare la differenza tra un quasi incidente e una
Un modello AI simula 500 milioni di anni di evoluzione per creare una nuova proteina fluorescente

Gli scienziati hanno sviluppato un sistema di intelligenza artificiale in grado di simulare centinaia di milioni di anni di evoluzione delle proteine, creando una nuova proteina fluorescente diversa da quelle presenti in natura. Il team di ricerca, guidato da Alexander Rives di EvolutionaryScale, ha creato un modello di linguaggio di grandi dimensioni (LLM) chiamato ESM3 per elaborare e generare informazioni su sequenze, strutture e funzioni delle proteine. Addestrandosi sui dati di miliardi di proteine naturali, ESM3 ha imparato a prevedere come le proteine potrebbero evolversi e cambiare nel tempo. “ESM3 è un simulatore emergente che è stato appreso risolvendo un compito di predizione su dati generati dall’evoluzione”, spiegano i ricercatori nello studio. “È stato teorizzato che le reti neurali scoprono la struttura sottostante dei dati che vengono addestrati a prevedere. In questo modo, la risoluzione del compito di predizione dei gettoni richiederebbe al modello di apprendere la struttura profonda che determina i passi che l’evoluzione può compiere, ovvero la biologia fondamentale delle proteine” Per testare il modello, il team ha chiesto a ESM3 di progettare una proteina fluorescente verde (GFP) completamente nuova, un tipo di proteina responsabile della bioluminescenza in alcuni animali marini e ampiamente utilizzata nella ricerca biotecnologica. La proteina generata dall’AI, denominata esmGFP, condivide solo il 58% della sua sequenza con le più simili proteine fluorescenti conosciute. È sorprendente che esmGFP mostri una luminosità paragonabile a quella delle GFP presenti in natura e mantenga la caratteristica struttura a forma di barile essenziale per la fluorescenza. I ricercatori stimano che la produzione di una proteina così distante dalle GFP conosciute avrebbe richiesto oltre 500 milioni di anni di evoluzione naturale. Per saperne di più sullo studio Il processo di generazione di esmGFP ha richiesto diversi passaggi chiave: Dati: I ricercatori hanno addestrato ESM3 su circa 2,78 miliardi di proteine naturali raccolte da database di sequenze e strutture. Tra questi vi sono dati provenienti da UniRef, MGnify, JGI e altre fonti. Architettura: ESM3 utilizza un’architettura basata su trasformatori con alcune modifiche, tra cui un meccanismo di “attenzione geometrica” per elaborare le strutture proteiche 3D. Prompting: I ricercatori hanno fornito a ESM3 informazioni strutturali minime da un modello di GFP (proteina fluorescente). Generazione: ESM3 ha utilizzato questo prompt per generare nuove sequenze e strutture proteiche attraverso un processo iterativo. Filtraggio: Migliaia di progetti candidati sono stati valutati computazionalmente e filtrati per trovare i candidati più forti. Test sperimentali: I progetti più promettenti sono stati sintetizzati e testati in laboratorio per verificare l’attività di fluorescenza. Perfezionamento: Dopo aver identificato una variante di GFP debole ma distante, i ricercatori hanno utilizzato ESM3 per ottimizzare ulteriormente il progetto, producendo alla fine una proteina fluorescente più luminosa. Le implicazioni di questa ricerca vanno oltre la creazione di una singola proteina innovativa. ESM3 dimostra la capacità di esplorare spazi di progettazione proteica molto lontani da quelli prodotti dall’evoluzione naturale, aprendo nuove strade per la creazione di proteine con funzioni o proprietà desiderate. Ildottor Tiffany Taylor, professore di ecologia microbica ed evoluzione presso l’Università di Bath, che non ha partecipato allo studio, ha dichiarato a LiveScience: “Al momento ci manca ancora la comprensione fondamentale di come le proteine, soprattutto quelle ‘nuove per la scienza’, si comportano quando vengono introdotte in un sistema vivente, ma questo è un nuovo passo avanti che ci permette di approcciare la biologia sintetica in un modo nuovo” “I modelli di intelligenza artificiale come ESM3 permetteranno di scoprire nuove proteine che i vincoli della selezione naturale non permetterebbero mai, creando innovazioni nell’ingegneria proteica che l’evoluzione non può fare”, ha aggiunto il Dr. Taylor. Progettazione generativa di proteine I ricercatori sostengono che l’ESM3 non sta semplicemente recuperando o ricombinando le informazioni sulle proteine esistenti. Sembra invece che abbia sviluppato una comprensione dei principi fondamentali che regolano la struttura e la funzione delle proteine, consentendogli di generare progetti davvero innovativi. Laricerca e la progettazione di proteine guidate dall’intelligenza artificiale hanno raggiunto un livello altissimo, con AlphaFold 3 diDeepMind che prevede il ripiegamento delle proteine con una precisione incredibile . Leproteine progettate dall’intelligenza artificiale hanno anche dimostrato un’eccellente forza di legame, dimostrando di avere un’utilità pratica. Tuttavia, come per ogni tecnologia in rapida evoluzione che interferisce in qualche modo con la biologia, ci sono dei rischi. In primo luogo, se le proteine progettate dall’intelligenza artificiale dovessero diffondersi nell’ambiente, potrebbero interagire con gli ecosistemi naturali, arrivando a competere con le proteine naturali o a interrompere i processi biologici esistenti. In secondo luogo, potrebbero innescare interazioni inaspettate all’interno degli organismi viventi, creando potenzialmente agenti biologici dannosi o tossine. Di recente, i ricercatori hanno invocato dei paletti etici per la progettazione di proteine AI, per evitare risultati rischiosi in questo campo entusiasmante, anche se imprevedibile. Leggi di più su dailyai.com
Meta si unisce ad Apple nel non rilasciare i modelli di intelligenza artificiale agli utenti UE

Meta ha annunciato che non lancerà il suo prossimo modello di intelligenza artificiale multimodale nell’Unione Europea a causa di problemi normativi. La decisione di Meta arriva dopo l’analoga mossa di Apple di escludere l’UE dal lancio della sua Apple Intelligence, segnalando una tendenza crescente di giganti tecnologici che esitano a introdurre tecnologie AI avanzate nella regione. L’ultimo modello di AI multimodale di Meta – in grado di gestire video, audio, immagini e testo – doveva essere rilasciato con una licenza aperta. Tuttavia, la decisione di Meta impedirà alle aziende europee di utilizzare questa tecnologia, mettendole potenzialmente in una posizione di svantaggio nella corsa globale all’IA. “Rilasceremo un modello multimodale di Llama nei prossimi mesi, ma non nell’UE a causa della natura imprevedibile dell’ambiente normativo europeo”, ha dichiarato un portavoce di Meta. Una versione solo testo del modello Llama 3 di Meta dovrebbe comunque essere lanciata nell’UE. L’annuncio di Meta arriva pochi giorni dopo che l’UE ha definito le scadenze di conformità per la sua nuova legge sull’intelligenza artificiale. Le aziende tecnologiche che operano nell’UE avranno tempo fino all’agosto 2026 per conformarsi alle norme sul copyright, sulla trasparenza e su applicazioni specifiche di IA come la polizia predittiva. L’esclusione di questi modelli avanzati di IA dal mercato dell’UE crea una situazione difficile per le aziende al di fuori della regione. Chi spera di fornire prodotti e servizi che utilizzano questi modelli non potrà offrirli in uno dei mercati economici più grandi del mondo. Meta prevede di integrare i suoi modelli di intelligenza artificiale multimodale in prodotti come gli occhiali intelligenti Meta Ray-Ban. Secondo Axios, l’esclusione dell’azienda dall’UE si estenderà anche ai futuri modelli di intelligenza artificiale multimodale. Dato che altri giganti della tecnologia potrebbero seguirne l’esempio, l’UE potrebbe trovarsi ad affrontare delle sfide per mantenere la sua posizione di leader nell’innovazione tecnologica, bilanciando al contempo le preoccupazioni sull’impatto sociale dell’IA. Leggi di più su www.artificialintelligence-news.com
OpenAI rilascia “GPT-4o mini”, un modello ad alte prestazioni e a basso costo

OpenAI ha presentato GPT-4o mini, una versione più piccola ed economica del suo potente modello GPT-4o. GPT-4o mini viene definito “il modello piccolo più efficiente del mercato”, con prezzi nettamente inferiori a quelli della concorrenza. Gli sviluppatori pagheranno solo 0,15 dollari per milione di token di input e 0,60 dollari per milione di token di output, rispetto ai 5 e 15 dollari del GPT-4o. Olivier Godement, responsabile del prodotto API di OpenAI, ha parlato del potenziale del modello con VentureBeat: “Il costo per intelligenza è così buono che mi aspetto che venga utilizzato per tutti i tipi di assistenza clienti, ingegneria del software, scrittura creativa, tutti i tipi di compiti” Nonostante il nome “mini”, GPT-4o mini vanta capacità impressionanti. Supera il GPT-3.5 Turbo in vari benchmark e può gestire input testuali e visivi. OpenAI riporta che GPT-4o mini raggiunge un punteggio dell’82,0% nel benchmark Massive Multitask Language Understanding (MMLU), superando concorrenti come Gemini 1.5 Flash di Google (77,9%) e Claude 3 Haiku di Anthropic (73,8%). Il modello sostituirà GPT-3.5 Turbo per gli abbonati a ChatGPT Plus e Teams, offrendo agli utenti un modello più potente senza costi aggiuntivi. I primi utilizzatori, tra cui le startup Ramp e Superhuman, hanno riportato risultati promettenti per compiti come la categorizzazione degli scontrini e le risposte personalizzate alle e-mail. OpenAI vuole affermare la sicurezza del GPT-4o mini Pur spingendosi oltre i limiti delle capacità e dell’economicità del GPT-4o mini, OpenAI non lesina sulla sicurezza. Utilizza gli stessi meccanismi sviluppati per il modello più grande GPT-4o. OpenAI ha inoltre coinvolto oltre 70 esperti di psicologia sociale e disinformazione per mettere alla prova il GPT-4o. Questi specialisti hanno aiutato a identificare i potenziali rischi, consentendo al team di affrontare i problemi prima che diventassero tali. Gli insegnamenti acquisiti sono stati inseriti nel GPT-4o mini. OpenAI ha anche introdotto quello che chiama il metodo della “gerarchia delle istruzioni”, che “aiuta a migliorare la capacità del modello di resistere a jailbreak, iniezioni di messaggi ed estrazioni di messaggi di sistema. Questo rende le risposte del modello più affidabili e contribuisce a renderne più sicuro l’utilizzo nelle applicazioni su larga scala” Probabilmente si tratta di una proposta per gli utenti aziendali che vogliono evitare a tutti i costi risultati errati e allucinazioni. In prospettiva, OpenAI ha in programma di espandere le capacità di GPT-4o mini, compresa la capacità di generare immagini, audio e video. Il modello dovrebbe essere disponibile su Apple Intelligence in autunno, in concomitanza con l’uscita di iOS 18. Sebbene il GPT-4o mini sia piuttosto interessante, OpenAI ha dovuto affrontare delle battute d’arresto in altre aree. L’azienda ha recentemente ritardato il rilascio delle funzioni di lettura della voce e delle emozioni per ChatGPT, citando la necessità di ulteriori test di sicurezza. Le persone sono rimaste sbalordite quando l’azienda ha presentato GPT-4o e la sua sintesi vocale, ma da allora le cose si sono calmate. Tuttavia, GPT-4o mini dimostra che le persone di OpenAI stanno ancora lavorando sodo nonostante le recenti controversie. Leggi di più su dailyai.com
Il virus “cancro sintetico” alimentato dall’intelligenza artificiale rappresenta una nuova frontiera delle minacce informatiche

I ricercatori hanno presentato un nuovo tipo di virus informatico che sfrutta la potenza dei grandi modelli linguistici (LLM) per eludere il rilevamento e propagarsi. Questo “cancro sintetico”, come lo chiamano i suoi creatori, rappresenta quella che potrebbe essere una nuova era del malware. David Zollikofer dell’ETH di Zurigo e Benjamin Zimmerman dell’Ohio State University hanno sviluppato questo malware proof-of-concept come parte della loro candidatura allo Swiss AI Safety Prize. Laloro creazione, descritta in un documento pre-print intitolato “Synthetic Cancer – Augmenting Worms with LLMs”, dimostra il potenziale di sfruttamento dell’intelligenza artificiale per creare nuovi attacchi informatici altamente sofisticati. Ecco una descrizione dettagliata di come funziona: Installazione: Il malware viene inizialmente consegnato tramite un allegato di posta elettronica. Una volta eseguito, può scaricare altri file e potenzialmente criptare i dati dell’utente. Replica: La fase interessante sfrutta GPT-4 o LLM simili. Il worm può interagire con questi modelli di intelligenza artificiale in due modi: a) attraverso chiamate API a servizi basati su cloud come GPT-4 di OpenAI. Oppure b) eseguendo un LLM locale (che potrebbe essere comune nei dispositivi futuri). Utilizzo di GPT-4/LLM: Zollikofer haspiegato al New Scientist: “Chiediamo a ChatGPT di riscrivere il file, mantenendo intatta la struttura semantica, ma cambiando il modo in cui le variabili vengono nominate e modificando un po’ la logica” L’LLM genera quindi una nuova versione del codice con nomi di variabili modificati, logica ristrutturata e potenzialmente anche stili di codifica diversi, il tutto mantenendo la funzionalità originale. Diffusione: Il worm analizza la cronologia delle e-mail di Outlook della vittima e fornisce questo contesto all’intelligenza artificiale. L’LLM genera quindi risposte di posta elettronica pertinenti al contesto, complete di tattiche di social engineering progettate per incoraggiare i destinatari ad aprire una copia allegata del worm. Come possiamo vedere, il virus utilizza l’intelligenza artificiale in due giorni: per creare codice per auto-replicarsi e per scrivere contenuti di phishing per continuare a diffondersi. La capacità del worm “cancro sintetico” di riscrivere il proprio codice rappresenta un problema particolarmente impegnativo per gli esperti di cybersicurezza, poiché potrebbe rendere obsolete le tradizionali soluzioni antivirus basate sulle firme. “Il lato dell’attacco ha alcuni vantaggi in questo momento, perché ci sono state più ricerche in merito”, osserva Zollikofer. Inoltre, la capacità del worm di creare email di phishing altamente personalizzate e contestualmente rilevanti aumenta le probabilità di successo di future infezioni. Questo arriva a pochi mesi di distanza dalla segnalazione di un worm simile alimentato dall’intelligenza artificiale, avvenuta a marzo. Iricercatori guidati da Ben Nassi della Cornell Tech hannocreato un worm in grado di attaccare gli assistenti di posta elettronica dotati di intelligenza artificiale, rubare dati sensibili e propagarsi ad altri sistemi. Il team di Nassi ha preso di mira gli assistenti di posta elettronica basati su GPT-4 di OpenAI, Gemini Pro di Google e il modello open-source LLaVA. “Possono essere nomi, numeri di telefono, numeri di carte di credito, SSN, tutto ciò che è considerato riservato”, ha dichiaratoNassi a Wired, sottolineando il potenziale di massicce violazioni dei dati. Mentre il worm di Nassi prendeva di mira principalmente gli assistenti AI, la creazione di Zollikofer e Zimmerman si spinge oltre, manipolando direttamente il codice del malware e realizzando email di phishing accattivanti. Entrambi rappresentano potenziali strade future per i criminali informatici che possono sfruttare strumenti di AI diffusi per lanciare attacchi. I timori per la cybersicurezza dell’IA sono in agguato Sonostati giorni tumultuosi per la sicurezza informatica nel contesto dell’IA: Disney ha subito una violazione dei dati per mano di un gruppo di hacktivisti. Il gruppo ha dichiarato che sta combattendo contro le aziende tecnologiche per rappresentare i creatori il cui lavoro protetto da copyright è stato rubato o il cui valore è stato comunque sminuito. Non molto tempo fa, OpenAI è stato smascherato per aver subito una violazione nel 2023, che ha cercato di tenere nascosta. Non molto tempo fa, OpenAI e Microsoft hanno pubblicato un rapporto in cui ammettevano che gruppi di hacker provenienti da Russia, Corea del Nord e Cina avevano utilizzato i loro strumenti di intelligenza artificiale per elaborare strategie di attacco informatico. Gli autori dello studio, Zollikofer e Zimmerman, hanno messo in atto diverse misure di salvaguardia per evitare un uso improprio, tra cui quella di non condividere pubblicamente il codice e di lasciare deliberatamente vaghi alcuni dettagli specifici nel loro documento. “Siamo pienamente consapevoli del fatto che questo articolo presenta un tipo di malware con un grande potenziale di abuso”, affermano i ricercatori nella loro divulgazione. “Lo pubblichiamo in buona fede e nel tentativo di sensibilizzare l’opinione pubblica” Nel frattempo, Nassi e i suoi colleghi hanno previsto che i worm AI potrebbero iniziare a diffondersi in natura “nei prossimi anni” e “scateneranno risultati significativi e indesiderati” Visti i rapidi progressi a cui abbiamo assistito in soli quattro mesi, questa tempistica sembra non solo plausibile, ma potenzialmente conservativa. Leggi di più su dailyai.com
I migliori computer portatili e PC potenziati dall’intelligenza artificiale

A partire dagli anni ’90, i giocatori più accaniti hanno tradizionalmente optato per PC e laptop. Questo non solo ha permesso loro di immergersi più a fondo nei loro giochi preferiti, creando addirittura delle mod, ma il gioco su PC ha offerto anche la possibilità di armeggiare con l’hardware. Molti giocatori su PC amano migliorare il proprio hardware aggiungendo nuovi componenti. Inoltre, si divertono a giocare a una vasta gamma di giochi. Alcuni degli eSport più competitivi al mondo si concentrano sui giochi per PC, dagli FPS come Counter-Strike: Global Offensive ai MOBA come Dota 2. Sebbene siano presenti anche i giocatori di console, la maggior parte dei giocatori associa questi titoli ai PC. Al di là dei successi ipervisibili degli eSports, i giocatori di PC hanno accesso anche ad altri titoli. I giochi di casinò, ad esempio, sono spesso giocati via browser. Le slot machine sono una scelta popolare e offrono decine di formati e centinaia di temi tra cui scegliere. Direttamente da un laptop o da un PC, i giocatori possono far girare i rulli. Lo stesso vale per i DCCG. Questi tipi di giochi di carte si sono diffusi nell’ultimo decennio, compresi nuovi successi come Hearthstone e Marvel Snap. Anche se tradizionalmente si gioca di persona, il PC è ora il formato preferito da molti concorrenti di DCCG. Uno degli sviluppi più singolari nel mondo del gioco su PC è l’ascesa dei computer portatili e dei PC dotati di intelligenza artificiale. Questi potenti dispositivi sono progettati per gestire sfide di elaborazione ancora più complesse. Sia l’hardware che il software sono avanzati e progettati per gestire le attività di apprendimento automatico. Se stai pensando di acquistare un laptop AI-driven per migliorare la tua esperienza di gioco, ecco alcuni dei prodotti che dovresti tenere d’occhio. La metrica I migliori computer portatili e PC con intelligenza artificiale hanno un processore che si concentra sulle prestazioni. Alcuni dei migliori per le attività AI sono gli Intel Core i7 e i9, ma avrai a disposizione anche altre opzioni. Oltre al processore, concentrati sulla scheda grafica del dispositivo: più alta è, meglio è. Ma tieni d’occhio anche lo spazio di archiviazione, così come la RAM. Una migliore archiviazione si traduce in tempi di caricamento più rapidi e in una maggiore reattività, fattori importantissimi per i giocatori che devono evitare anche solo un millisecondo di ritardo. Le unità SSD NVMe sono considerate le migliori del settore nel 2024. Alienware Aurora R14 In termini di prodotti veri e propri, l’Alienware Aurora R14 è una delle scelte migliori per i giochi guidati dall’intelligenza artificiale. Questo perché possiede tutte le caratteristiche hardware più avanzate, tra cui una scheda grafica NVIDIA GeForce, un processore Intel Core i9 e 32 GB di RAM. Si tratta di giochi veloci, precisi e avanzati al massimo. MSI Trident X Questo PC è un po’ diverso in quanto si concentra sulla compattezza. Spesso, più il PC è avanzato, più l’hardware diventa ingombrante. Questo non è il caso di MSI Trident X. Nonostante le sue dimensioni compatte, ha un processore Intel Core i9, una scheda grafica NVIDIA GeForce e 32 GB di memoria: tutto ciò che è uguale all’Alienware Aurora, solo in un pacchetto leggermente più maneggevole. HP Omen Obelisk Con HP Omen Obelisk, l’attenzione è rivolta alla personalizzazione. Questo PC guidato dall’intelligenza artificiale include tutte le stesse caratteristiche degli altri due prodotti, anche per quanto riguarda i marchi utilizzati. Tuttavia, offre anche l’accesso all’interno senza attrezzi, il che rende la manutenzione e l’aggiornamento un gioco da ragazzi. Non sorprende che abbia anche una finestra laterale in vetro che rende piacevole l’osservazione dell’hardware. HP Spectre x360 14 Se vuoi ottenere dal tuo PC con intelligenza artificiale qualcosa di più delle sessioni di gioco, allora l’HP Spectre è un’ottima opzione. (Le sue solide caratteristiche porteranno le tue sessioni di gioco a un livello superiore e gestiranno anche altri tipi di attività impegnative, dalla progettazione grafica all’editing video. L’ampia gamma di opzioni rende questo prodotto molto apprezzato da chi ha bisogno di un dispositivo professionale. ASUS ROG Zephyrus G14 Questa opzione è leggermente più conveniente rispetto alle altre della lista, anche se noterai che le caratteristiche sono più limitate. In particolare, ha meno spazio di archiviazione rispetto agli altri PC AI e un processore leggermente meno potente. Tuttavia, il suo hardware salvaspazio gli conferisce un’enorme potenza, rendendolo un’opzione valida per la maggior parte dei giocatori. Leggi di più su www.artificialintelligence-news.com
