ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

Netflix aggiunge un’intelligenza artificiale alimentata da ChatGPT per impedirti di scorrere in eterno

Netflix aggiunge un'intelligenza artificiale alimentata da ChatGPT per impedirti di scorrere in eterno

In una mossa coraggiosa per affrontare una delle maggiori frustrazioni dello streaming, lo scorrimento infinito, Netflix ha appena presentato un’importante riprogettazione delle sue app per la TV e per i dispositivi mobili con un chatbot AI alimentato da ChatGPT e video reel in stile TikTok. Presto sarai in grado di chiedere a Netflix in un linguaggio semplice cosa ti va di vedere, ad esempio “film divertenti e dal ritmo incalzante” o “thriller cupi con forti protagoniste femminili” e riceverai raccomandazioni istantanee e personalizzate. Netflix sta collaborando con OpenAI per realizzare questa funzione, che fa parte di una revisione più ampia volta a rendere la scoperta dei contenuti più veloce, più intuitiva e (finalmente) meno dolorosa. Cosa sta cambiando Ricerca conversazionale AI: Alimentato da OpenAIquesto nuovo strumento ti permette di digitare o parlare di ciò che vuoi guardare come se stessi chattando con un amico. Bobine in stile TikTok: Clip video verticali e scorrevoli sul cellulare ti permetteranno di vedere in anteprima spettacoli e film. Ti piace? Tocca per guardare, salvare o condividere. Design più intelligente: Netflix sta semplificando la navigazione, aumentando le raccomandazioni in tempo reale e facendo emergere più velocemente i contenuti de “La mia lista”. Netflix afferma di aver utilizzato per anni l’intelligenza artificiale per personalizzare le opere d’arte e le raccomandazioni. Ora sta andando più a fondo. “L’intelligenza artificiale generativa ci permette di fare un ulteriore passo avanti”, ha dichiarato il CTO Elizabeth Stone. “È un’ottima cosa per i nostri membri e per i creatori con cui lavoriamo” Il Chief Product Officer Eunice Kim ha aggiunto che si tratta del “più grande balzo in avanti” di Netflix nel design della homepage in oltre un decennio. Dettagli del lancio Gli aggiornamenti verranno lanciati prima in versione beta su iOS, mentre un rilascio più ampio è previsto nei prossimi mesi. Gli utenti devono registrarsi per testare la ricerca potenziata dall’intelligenza artificiale. Netflix sta silenziosamente abbandonando i suoi ultimi due titoli interattivi, “Black Mirror: Bandersnatch” e “Unbreakable Kimmy Schmidt: Kimmy vs. the Reverend”, per concentrarsi sulla ricerca guidata dall’intelligenza artificiale. Nel frattempo, concorrenti come Amazon stanno già testando l’intelligenza artificiale generativa in Prime Video e Alexa. Questo potrebbe finalmente risolvere uno dei problemi più fastidiosi dello streaming e dare il via a una nuova ondata di esperienze d’intrattenimento basate sull’intelligenza artificiale. Ti stai ancora chiedendo cosa guardare? Presto potrai semplicemente chiederlo. Leggi di più su dailyai.com

La politica di Trump sui chip per l’intelligenza artificiale prevede di eliminare i controlli sulle esportazioni di Biden

La politica di Trump sui chip per l'intelligenza artificiale prevede di eliminare i controlli sulle esportazioni di Biden

L’inversione della politica sui chip AI annunciata da Trump questa settimana segna un cambiamento nel modo in cui le tecnologie informatiche avanzate fluiranno nei mercati globali, in quanto l’amministrazione si prepara a smantellare il complesso quadro normativo a tre livelli di Biden. Il Quadro per la diffusione dell’intelligenza artificiale dell’amministrazione Biden, la cui entrata in vigore era prevista per il 15 maggio 2025, avrebbe creato un panorama tecnologico globale stratificato con implicazioni significative per il commercio internazionale, l’innovazione e le relazioni geopolitiche. Secondo quanto dichiarato mercoledì dal Dipartimento del Commercio, l’amministrazione Trump ritiene che l’approccio esistente sia fondamentalmente sbagliato. “La regola di Biden sull’intelligenza artificiale è eccessivamente complessa, troppo burocratica e ostacolerebbe l’innovazione americana”, ha dichiarato a Reuters una portavoce del Dipartimento del Commercio. “La sostituiremo con una norma molto più semplice che libera l’innovazione americana e garantisce il dominio americano dell’IA”. Il cambiamento di politica arriva mesi dopo che l’amministrazione Biden ha finalizzato un quadro di controllo delle esportazioni durante la sua ultima settimana di mandato. Tale quadro rappresentava il culmine di uno sforzo durato quattro anni per limitare l’accesso della Cina ai chip all’avanguardia, mantenendo al contempo la leadership degli Stati Uniti nella tecnologia dell’intelligenza artificiale. La decisione di annullare la norma riflette il diverso approccio dell’amministrazione Trump nel bilanciare i problemi di sicurezza nazionale con gli interessi commerciali. Capire il sistema a tre livelli La norma, che verrà presto eliminata, stabiliva una struttura gerarchica per l’accesso globale alla tecnologia. Nel primo livello, 17 paesi più Taiwan avrebbero goduto di un accesso illimitato ai chip AI avanzati. Un secondo livello, composto da circa 120 Paesi, avrebbe operato in base a rigidi limiti numerici che ne avrebbero limitato le importazioni. Il terzo e ultimo livello – che comprende Cina, Russia, Iran e Corea del Nord – sarebbe stato completamente bloccato dall’accesso a queste tecnologie. L’approccio strutturato mirava a impedire che le tecnologie avanzate raggiungessero i Paesi a rischio attraverso intermediari, consentendo al contempo l’accesso agli alleati e alle nazioni neutrali. Tuttavia, i critici hanno sostenuto che la complessità del sistema avrebbe creato notevoli oneri di conformità e spinto i partner internazionali verso fornitori alternativi. Il nuovo approccio sta prendendo forma Al posto del sistema a livelli, le fonti citate da Reuters indicano che l’amministrazione Trump sta prendendo in considerazione l’implementazione di un regime di licenze globale supportato da accordi intergovernativi. Questo approccio offrirebbe potenzialmente una maggiore flessibilità e manterrebbe i controlli sulle tecnologie sensibili. La tempistica dell’annuncio appare strategicamente significativa. Bloomberg ha riportato che i cambiamenti si stanno sviluppando mentre il Presidente Trump si prepara a un viaggio in Medio Oriente, dove paesi come l’Arabia Saudita e gli Emirati Arabi Uniti hanno espresso frustrazione per le restrizioni esistenti sull’acquisto di chip AI. La decisione del Dipartimento del Commercio potrebbe essere annunciata già giovedì, secondo una fonte che ha familiarità con la questione. Reazione del mercato e impatto sul settore La notizia dell’inversione di rotta ha già provocato delle ripercussioni sui mercati finanziari. Le azioni di Nvidia, il principale produttore di chip utilizzati per l’addestramento di modelli di intelligenza artificiale, hanno chiuso in rialzo del 3% il 7 maggio dopo l’annuncio, anche se sono scese dello 0,7% nelle contrattazioni after-hours, secondo Reuters. L’azienda si è sempre opposta al crescente numero di restrizioni imposte dagli Stati Uniti. Jensen Huang, CEO di Nvidia, sostiene che le aziende americane dovrebbero poter vendere in Cina che, secondo le sue previsioni, diventerà un mercato da 50 miliardi di dollari per i chip AI nei prossimi due anni. Tuttavia, è importante notare che il cambiamento della politica di Trump in materia di chip per l’intelligenza artificiale non rappresenta un completo abbandono dei controlli sulle esportazioni. L’amministrazione ha già dimostrato la sua volontà di intraprendere azioni forti contro la Cina, in particolare vietando a Nvidia di vendere il suo chip H20 in quel paese – una mossa che è costata all’azienda 5,5 miliardi di dollari di svalutazioni, secondo Bloomberg. Vincitori e perdenti globali L’inversione di politica crea una complessa mappa di potenziali vincitori e vinti nel panorama tecnologico globale. Paesi come l’India e la Malesia, che non avevano subito restrizioni sui chip prima della presentazione della regola di Biden a gennaio, vedranno un sollievo temporaneo. Nel caso della Malesia, ciò potrebbe avvantaggiare in particolare Oracle Corporation, che ha in programma un’espansione massiccia dei data center che avrebbe superato i limiti stabiliti dalle norme che regolano la distribuzione dell’hardware per l’IA. Anche le nazioni del Medio Oriente avranno da guadagnare. Gli Emirati Arabi Uniti e l’Arabia Saudita, che sono sottoposti a controlli sulle esportazioni di chip dal 2023, potrebbero ora essere in grado di negoziare condizioni più favorevoli. Trump ha espresso il proprio interesse ad alleggerire le restrizioni per gli Emirati Arabi Uniti e potrebbe annunciare l’inizio dei lavori per un accordo governativo sui chip AI durante la sua prossima visita nella regione dal 13 al 16 maggio. La ricerca aggressiva di un accordo di questo tipo da parte degli EAU, sostenuta dalla promessa di investire fino a 1.400 miliardi di dollari nella tecnologia e nelle infrastrutture statunitensi nel prossimo decennio, esemplifica quanto sia alta la posta in gioco in questi negoziati per i paesi che cercano di affermarsi come centri di potere dell’IA. Incertezza in vista Secondo quanto riportato da Axios, l’amministrazione Trump sta attualmente sviluppando un nuovo schema di controllo, che potrebbe essere presentato come una nuova norma o un ordine esecutivo. Il periodo di transizione crea una notevole incertezza per le aziende come Nvidia riguardo all’ambiente normativo che dovranno affrontare nei prossimi mesi. Mentre il nuovo quadro normativo prende forma, l’amministrazione ha dichiarato che continuerà ad applicare i controlli sulle esportazioni di chip esistenti. Secondo una fonte che ha familiarità con la questione, un elemento potenziale del nuovo approccio potrebbe comportare l’imposizione di controlli specifici sui Paesi che hanno dirottato i chip verso la Cina, tra cui la Malesia e la Thailandia. Gli operatori del settore sono ancora divisi sulla questione. Mentre i produttori di chip hanno esercitato un’intensa attività di lobbying contro i

La strategia AI di Samsung fa registrare ricavi record nonostante i venti contrari per i semiconduttori

La strategia AI di Samsung fa registrare ricavi record nonostante i venti contrari per i semiconduttori

L’attenzione strategica di Samsung Electronics verso l’intelligenza artificiale ha portato a ricavi elevati nel primo trimestre del 2025, mentre il gigante tecnologico sudcoreano affronta le sfide del mercato dei semiconduttori e le crescenti incertezze del commercio globale. L’azienda ha registrato un fatturato trimestrale di 79,14 trilioni di KRW (55,4 miliardi di dollari), con un aumento del 10% rispetto all’anno precedente, secondo i risultati finanziari pubblicati mercoledì. L’utile operativo è salito a 6,7 trilioni di KRW (4,68 miliardi di dollari), con un modesto aumento dell’1,5% rispetto allo stesso periodo dell’anno precedente. I risultati hanno superato la precedente previsione di Samsung di 79.000 miliardi di KRW e le aspettative degli analisti. Il successo degli smartphone contrasta le sfide dei chip L’attività Mobile Experience (MX) è stata la più performante, con un fatturato consolidato di 37.000 miliardi di KRW e un utile operativo di 4.300 miliardi di KRW, il livello più alto degli ultimi quattro anni. Il successo è stato determinato principalmente dalle forti vendite dell’ammiraglia Galaxy S25, che dispone di funzionalità di intelligenza artificiale grazie a Galaxy AI. “La maggiore competenza in materia di costi e il calo dei prezzi di alcuni componenti hanno inoltre contribuito a una solida redditività a due cifre”, si legge nel rapporto sui risultati dell’azienda. Al contrario, la divisione Device Solutions (DS) di Samsung, che comprende le attività di semiconduttori, ha registrato 25,1 trilioni di KRW di fatturato e 1,1 trilioni di KRW di profitto operativo, con un calo del 42% rispetto all’anno precedente. La performance riflette le continue sfide del mercato dei semiconduttori, in particolare per quanto riguarda le vendite di memorie ad alta larghezza di banda (HBM). “Gli utili complessivi sono stati influenzati dall’erosione del prezzo medio di vendita (ASP), oltre che da una diminuzione delle vendite di HBM dovuta ai controlli sulle esportazioni dei chip AI e al rinvio della domanda in previsione dei prossimi prodotti HBM3E migliorati”, ha dichiarato Samsung. Le tensioni commerciali offuscano le prospettive future Nonostante i ricavi record, Samsung ha espresso cautela per il secondo trimestre, abbassando le sue consuete prospettive di business a causa delle crescenti incertezze macroeconomiche derivanti dalle tensioni commerciali globali e dal rallentamento della crescita economica. “A causa dei rapidi cambiamenti nelle politiche e delle tensioni geopolitiche tra i principali paesi, è difficile prevedere con precisione l’impatto commerciale delle tariffe e delle contromisure stabilite”, ha dichiarato un dirigente di Samsung durante la conferenza stampa di mercoledì. Particolarmente preoccupanti sono i dazi “reciproci” del Presidente degli Stati Uniti Donald Trump, la maggior parte dei quali sono stati sospesi fino a luglio ma minacciano di avere un impatto su decine di paesi tra cui il Vietnam e la Corea del Sud, dove Samsung produce smartphone e display. Sebbene Samsung abbia notato che i suoi prodotti di punta, come i semiconduttori, gli smartphone e i tablet, sono attualmente esenti da queste tariffe, l’azienda ha rivelato che Washington sta conducendo un’indagine tariffaria specifica su queste categorie di prodotti. “Ci sono molte incertezze davanti a noi […] stiamo comunicando con i paesi interessati per ridurre al minimo gli effetti negativi”, ha dichiarato Samsung durante la telefonata. In risposta alle sfide, l’azienda ha rivelato che sta valutando la possibilità di delocalizzare la produzione di televisori ed elettrodomestici. Investimenti nell’intelligenza artificiale e strategia futura Nonostante questi ostacoli, Samsung continua a impegnarsi nella sua strategia di intelligenza artificiale, stanziando la spesa annuale di R&S più alta di sempre per il 2024. Nel primo trimestre del 2025, l’azienda ha aumentato la spesa in R&S del 16% rispetto allo stesso periodo dell’anno precedente, per un totale di 9.000 miliardi di KRW. Per il resto del 2025, Samsung prevede di espandere la sua linea di smartphone AI attraverso l’introduzione di “Awesome Intelligence” nella serie Galaxy A e il lancio del Galaxy S25 Edge nel secondo trimestre. Più avanti nel corso dell’anno, l’azienda rafforzerà la sua linea di dispositivi pieghevoli con esperienze d’uso AI migliorate. Nel settore dei semiconduttori, Samsung punta a rafforzare la sua posizione nel mercato ad alto valore aggiunto grazie al suo portafoglio incentrato sui server e all’aumento dei prodotti HBM3E 12H per soddisfare la domanda iniziale. L’azienda prevede che la domanda legata all’AI rimarrà elevata nella seconda metà del 2025, in concomitanza con il lancio di nuove GPU. “Nei mercati dei dispositivi mobili e dei PC, si prevede una proliferazione dell’IA on-device, pertanto il settore delle memorie risponderà in modo proattivo a questo cambiamento nell’ambiente di business con i suoi prodotti LPDDR5x da 10,7 Gbps, leader del settore”, ha dichiarato Samsung. L’attività di fonderia dell’azienda rimane concentrata sullo sviluppo del processo Gate-All-Around (GAA) a 2 nm, che rimane in linea con i tempi previsti nonostante le sfide attuali. Reazione del mercato e panorama competitivo Le azioni Samsung sono scese dello 0,6% circa dopo l’annuncio, riflettendo le preoccupazioni degli investitori per le prospettive incerte. I risultati evidenziano la complessa posizione di Samsung nel mercato dell’IA: riesce ad avere successo nelle applicazioni rivolte ai consumatori e allo stesso tempo lavora per recuperare il ritardo rispetto ai concorrenti nei componenti dei semiconduttori specifici per l’IA. La rivale locale SK Hynix, che la scorsa settimana ha registrato un aumento del 158% dell’utile operativo a 7,4 trilioni di KRW, ha superato per la prima volta Samsung nel fatturato complessivo del mercato DRAM, conquistando una quota di mercato globale del 36% rispetto al 34% di Samsung, secondo Counterpoint Research. Il successo di SK Hynix è stato particolarmente pronunciato nel segmento delle memorie ad alta larghezza di banda, fondamentale per le applicazioni dei server AI. “Samsung ha ipotizzato che le incertezze siano diminuite e si aspetta che le sue prestazioni migliorino nella seconda metà dell’anno”, ha osservato l’azienda, con un tono cautamente ottimista nonostante le sfide future. Il fatturato record di Samsung nasconde un bivio cruciale per il gigante tecnologico: mentre i suoi smartphone dotati di intelligenza artificiale prosperano, la sua attività di semiconduttori, un tempo dominante, rischia di rimanere indietro nella rivoluzione dell’intelligenza artificiale. I prossimi trimestri riveleranno se i massicci investimenti in R&S di Samsung riusciranno a recuperare

OpenAI manterrà l’anima no-profit nella sua ristrutturazione

OpenAI manterrà l'anima no-profit nella sua ristrutturazione

Ti sei mai chiesto cosa succede quando un’azienda che cerca di costruire un “cervello per il mondo” deve crescere, velocemente, senza vendere la propria anima? Ebbene, OpenAI ci ha appena dato un’occhiata, impegnandosi a mantenere il suo nucleo no-profit in una fase di ristrutturazione più ampia. Il CEO di OpenAI, Sam Altman, ha illustrato la sua tabella di marcia e la notizia principale è che sta modificando il lato finanziario delle cose, ma la sua missione principale, ovvero far funzionare l’Intelligenza Artificiale Generale(AGI) per tutti noi, resta imbullonata. In una lettera, Altman ha scritto: “OpenAI non è un’azienda normale e non lo sarà mai” Si tratta di un’affermazione audace, ma che delinea lo scenario di un’azienda che sta lottando su come finanziare la tecnologia che cambia il mondo mantenendo la bussola etica puntata verso il nord. Riporta la mente, se vuoi, ai primi giorni di OpenAI. Altman dipinge un quadro ben lontano dal colosso tecnologico che sta diventando. “Quando abbiamo avviato OpenAI, non avevamo un’idea dettagliata di come avremmo realizzato la nostra missione”, ha raccontato. “Abbiamo iniziato fissandoci intorno a un tavolo da cucina, chiedendoci quali ricerche avremmo dovuto fare” Dimenticate i modelli di business o le roadmap dei prodotti di allora. L’idea che l’intelligenza artificiale possa fornire consigli medici, rivoluzionare il modo in cui impariamo o richiedere una potenza di calcolo tale da far sembrare il tuo PC da gioco una calcolatrice tascabile – “centinaia di miliardi di dollari di calcolo”, come dice Altman – non era nemmeno all’orizzonte. Anche il “come” costruire un’intelligenza artificiale è stato un po’ un rompicapo. Quando OpenAI è stata fondata come no-profit, alcuni dei primi pensatori dell’azienda ritenevano che l’IA dovesse essere affidata solo a una manciata di “persone fidate” in grado di “gestirla” Questo punto di vista si è completamente ribaltato. “Ora vediamo un modo in cui l’IA può dare direttamente potere a tutti come lo strumento più capace nella storia dell’umanità”, ha dichiarato Altman. Il grande sogno? Se tutti riuscissero a mettere le mani sull’AGI, potremmo inventare cose incredibili per gli altri, facendo progredire la società. Certo, alcuni potrebbero usarla per cose losche, ma Altman scommette sull’umanità: “Abbiamo fiducia nell’umanità e pensiamo che il bene supererà il male di ordini di grandezza” Il loro piano è quello che chiamano “IA democratica” Vogliono darci tutti questi incredibili strumenti. Parlano addirittura di open-sourcing di modelli potenti, dicendo che vogliono che siamo noi a prendere decisioni sul comportamento di ChatGPT. “Vogliamo costruire un cervello per il mondo e renderlo super facile da usare per qualsiasi cosa vogliano (con poche restrizioni; la libertà non dovrebbe ostacolare la libertà degli altri, per esempio)”, ha spiegato Altman. E le persone si stanno già dando da fare. Gli scienziati elaborano dati in modo più rapido, i programmatori codificano in modo più intelligente e le persone utilizzano ChatGPT per risolvere problemi di salute o per ottenere consigli su situazioni personali difficili. Il problema è che il mondo vuole molta più IA di quanta ne possa sfornare attualmente. “Al momento non siamo in grado di fornire tanta IA quanta ne vuole il mondo”, ha ammesso Altman. Questo insaziabile appetito per l’IA, e le ingenti somme di denaro necessarie per alimentarlo, è il motivo per cui OpenAI ritiene che sia giunto il momento di “evolversi” al di là di una rigida struttura no-profit. Altman ha riassunto la ristrutturazione in tre obiettivi principali: Ottenere i soldi: Devono trovare un modo per raccogliere “centinaia di miliardi di dollari e alla fine potrebbero essere necessari trilioni di dollari” – sì, trilioni con la “T” – per rendere i loro strumenti di intelligenza artificiale disponibili a tutti gli abitanti del pianeta. Pensate alla costruzione di una superstrada globale per l’intelligenza. Potenziare il non profit: Vogliono che il loro braccio no-profit originale diventi il “più grande e più efficace no-profit della storia”, utilizzando l’IA per fare una differenza positiva e massiccia nella vita delle persone. Fornire un’intelligenza artificiale utile e sicura: Questo significa raddoppiare la sicurezza e assicurarsi che l’IA sia in linea con i valori umani. Altman è orgoglioso dei risultati ottenuti da OpenAI, tra cui la creazione di nuovi metodi di “red teaming” (in cui si chiede a persone intelligenti di provare a violare la loro IA per trovare i difetti) e l’apertura su come funzionano i loro modelli. Quindi, qual è il grande piano per questa evoluzione? È fondamentale che il lato no-profit di OpenAI rimanga saldamente al posto di guida. Non si tratta di una promessa vaga, ma di una serie di colloqui con “leader civici” e con gli uffici dei procuratori generali della California e del Delaware. “OpenAI è stata fondata come no-profit, oggi è una no-profit che supervisiona e controlla la società a scopo di lucro e in futuro rimarrà una no-profit che supervisiona e controlla la società a scopo di lucro. Questo non cambierà”, ha dichiarato Altman. La parte che sta cambiando è la LLC a scopo di lucro che attualmente si trova sotto la no-profit. Questa si trasformerà in una Public Benefit Corporation (PBC). Se ti stai grattando la testa, una PBC è un tipo di azienda che è legalmente obbligata a considerare la sua missione di pubblica utilità oltre a fare soldi. Pensa ad aziende come Patagonia o ad alcuni marchi di cibo etico: vogliono fare del bene pur rimanendo un’azienda. È un modello che stanno utilizzando anche altri laboratori AGI come Anthropic, quindi sta diventando un po’ una tendenza per le aziende tecnologiche orientate allo scopo. Questo significa anche che stanno abbandonando il loro vecchio sistema di “profitti limitati”, che fa venire i brividi. Altman ha spiegato che questo aveva senso quando sembrava che una sola azienda potesse dominare AGI, ma ora, con molti giocatori in gioco, una “normale struttura di capitale in cui tutti hanno azioni” è più semplice. La parte no-profit di OpenAI non sarà solo al posto di comando, ma diventerà anche un grande azionista di questa nuova PBC. Secondo Altman, questo significa che l’organizzazione non profit riceverà una grossa fetta di

Wade Foster, CEO di Zapier, sta riscrivendo le regole dell’automazione nell’era dell’AI

Wade Foster, CEO di Zapier, sta riscrivendo le regole dell'automazione nell'era dell'AI

L’automazione non si limita a snellire le attività, ma sta rimodellando interi settori. Mentre le aziende sono alle prese con una rapida trasformazione digitale, le piattaforme di automazione no-code come Zapier permettono a milioni di persone di innovare senza sforzo. In questo episodio del podcast The Speed of Culture, Matt Britton parla con Wade Foster, CEO e co-fondatore della piattaforma di automazione AI Zapier, dell’ascesa dell’automazione guidata dall’AI, delle strategie innovative alla base della crescita massiccia di Zapier e del motivo per cui il potenziamento della creatività con la tecnologia sta ridisegnando il panorama aziendale. Da una startup in fase di avviamento a un’azienda valutata 5 miliardi di dollari, Wade ha portato Zapier a nuovi traguardi, sostenendo l’accessibilità della tecnologia e rivoluzionando i flussi di lavoro di oltre 2 milioni di aziende in tutto il mondo. In precedenza ha lavorato per Veterans United e l’incessante attenzione di Wade alla facilità d’uso e all’integrazione innovativa ha reso Zapier indispensabile in tutti i settori. Ascolta Wade Foster nel podcast The Speed of Culture per scoprire come l’uso innovativo di Zapier dell’IA e dell’automazione stia permettendo alle aziende di ridefinire la produttività e la creatività del futuro. Punti chiave: [04:20] Trasformare la frustrazione iniziale in gioia dei clienti – La demo iniziale del prodotto Zapier era goffa e tutt’altro che perfetta, ma i clienti l’hanno subito amata perché risolveva un problema reale che affrontavano quotidianamente. Wade si è reso conto che un valore autentico non sempre significa perfezione immediata; anche una soluzione approssimativa che soddisfa un’esigenza critica può creare un entusiasmo duraturo nei clienti. Il risultato? I brand dovrebbero dare la priorità alla risoluzione dei punti dolenti dei clienti: anche una soluzione imperfetta può guadagnare una fedeltà duratura. [08:46] L’Hack della crescita di Zapier? Sconfiggere la SEO un’integrazione alla volta – La maggior parte delle aziende cerca di superare la concorrenza – Zapier le ha superate. Creando landing page ottimizzate per la SEO per ogni integrazione di nicchia immaginabile, hanno trasformato le query a coda lunga in un motore di crescita a lungo termine. Non si è trattato di fortuna. È stata una strategia deliberata per vincere nei micro-momenti. La tua mossa? Crea contenuti che soddisfino gli utenti esattamente dove si trovano i loro punti dolenti. [14:11] Assunzioni mirate rispetto a un’espansione rapida – Mentre altre startup tecnologiche si sono lanciate in assunzioni aggressive finanziate da VC, Zapier ha adottato l’approccio opposto, espandendosi con attenzione solo quando non era il caso di farlo. Wade spiega che questa strategia disciplinata ha garantito l’efficienza operativa, una cultura forte e una crescita sostenibile senza sovraccaricare le risorse. Per le aziende in crescita, l’intuizione è chiara: un’assunzione ponderata e intenzionale batte sempre una crescita rapida e indisciplinata. [17:39] Da regola a radicale: cosa ha sbloccato l’AI per Zapier – Zapier era solita seguire script prevedibili: “Se questo, allora quello” Con l’arrivo dell’intelligenza artificiale, le regole si sono improvvisamente piegate e poi infrante. Ora gli utenti possono automatizzare con facilità i flussi di lavoro che coinvolgono PDF, testo disordinato e logica decisionale complessa. Il punto di vista di Wade? L’intelligenza artificiale non ha semplicemente migliorato il prodotto, ma ha sbloccato casi d’uso completamente nuovi. I brand devono smettere di chiedersi: “L’intelligenza artificiale può aiutarci a lavorare più velocemente?” e iniziare a chiedersi: “Cosa non abbiamo mai potuto fare fino ad ora?” [31:41] Le idee sono il tuo bene più sottovalutato, fino a quando non arriva l’intelligenza artificiale – Dimentica la necessità di un team di sviluppo o di un fondo di capitale di rischio: Wade sostiene che nell’attuale mondo alimentato dall’intelligenza artificiale, la distanza tra una grande idea e un prodotto funzionante è crollata. L’esecuzione è la posta in gioco. Cosa vince? L’originalità. I brand dovrebbero smettere di limitare l’ideazione ai documenti strategici e iniziare a consentire a tutti i dipendenti di testare, prototipare e distribuire la creatività in tempo reale. Leggi di più su www.adweek.com

Utenti di Reddit manipolati segretamente dall’intelligenza artificiale in uno scioccante esperimento psicologico

Utenti di Reddit manipolati segretamente dall'intelligenza artificiale in uno scioccante esperimento psicologico

Ricercatori dell’Università di Zurigo hanno condotto in segreto un esperimento di IA della durata di mesi sulla comunità r/changemyview di Reddit, composta da 3,8 milioni di membri, senza il consenso degli utenti. Un gruppo di ricercatori dell’Università di Zurigo ha condotto un esperimento segreto durato mesi utilizzando commenti generati dall’intelligenza artificiale per influenzare gli utenti di Reddit senza che questi ne fossero a conoscenza o avessero dato il loro consenso. L’esperimento ha avuto luogo su r/changemyview, un subreddit da 3,8 milioni di membri noto per i dibattiti civili. I ricercatori hanno utilizzato modelli linguistici di grandi dimensioni (LLM) per scrivere risposte personalizzate e persuasive, fingendosi persone reali, per verificare se l’intelligenza artificiale potesse cambiare le opinioni degli utenti. I dettagli Sono stati pubblicati commenti generati dall’intelligenza artificiale, fingendosi utenti reali, per influenzare le opinioni. I personaggi includevano sopravvissuti a traumi e voci politiche controverse. L’intelligenza artificiale utilizzava dati personali estrapolati dalla cronologia degli utenti per personalizzare le risposte persuasive. Nessuna delle attività è stata divulgata, violando le regole del subreddit e di Reddit in generale. Non si trattava solo di bot. Si trattava di una manipolazione psicologica che utilizzava i dati personali per testare l’efficacia dell’IA nel far cambiare idea alle persone. Il Chief Legal Officer di Reddit, Ben Lee, ha definito questo comportamento “profondamente sbagliato sia a livello morale che legale” e ha confermato che Reddit sta preparando un’azione legale formale. Foto di Brett Jordan su Unsplash La difesa dei ricercatori I ricercatori affermano che il loro comitato etico ha approvato il progetto e sostengono che il loro obiettivo era quello di mostrare come l’intelligenza artificiale possa essere utilizzata in modo improprio per manipolare le elezioni o diffondere discorsi di odio. “Crediamo che i potenziali benefici di questa ricerca siano sostanzialmente superiori ai rischi”, hanno scritto i ricercatori. Il contraccolpo I mod di r/changemyview si sono indignati, definendo la ricerca “sgradita” e “manipolativa” Hanno presentato un reclamo e chiesto all’università di bloccare la pubblicazione dello studio. Questo esperimento rivela una minaccia crescente: La persuasione alimentata dall’intelligenza artificiale su larga scala, senza consenso. Dimostra quanto facilmente le persone possano essere influenzate quando l’IA conosce le tue convinzioni e può imitare i tuoi simili. I Redditors sono stati utilizzati come soggetti di prova. Non si è trattato solo di un esercizio accademico. Dimostra quanto possa essere potente e sottile la manipolazione dell’IA, soprattutto quando imita voci umane fidate utilizzando dati personali. Con la diffusione dell’IA generativa, il rischio di manipolazione guidata dall’IA non è più teorico. È reale ed è appena accaduto in una delle più grandi comunità di Internet. Ora Reddit, una delle più grandi comunità online del mondo, sta reagendo. Leggi di più su dailyai.com

Navigare nel futuro della fiducia, del rischio e delle opportunità nell’era dell’IA

Navigare nel futuro della fiducia, del rischio e delle opportunità nell'era dell'IA

Per i marketer, l’IA promette un balzo in avanti nella produttività, ma solo se guidata da una strategia chiara e da una supervisione umana. La questione non è se usare l’IA, ma come usarla in modo responsabile ed efficace. Questa domanda è stata al centro del Digital Trust Summit 2025, un evento fondato e prodotto da Global Data Innovation e dal suo CEO, Dominique Shelton Leipzig. Innovatori del settore tecnologico, amministratori delegati, leader governativi e autorità di regolamentazione si sono riuniti a Washington per affrontare le sfide urgenti legate alla governance dell’IA, alla cybersicurezza, alla regolamentazione e al rischio digitale. Mentre le aziende corrono per adottare l’IA, le complessità della trasformazione digitale e della protezione dei dati non fanno che aumentare. Lipsia ha ricordato alla platea: “Ma la fiducia non si creerà da sola. Dobbiamo programmare la fiducia nell’IA ora” Tenendo presente questa urgenza, ecco alcuni punti salienti dell’evento. Costruire la fiducia nell’IA richiede leadership, cultura e curiosità (L-R) Lesley Stahl di CBS News e Neel Sukhatme del Georgetown University Law Center La fiducia nell’IA non si ottiene per difetto: deve essere deliberatamente progettata nei sistemi fin dall’inizio. Ciò significa incorporare equità, trasparenza e considerazioni etiche in tutto lo sviluppo. Sono essenziali quadri chiari per la governance dei dati, la privacy e la protezione della proprietà intellettuale. Altrettanto importante è promuovere una cultura in cui la curiosità sia incoraggiata e il fallimento sia visto come un’opportunità di apprendimento. I leader devono distinguere tra i risultati dell’IA difettosi e i problemi di processo sottostanti, consentendo ai team di porre domande difficili e di pensare in modo diverso. La fiducia, dopo tutto, non è solo un problema tecnico, è un problema umano. Le organizzazioni che prospereranno saranno quelle che individueranno le iniziative di IA che le entusiasmano ed esploreranno le loro implicazioni più ampie con input diversi. La governance tecnologica richiede leadership responsabile e vigilanza Una solida governance nell’era digitale inizia con l’allineamento del processo decisionale sia umano che di IA ai valori fondamentali dell’azienda. Alcune organizzazioni stanno adottando sistemi di triage per classificare i rischi e valutare lo stato di salute delle decisioni, dalle zone “verdi” a basso rischio agli allarmi critici “rossi”. Mentre le tecnologie emergenti come l’AI e la blockchain rimodellano il panorama, alcune organizzazioni stanno lottando per bilanciare l’innovazione con la sicurezza. La curva di apprendimento è ripida e, sebbene molte non siano completamente attrezzate per stare al passo, ciò non significa che sia impossibile. Con la giusta mentalità e il giusto impegno, è possibile compiere progressi significativi.   La governance dell’IA richiede sia una forte supervisione che un approccio proattivo al rischio (L-R), Dan Bigman di Chief Executive Group, Will Lee di ADWEEK e Victor Cho di Emovid Non è necessario che i brand siano composti da esperti di IA, ma devono porsi le domande giuste. Stabilire un quadro chiaro per l’utilizzo dell’IA, in particolare per quanto riguarda la privacy, la sicurezza e l’etica, è fondamentale. I rischi sono reali, dalla mancanza di trasparenza all’abuso vero e proprio. L’AI Act dell’UE, che vieta la polizia predittiva e il social scoring, offre una potenziale tabella di marcia. La valutazione proattiva dei rischi, la trasparenza e la supervisione umana possono costruire la fiducia del pubblico e ridurre al minimo le ricadute normative e reputazionali. La supervisione non dovrebbe soffocare l’innovazione, ma permetterla in modo sicuro. Il futuro dell’IA e della fiducia digitale Con la continua evoluzione dell’IA, il percorso da seguire richiede una collaborazione costante, l’adattamento e l’impegno di una forte governance. Le sfide poste dalla sua crescita metteranno alla prova la resistenza delle organizzazioni, dai consigli di amministrazione ai team di gestione. Le aziende devono dare priorità alla leadership, alla struttura e alla strategia per affrontare le complessità che ci attendono. Come ha detto Leipzig, “Questo momento non è solo una prova di leadership. È una prova di eredità” Coloro che investono nell’apprendimento continuo, nelle pratiche etiche e nella pianificazione proattiva non solo terranno il passo con l’IA, ma contribuiranno anche a definire un futuro di cui vale la pena fidarsi. Leggi di più su www.adweek.com

Meta rafforza la sicurezza dell’intelligenza artificiale con i nuovi strumenti di Llama

Meta rafforza la sicurezza dell'intelligenza artificiale con i nuovi strumenti di Llama

Se stai costruendo con l’IA o se stai cercando di difenderti dal lato meno interessante di questa tecnologia, Meta ha appena lanciato nuovi strumenti di sicurezza per Llama. Gli strumenti di sicurezza migliorati per i modelli di intelligenza artificiale Llama arrivano insieme a nuove risorse di Meta pensate per aiutare i team di cybersecurity a sfruttare l’intelligenza artificiale per la difesa. Tutto questo fa parte della volontà di rendere lo sviluppo e l’utilizzo dell’IA un po’ più sicuro per tutti i soggetti coinvolti. Gli sviluppatori che lavorano con la famiglia di modelli Llama hanno ora a disposizione un kit aggiornato con cui giocare. Puoi ottenere questi ultimi strumenti di Llama Protection direttamente dalla pagina Llama Protections di Meta, oppure trovarli dove vivono molti sviluppatori: Hugging Face e GitHub. Il primo è Llama Guard 4. Si tratta di un’evoluzione del filtro di sicurezza personalizzabile di Meta per l’intelligenza artificiale. La grande novità è che ora è multimodale e può comprendere e applicare le regole di sicurezza non solo al testo, ma anche alle immagini. Si tratta di un aspetto cruciale in quanto le applicazioni di IA diventano sempre più visive. Questa nuova versione è stata inserita anche nella nuovissima API Llama di Meta, attualmente in anteprima limitata. Poi c’è LlamaFirewall. Si tratta di un nuovo pezzo del puzzle di Meta, progettato per agire come un centro di controllo della sicurezza per i sistemi AI. Aiuta a gestire diversi modelli di sicurezza che lavorano insieme e si aggancia agli altri strumenti di protezione di Meta. Il suo compito? Individuare e bloccare i rischi che tengono svegli gli sviluppatori di IA, come ad esempio gli attacchi “prompt injection” progettati per ingannare l’IA, la generazione di codice potenzialmente difettoso o il comportamento rischioso dei plug-in di IA. Meta ha anche dato una bella sistemata al suo Llama Prompt Guard. Il modello principale Prompt Guard 2 (86M) è ora in grado di individuare meglio i fastidiosi tentativi di jailbreak e le iniezioni di prompt. Più interessante, forse, è l’introduzione del Prompt Guard 2 22M. Prompt Guard 2 22M è una versione molto più piccola e veloce. Meta ritiene che possa ridurre la latenza e i costi di calcolo fino al 75% rispetto al modello più grande, senza sacrificare la potenza di rilevamento. Per tutti coloro che hanno bisogno di risposte più rapide o che lavorano con budget ridotti, si tratta di un’aggiunta gradita. Ma Meta non si sta concentrando solo sui costruttori di AI, bensì anche sui difensori informatici in prima linea nella sicurezza digitale. Ha sentito le richieste di strumenti migliori basati sull’intelligenza artificiale per aiutare nella lotta contro i cyberattacchi e sta condividendo alcuni aggiornamenti che mirano proprio a questo. La suite di benchmark CyberSec Eval 4 è stata aggiornata. Questo toolkit open-source aiuta le organizzazioni a capire quanto siano effettivamente bravi i sistemi di intelligenza artificiale nelle attività di sicurezza. Quest’ultima versione include due nuovi strumenti: CyberSOC Eval: realizzato con l’aiuto degli esperti di cybersecurity CrowdStrike, questo framework misura in modo specifico le prestazioni dell’IA in un ambiente reale di Security Operation Centre (SOC). È stato progettato per fornire un quadro più chiaro dell’efficacia dell’IA nel rilevamento e nella risposta alle minacce. Il benchmark stesso è in arrivo. AutoPatchBench: Questo benchmark verifica la capacità di Llama e di altre IA di trovare e correggere automaticamente le falle di sicurezza nel codice prima che i malintenzionati possano sfruttarle. Per contribuire a portare questo tipo di strumenti nelle mani di chi ne ha bisogno, Meta sta lanciando il Llama Defenders Program. Si tratta di dare alle aziende partner e agli sviluppatori un accesso speciale a un mix di soluzioni di intelligenza artificiale – alcune open-source, altre ad accesso anticipato, altre ancora proprietarie – tutte orientate a diverse sfide di sicurezza. Nell’ambito di questa iniziativa, Meta sta condividendo uno strumento di sicurezza AI che utilizza internamente: l’Automated Sensitive Doc Classification Tool. Questo strumento appone automaticamente delle etichette di sicurezza sui documenti all’interno di un’organizzazione. Perché? Per impedire che le informazioni sensibili escano dalla porta o per evitare che vengano accidentalmente inserite in un sistema di intelligenza artificiale (come nelle configurazioni RAG) dove potrebbero essere divulgate. L’azienda sta anche affrontando il problema dell’audio falso generato dall’intelligenza artificiale, sempre più utilizzato nelle truffe. Llama Generated Audio Detector e Llama Audio Watermark Detector vengono condivisi con i partner per aiutarli a individuare le voci generate dall’IA in potenziali chiamate di phishing o tentativi di frode. Aziende come ZenDesk, Bell Canada e AT&T sono già in fila per integrarli. Infine, Meta ha dato un’occhiata in anteprima a qualcosa di potenzialmente enorme per la privacy degli utenti: Private Processing. Si tratta di una nuova tecnologia a cui stanno lavorando per WhatsApp. L’idea è quella di permettere all’intelligenza artificiale di fare cose utili come riassumere i messaggi non letti o aiutarti a redigere le risposte, ma senza che Meta o WhatsApp possano leggere il contenuto dei messaggi. Meta si è dimostrata piuttosto aperta sul fronte della sicurezza, pubblicando persino il proprio modello di minaccia e invitando i ricercatori di sicurezza a cercare falle nell’architettura prima che venga messa in funzione. È un segno che sanno di dover affrontare al meglio l’aspetto della privacy. Nel complesso, Meta ha fatto un’ampia serie di annunci sulla sicurezza dell’intelligenza artificiale. L’azienda sta chiaramente cercando di mettere in atto un’azione seria per proteggere l’IA che costruisce, fornendo al contempo alla comunità tecnologica più ampia strumenti migliori per costruire in modo sicuro e difendersi efficacemente. Leggi di più su www.artificialintelligence-news.com

Natasha Lyonne dirigerà un film sci-fi con intelligenza artificiale che potrebbe ridefinire Hollywood

Natasha Lyonne dirigerà un film sci-fi con intelligenza artificiale che potrebbe ridefinire Hollywood

Il nuovo film “Uncanny Valley” sarà realizzato utilizzando un’intelligenza artificiale generativa addestrata su dati completamente autorizzati. Natasha Lyonne, star di Poker Face e Russian Doll, sarà la regista e la protagonista di un nuovo film di fantascienza intitolato Uncanny Valley, un coraggioso esperimento di fusione tra la creatività umana e l’intelligenza artificiale generativa. Il film, scritto insieme a Brit Marling di The OA e sostenuto dallo studio Asteria, incentrato sull’AI, utilizzerà immagini generate dall’AI e alimentate da un modello di AI cosiddetto “etico” chiamato Marey. Grandi novità Si tratta di uno dei primi grandi progetti hollywoodiani ad abbracciare l’IA generativa come parte del nucleo creativo, non solo dietro le quinte. E lo fa in un momento in cui l’industria dell’intrattenimento è profondamente divisa sull’impatto dell’IA sui diritti degli artisti e sull’integrità creativa. Uncanny Valley segue una ragazza adolescente il cui mondo si districa dopo essersi appassionata a un videogioco AR molto popolare. Il film mescolerà azione dal vivo e ambienti virtuali generati dall’intelligenza artificiale, progettati in parte dal pioniere della tecnologia Jaron Lanier, esperto di VR e critico dell’intelligenza artificiale. Le immagini saranno create utilizzando Marey, un modello di intelligenza artificiale generativa costruito da Moonvalley e commercializzato come uno dei primi addestrati esclusivamente su contenuti autorizzati e protetti da copyright. Asteria, co-fondata da Lyonne e dal regista Bryn Mooser, afferma di dare priorità alla proprietà creativa e all’approvvigionamento etico, in contrasto con i modelli di OpenAI e altri. Il punto di vista di Lyonne L’attrice definisce il film un mix di Matrix e Colombo, affermando che il viaggio creativo è stato “radicalmente espansivo” “L’intelligenza artificiale può consentire visioni più ampie sullo schermo, ma dobbiamo anche confrontarci con le sue complessità in materia di diritti degli artisti”, ha dichiarato. Oltre lo schermo Con l’utilizzo dell’IA che è già stato un punto di rottura negli scioperi di Hollywood dello scorso anno e con più di 400 artisti che hanno recentemente denunciato OpenAI e Google per problemi di copyright, Uncanny Valley arriva in un momento culturale critico. La sua proposta di “AI pulita” potrebbe verificare se la tecnologia può essere utilizzata senza sostituire o sfruttare i creatori. Non sono state confermate né la data di uscita né la piattaforma. Ma con Lyonne alla regia e protagonista e Brit Marling alla sceneggiatura e al ruolo di co-protagonista, Uncanny Valley si posiziona come uno degli esperimenti di cinema generati dall’intelligenza artificiale di più alto profilo. Hollywood ha temuto l’ascesa dell’IA e Uncanny Valley potrebbe dimostrare che può essere un alleato, se usata in modo responsabile. Oppure potrebbe alimentare il fuoco. In ogni caso, si tratta di un film che il settore seguirà con attenzione. Leggi di più su dailyai.com

Anthropic ha aggiunto l’intelligenza artificiale ai tuoi strumenti di lavoro preferiti

Anthropic ha aggiunto l'intelligenza artificiale ai tuoi strumenti di lavoro preferiti

Anthropic ha appena lanciato le “Integrazioni” per Claude, che consentono all’intelligenza artificiale di dialogare direttamente con i tuoi strumenti di lavoro preferiti. Inoltre, l’azienda ha lanciato una funzione di “Ricerca Avanzata” per scavare più a fondo che mai. Partendo dalle integrazioni, la funzione si basa su uno standard tecnico che Anthropic ha rilasciato lo scorso anno (il Model Context Protocol, o MCP), ma lo rende molto più semplice da usare. In precedenza, l’impostazione era un po’ tecnica e locale. Ora gli sviluppatori possono creare ponti sicuri che consentono a Claude di connettersi in modo sicuro con le app sul web o sul desktop. Per gli utenti finali di Claude, questo significa che ora è possibile collegarlo a un elenco crescente di software di lavoro popolari. Fin da subito è stato incluso il supporto per dieci grandi nomi: Jira e Confluence di Atlassian (ciao, project manager e team di sviluppo!), la centrale di automazione Zapier, Cloudflare, lo strumento di comunicazione con i clienti Intercom, oltre a Asana, Square, Sentry, PayPal, Linear e Plaid. Stripe e GitLab si uniranno presto alla festa. Allora, qual è il problema? Il vero vantaggio è il contesto. Quando Claude può vedere la cronologia del progetto in Jira, leggere la knowledge base del team in Confluence o controllare gli aggiornamenti delle attività in Asana, smette di tirare a indovinare e inizia a capire su cosa stai lavorando. “Quando colleghi i tuoi strumenti a Claude, quest’ultimo acquisisce un contesto profondo sul tuo lavoro – comprendendo la cronologia dei progetti, gli stati delle attività e le conoscenze organizzative – e può intraprendere azioni su ogni superficie”, spiegano da Anthropic. E aggiunge: “Claude diventa un collaboratore più informato, aiutandoti a realizzare progetti complessi in un unico luogo con l’assistenza di esperti in ogni fase” Vediamo cosa significa in pratica. Collegando Zapier, improvvisamente dai a Claude le chiavi di migliaia di app collegate dai flussi di lavoro di Zapier. Potresti chiedere a Claude, in modo colloquiale, di attivare una sequenza complessa, ad esempio di prendere gli ultimi dati sulle vendite da HubSpot, di controllare il tuo calendario e di prendere appunti per una riunione, il tutto senza che tu muova un dito in quelle app. Per i team che utilizzano Jira e Confluence di Atlassian, Claude potrebbe diventare un valido aiuto. Pensa alla stesura di specifiche di prodotto, alla sintesi di lunghi documenti di Confluence in modo da non doverli sfogliare, o anche alla creazione di batch di ticket Jira collegati in una sola volta. Potrebbe anche individuare potenziali blocchi stradali analizzando i dati del progetto. Se utilizzi Intercom per le chat con i clienti, questa integrazione potrebbe cambiare le carte in tavola. L’assistente AI di Intercom, Fin, può ora lavorare con Claude per fare cose come creare automaticamente una segnalazione di bug in Linear se un cliente segnala un problema. Puoi anche chiedere a Claude di esaminare la cronologia delle chat di Intercom per individuare gli schemi, aiutare a risolvere problemi difficili o riassumere ciò che i clienti dicono, rendendo l’intero percorso dal feedback alla soluzione molto più agevole. Anthropic sta anche rendendo più facile per gli sviluppatori creare un numero ancora maggiore di connessioni. L’azienda ritiene che, utilizzando i suoi strumenti (o piattaforme come Cloudflare che si occupano della sicurezza e della configurazione), gli sviluppatori possano creare un’integrazione personalizzata con Claude in circa mezz’ora. Ciò potrebbe significare collegare Claude ai sistemi interni della tua azienda o a software di settore specializzati. Oltre alle integrazioni di strumenti, Claude riceve un aggiornamento serio per la ricerca Oltre a queste nuove connessioni, Anthropic ha dato un forte impulso alla funzione di ricerca di Claude. Claude è già in grado di effettuare ricerche sul web e sui file di Google Workspace, ma la nuova modalità “Ricerca avanzata” è stata pensata per i casi in cui è necessario scavare davvero a fondo. Premendo l’interruttore per questa modalità avanzata, Claude affronta le domande più importanti in modo diverso. Invece di un’unica grande ricerca, suddivide in modo intelligente la tua richiesta in parti più piccole, indaga a fondo su ogni parte – utilizzando il web, i tuoi Google Docs e ora anche le app che hai collegato tramite le integrazioni – prima di riunire il tutto in un rapporto dettagliato. Ora, questo approfondimento richiede un po’ più di tempo. Mentre molti report potrebbero richiedere solo 5-15 minuti, Anthropic sostiene che le indagini più complesse potrebbero far lavorare Claude fino a 45 minuti. Potrebbe sembrare un tempo eccessivo, ma se lo paragoni alle ore che potresti impiegare per svolgere manualmente quella ricerca, il risultato inizia a essere piuttosto interessante. Inoltre, puoi fidarti dei risultati. Quando Claude utilizza informazioni provenienti da qualsiasi fonte – che si tratti di un sito web, di un documento interno, di un ticket Jira o di una pagina Confluence – ti fornisce dei link chiari che rimandano direttamente all’originale. Non dovrai più chiederti da dove l’intelligenza artificiale abbia preso le informazioni: potrai verificarlo tu stesso. Queste nuove integrazioni e la modalità di ricerca avanzata sono in fase di beta per gli utenti dei piani a pagamento Max, Team ed Enterprise di Anthropic. Se hai un piano Pro, non preoccuparti: l’accesso è in arrivo. Da notare anche che la funzione di ricerca web standard all’interno di Claude è ora disponibile ovunque, per tutti coloro che hanno un piano Claude.ai a pagamento (da Pro in su). Non ci sono più restrizioni geografiche su questo fronte. Questi aggiornamenti e integrazioni dimostrano che Anthropic è seriamente intenzionata a rendere Claude veramente utile in un contesto professionale. Permettendogli di collegarsi direttamente agli strumenti che già utilizziamo e dandogli modi più potenti per analizzare le informazioni, sta spingendo Claude a diventare meno una novità e più una parte essenziale del moderno kit di strumenti. Leggi di più su www.artificialintelligence-news.com