ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

Gli accordi di licenza AI rappresentano ora il 10% delle entrate di Reddit

Gli accordi di licenza AI rappresentano ora il 10% delle entrate di Reddit

Gli accordi di licenza dei contenuti rappresentano oggi circa il 10% delle entrate totali di Reddit, ha dichiarato Jen Wong, CRO dell’azienda, in un’intervista esclusiva rilasciata mercoledì ad ADWEEK. “È una piccola parte delle nostre entrate, diciamo il 10%. Per un’azienda delle nostre dimensioni, è un dato importante, perché si tratta di entrate preziose”, ha detto Wong. La piattaforma sociale – che mercoledì ha registrato un aumento del 71% rispetto all’anno precedente per quanto riguarda i ricavi del quarto trimestre – è stata “molto attenta” agli sviluppatori di intelligenza artificiale con cui sceglie di lavorare, ha dichiarato Wong. Ad oggi, l’azienda ha siglato due accordi di licenza di contenuti: uno con Google per un valore di 60 milioni di dollari e uno con OpenAI, società madre di ChatGPT. Reddit ha scelto di lavorare solo con partner che possono accettare “condizioni specifiche… che sono molto importanti per noi” Questi termini includono la protezione della privacy degli utenti e le condizioni relative a “come [Reddit] viene rappresentato”, ha detto Wong. Sebbene gli accordi di licenza con le aziende di intelligenza artificiale rappresentino una preziosa opportunità di business per Reddit, la pubblicità rimane il motore principale delle entrate dell’azienda. Gran parte dei 427,7 milioni di dollari di ricavi del quarto trimestre di Reddit sono stati generati dalla continua espansione della sua attività pubblicitaria. Le entrate pubblicitarie nel complesso sono cresciute del 60% rispetto all’anno precedente, sottolineando la crescente attrattiva della piattaforma per i marchi. L’azienda, che è stata quotata in borsa lo scorso marzo, si è concentrata sull’espansione della sua attività pubblicitaria. A gennaio ha lanciato AMA Ads e Pro Trends per attirare i marchi tradizionali. AMA Ads consente ai marchi di ospitare sessioni di domande e risposte con funzioni integrate di RSVP e promemoria, mentre Pro Trends permette alle aziende di monitorare le menzioni del marchio e le discussioni virali su Reddit. Reddit ha anche investito risorse significative nell’apprendimento automatico e nell’intelligenza artificiale per migliorare il targeting degli annunci e il coinvolgimento degli utenti. Ad agosto ha acquisito Memorable AI, una startup che prevede il coinvolgimento degli utenti con la creatività degli annunci, per migliorare l’efficacia degli annunci su Reddit. Gli sforzi stanno dando i loro frutti. L’azienda ha raddoppiato il volume dei clic e il volume delle conversioni su base annua e ha registrato una crescita significativa in tutti i canali, le regioni geografiche e i settori verticali nel 2024. Un punto di forza particolare è stato rappresentato dagli inserzionisti di piccole e medie dimensioni, che hanno registrato una “crescita notevole” durante il quarto trimestre, secondo Wong. Reddit si concentra sugli utenti loggati e su una maggiore automazione L’aumento del traffico di Reddit ha contribuito ad accelerare la crescita delle entrate pubblicitarie. Sebbene la crescita degli utenti di Reddit nel quarto trimestre sia stata inferiore alle previsioni di Wall Street, causando un calo delle azioni, i visitatori unici attivi settimanali sono cresciuti del 42% rispetto all’anno precedente, superando i 379 milioni di visitatori. Il ricavo medio per visitatore unico è stato di 4,21 dollari nel trimestre, con un aumento del 23% rispetto all’anno precedente. Sebbene Google stia “rafforzando” la crescita del traffico di Reddit, Wong ha aggiunto che gli utenti registrati sul sito, che sono cresciuti del 27% rispetto all’anno precedente, sono “la base del nostro business” Nei prossimi mesi, Reddit ha in programma di espandere le proprie capacità di machine learning e AI, sforzi che secondo Wong contribuiranno a sostenere la crescita del business degli annunci. “Stiamo esplorando l’automazione end-to-end, soprattutto per gli obiettivi di performance, per rendere più facile l’attivazione della nostra piattaforma pubblicitaria”, ha dichiarato.

Il ruolo del machine learning nel migliorare la sicurezza degli storage cloud-native

Il ruolo del machine learning nel migliorare la sicurezza degli storage cloud-native

L’avvento di processori più potenti nei primi anni 2000, insieme al supporto hardware per la virtualizzazione, ha dato il via alla rivoluzione informatica che ha portato, nel tempo, a quello che oggi chiamiamo cloud. Con singole istanze hardware in grado di eseguire decine, se non centinaia di macchine virtuali in contemporanea, le aziende potevano offrire ai propri utenti molteplici servizi e applicazioni che altrimenti sarebbero stati finanziariamente impraticabili, se non impossibili. Ma le macchine virtuali (VM) hanno diversi lati negativi. Spesso un intero sistema operativo virtualizzato è eccessivo per molte applicazioni e, sebbene siano molto più malleabili, scalabili e agili di una flotta di server bare-metal, le macchine virtuali richiedono comunque molta più memoria e potenza di elaborazione e sono meno agili della prossima evoluzione di questo tipo di tecnologia: i container. Oltre ad essere più facilmente scalabili (in aumento o in diminuzione, a seconda della domanda), le applicazioni containerizzate sono costituite solo dalle parti necessarie di un’applicazione e dalle sue dipendenze di supporto. Pertanto, le applicazioni basate su microservizi tendono a essere più leggere e più facilmente configurabili. Le macchine virtuali presentano gli stessi problemi di sicurezza che affliggono le loro controparti bare-metal e, in una certa misura, i problemi di sicurezza dei container riflettono quelli delle loro parti componenti: un bug di mySQL in una versione specifica dell’applicazione upstream interesserà anche le versioni containerizzate. Per quanto riguarda le macchine virtuali, le installazioni bare metal e i container, le preoccupazioni e le attività di cybersicurezza sono molto simili. Tuttavia, le distribuzioni di container e i relativi strumenti pongono sfide di sicurezza specifiche a coloro che si occupano dell’esecuzione di applicazioni e servizi, sia che si tratti di mettere insieme manualmente le applicazioni con container a scelta, sia che si tratti di eseguirle in produzione con l’orchestrazione su scala. Rischi per la sicurezza specifici dei container Configurazione errata: Le applicazioni complesse sono composte da più container e un’errata configurazione, spesso solo una singola riga in un file .yaml, può concedere privilegi non necessari e aumentare la superficie di attacco. Ad esempio, sebbene non sia banale per un aggressore ottenere l’accesso root alla macchina host da un container, è ancora una pratica troppo comune eseguire Docker come root, ad esempio senza il remapping dello spazio dei nomi utente. Immagini di container vulnerabili: Nel 2022, Sysdig ha trovato oltre 1.600 immagini identificate come dannose in Docker Hub, oltre a molti container archiviati nei repo con credenziali cloud, chiavi ssh e token NPM codificati. Il processo di estrazione delle immagini dai registri pubblici è poco trasparente e la convenienza della distribuzione dei container (oltre alla pressione esercitata sugli sviluppatori affinché producano risultati in tempi brevi) può far sì che le app siano facilmente costruite con componenti intrinsecamente insicuri o addirittura dannosi. Livelli di orchestrazione: Per i progetti più grandi, gli strumenti di orchestrazione come Kubernetes possono aumentare la superficie di attacco, di solito a causa di una configurazione errata e di alti livelli di complessità. Un’indagine condotta nel 2022 da D2iQ ha rilevato che solo il 42% delle applicazioni che girano su Kubernetes entrano in produzione, in parte a causa della difficoltà di amministrare cluster di grandi dimensioni e della ripida curva di apprendimento. Secondo Ari Weil di Akamai, “Kubernetes è maturo, ma la maggior parte delle aziende e degli sviluppatori non si rendono conto di quanto possa essere complesso […] fino a quando non si trovano su scala reale” Sicurezza dei container con il machine learning Le sfide specifiche della sicurezza dei container possono essere affrontate utilizzando algoritmi di apprendimento automatico addestrati all’osservazione dei componenti di un’applicazione quando è “pulita” Creando una linea di base di comportamento normale, l’apprendimento automatico può identificare le anomalie che potrebbero indicare potenziali minacce derivanti da traffico insolito, modifiche non autorizzate alla configurazione, strani modelli di accesso degli utenti e chiamate di sistema inaspettate. Le piattaforme di sicurezza per container basate sul ML possono scansionare i repository di immagini e confrontarli con i database di vulnerabilità e problemi noti. Le scansioni possono essere attivate e programmate automaticamente, aiutando a prevenire l’aggiunta di elementi dannosi durante lo sviluppo e la produzione. I rapporti di audit generati automaticamente possono essere monitorati rispetto a parametri standard, oppure un’organizzazione può stabilire i propri standard di sicurezza, utili in ambienti in cui vengono elaborati dati altamente sensibili. La connettività tra le funzioni di sicurezza dei container e il software di orchestrazione significa che i container sospetti possono essere isolati o chiusi immediatamente, le autorizzazioni non sicure revocate e l’accesso degli utenti sospeso. Con le connessioni API ai firewall locali e agli endpoint VPN, è possibile isolare interi ambienti o sottoreti o bloccare il traffico ai confini della rete. Parola d’ordine Il machine learning può ridurre il rischio di violazione dei dati negli ambienti containerizzati lavorando su diversi livelli. È possibile effettuare il rilevamento di anomalie, la scansione delle risorse e la segnalazione di potenziali configurazioni errate; inoltre, qualsiasi grado di avviso o miglioramento automatizzato è relativamente semplice da attuare. Le possibilità di trasformazione delle applicazioni basate su container possono essere affrontate senza i problemi di sicurezza che hanno impedito ad alcuni di esplorare, sviluppare ed eseguire applicazioni basate su microservizi. I vantaggi delle tecnologie cloud-native possono essere sfruttati senza compromettere gli standard di sicurezza esistenti, anche nei settori ad alto rischio. Leggi di più su www.artificialintelligence-news.com

La corsa all’intelligenza artificiale è tutt’altro che finita

La corsa all'intelligenza artificiale è tutt'altro che finita

L’Europa non ha intenzione di giocare a rimpiattino nella corsa globale all’intelligenza artificiale, ha dichiarato la Presidente della Commissione europea Ursula von der Leyen in occasione dell’AI Action Summit di Parigi. Sebbene gli Stati Uniti e la Cina siano spesso considerati i leader, la von der Leyen ha sottolineato che la corsa all’IA “è tutt’altro che finita” e che l’Europa ha le carte in regola per ritagliarsi un ruolo di primo piano. “Questo è il terzo summit sulla sicurezza dell’IA in poco più di un anno”, ha osservato von der Leyen. “Nello stesso periodo sono state rilasciate tre nuove generazioni di modelli di IA sempre più potenti. Alcuni prevedono modelli che si avvicineranno al ragionamento umano entro un anno” La Presidente della Commissione europea ha definito il tono dell’evento contrapponendo le basi gettate nei precedenti vertici all’urgenza di questo. “I vertici precedenti si sono concentrati sulla creazione delle basi per la sicurezza dell’IA. Insieme, abbiamo costruito un consenso condiviso sul fatto che l’IA sarà sicura, promuoverà i nostri valori e porterà benefici all’umanità. Ma questo vertice si concentra sull’azione. Ed è proprio quello di cui abbiamo bisogno in questo momento” Mentre il mondo è testimone del potere dirompente dell’IA, von der Leyen ha esortato l’Europa a “formulare una visione di dove vogliamo che l’IA ci porti, come società e come umanità” La crescente adozione, “nei settori chiave della nostra economia e per le principali sfide del nostro tempo”, rappresenta un’opportunità d’oro per il continente, ha affermato la von der Leyen. La necessità di un approccio europeo alla corsa all’IA Von der Leyen ha respinto l’idea che l’Europa sia rimasta indietro rispetto ai suoi concorrenti globali. “Troppo spesso sento dire che l’Europa è in ritardo nella corsa, mentre gli Stati Uniti e la Cina sono già avanti. Non sono d’accordo”, ha dichiarato. “La frontiera è in continuo movimento. E la leadership globale è ancora in palio” Invece di replicare ciò che fanno le altre regioni, l’autrice ha invitato a raddoppiare i punti di forza unici dell’Europa per definire l’approccio specifico del continente all’IA. “Troppo spesso ho sentito dire che dovremmo replicare ciò che fanno gli altri e rincorrere i loro punti di forza”, ha affermato. “Credo invece che dovremmo investire in ciò che sappiamo fare meglio e basarci sui nostri punti di forza qui in Europa, che sono la nostra scienza e la nostra tecnologia che abbiamo dato al mondo” Von der Leyen ha definito tre pilastri del cosiddetto “marchio europeo di IA” che lo contraddistingue: 1) concentrarsi su applicazioni ad alta complessità e specifiche per il settore, 2) adottare un approccio cooperativo e collaborativo all’innovazione e 3) abbracciare i principi dell’open-source. “Questo summit dimostra che esiste un marchio europeo distinto di IA”, ha affermato. “Sta già guidando l’innovazione e l’adozione. E sta accelerando” Accelerazione dell’innovazione: Fabbriche e gigafabbriche di IA Per mantenere il suo vantaggio competitivo, l’Europa deve accelerare l’innovazione nel campo dell’IA, ha sottolineato la von der Leyen. Una componente chiave di questa strategia risiede nella sua infrastruttura di calcolo. L’Europa vanta già alcuni dei supercomputer più veloci al mondo, che ora vengono sfruttati attraverso la creazione di “fabbriche di AI” “In pochi mesi abbiamo creato un record di 12 fabbriche di AI”, ha rivelato von der Leyen. “E vi stiamo investendo 10 miliardi di euro. Non è una promessa: sta accadendo proprio ora, ed è il più grande investimento pubblico per l’IA al mondo, che sbloccherà oltre dieci volte più investimenti privati” Oltre a questi passi iniziali, la von der Leyen ha presentato un’iniziativa ancora più ambiziosa. Le gigafabbriche di IA, costruite sulla scala del Large Hadron Collider del CERN, forniranno l’infrastruttura necessaria per addestrare i sistemi di IA su scale senza precedenti. L’obiettivo è promuovere la collaborazione tra ricercatori, imprenditori e leader del settore. “Forniamo l’infrastruttura per una grande potenza di calcolo”, ha spiegato von der Leyen. “I talenti di tutto il mondo sono i benvenuti. Le industrie potranno collaborare e federare i loro dati” L’etica cooperativa alla base delle gigafabbriche di IA fa parte di una più ampia spinta europea a bilanciare la concorrenza con la collaborazione. “L’IA ha bisogno di concorrenza ma anche di collaborazione”, ha sottolineato l’autrice, evidenziando che l’iniziativa fungerà da “spazio sicuro” per questi sforzi di cooperazione. Creare fiducia con l’AI Act La von der Leyen ha ribadito l’impegno dell’Europa a rendere l’IA sicura e affidabile. La von der Leyen ha indicato l’AI Act dell’UE come la pietra angolare di questa strategia, inquadrandolo come un quadro armonizzato che sostituirà le frammentate normative nazionali degli Stati membri. “L’AI Act [ fornirà ] un unico insieme di norme di sicurezza in tutta l’Unione Europea – 450 milioni di persone – invece di 27 diverse normative nazionali”, ha affermato l’autrice, prima di riconoscere le preoccupazioni delle aziende riguardo alla complessità delle normative. “Allo stesso tempo, lo so, dobbiamo rendere le cose più semplici, dobbiamo ridurre la burocrazia. E lo faremo” 200 miliardi di euro per rimanere nella corsa all’intelligenza artificiale Il finanziamento di piani così ambiziosi richiede naturalmente risorse significative. Von der Leyen ha elogiato l’Iniziativa dei Campioni dell’AI dell’UE, lanciata di recente, che ha già promesso 150 miliardi di euro da parte di fornitori, investitori e industria. Durante il suo discorso al summit, la von der Leyen ha annunciato l’iniziativa complementare InvestAI della Commissione, che porterà altri 50 miliardi di euro. Complessivamente, il risultato è la mobilitazione di 200 miliardi di euro in investimenti pubblici e privati nell’IA. “Ci concentreremo sulle applicazioni industriali e mission-critical”, ha dichiarato. “Sarà il più grande partenariato pubblico-privato al mondo per lo sviluppo di un’IA affidabile” L’IA etica è una responsabilità globale La Von der Leyen ha concluso il suo discorso inquadrando le ambizioni europee in materia di IA in una prospettiva più ampia e umanitaria, sostenendo che l’IA etica è una responsabilità globale. “L’IA cooperativa può essere attraente ben oltre l’Europa, anche per i nostri partner del Sud del mondo”, ha dichiarato, lanciando un messaggio di inclusione. Von der Leyen ha espresso il suo pieno sostegno alla

Elon Musk avrebbe fatto un’offerta di 97,4 miliardi di dollari per rilevare OpenAI – e Sam Altman l’ha rifiutata

Elon Musk avrebbe fatto un'offerta di 97,4 miliardi di dollari per rilevare OpenAI - e Sam Altman l'ha rifiutata

Elon Musk ha appena iniziato una nuova battaglia con il CEO di OpenAI Sam Altman. Musk e un gruppo di investitori stanno facendo un’offerta da 97,4 miliardi di dollari per acquistare il ramo non profit di OpenAI, inasprendo la lotta per il futuro dell’azienda di intelligenza artificiale, come riporta il Wall Street Journal. Il consorzio comprende Valor Equity Partners, Baron Capital, Atreides Management, Vy Capital e 8VC, una società di venture guidata dal co-fondatore di Palantir Joe Lonsdale. Anche Ari Emanuel, CEO della società hollywoodiana Endeavor, starebbe sostenendo l’offerta attraverso il suo fondo di investimento. La startup di Musk che si occupa di AI, xAI, avrebbe appoggiato l’offerta e potrebbe fondersi con OpenAI se l’affare andasse in porto. L’avvocato di Musk, Marc Toberoff, ha presentato l’offerta al consiglio di amministrazione di OpenAI lunedì. L’offerta non richiesta arriva mentre OpenAI è in trattativa per raccogliere 40 miliardi di dollari di nuovi finanziamenti, raddoppiando quasi la sua valutazione a 300 miliardi di dollari rispetto a soli quattro mesi fa, secondo il New York Times. Tuttavia, nonostante l’impennata della valutazione, OpenAI non è redditizia e deve affrontare costi immensi legati all’infrastruttura dell’intelligenza artificiale e alla potenza di calcolo. OpenAI ha anche appena speso molto per la sua prima pubblicità al Super Bowl con uno spot di 60 secondi. I rappresentanti di Musk e Altman non hanno risposto immediatamente a una richiesta di commento. L’offerta di Musk aggiunge benzina alla battaglia legale in corso con Altman sulla direzione di OpenAI. Musk, co-fondatore di OpenAI, ha lasciato la società nel 2019. Da allora, Altman ha trasformato OpenAI in un’azienda a scopo di lucro, ottenendo miliardi da Microsoft e portando avanti un progetto di infrastruttura AI da 500 miliardi di dollari chiamato Stargate. Musk ha accusato OpenAI di aver tradito le sue origini no-profit e di aver colluso con Microsoft per dominare lo sviluppo dell’IA. “È ora che OpenAI torni a essere la forza open-source e orientata alla sicurezza che era un tempo”, ha dichiarato Musk in una dichiarazione fornita da Toberoff e rilasciata al Wall Street Journal. “Ci assicureremo che ciò accada”

Divieto di DeepSeek? Il trasferimento di dati dalla Cina aumenta le preoccupazioni per la sicurezza

Divieto di DeepSeek? Il trasferimento di dati dalla Cina aumenta le preoccupazioni per la sicurezza

I legislatori statunitensi stanno spingendo per un divieto di DeepSeek dopo che i ricercatori di sicurezza hanno scoperto che l’app trasferisce i dati degli utenti a una società statale vietata. DeepSeek, praticamente sconosciuta solo poche settimane fa, ha conquistato il mondo della tecnologia, ottenendo il plauso globale per le sue prestazioni all’avanguardia e scatenando al contempo dibattiti che ricordano la saga di TikTok. La sua ascesa è stata alimentata in parte dal suo modello di business: a differenza di molte delle sue controparti americane, tra cui OpenAI e Google, DeepSeek ha offerto i suoi poteri avanzati gratuitamente. Tuttavia, sono state sollevate preoccupazioni sulle pratiche di raccolta dati di DeepSeek ed è stata avviata un’indagine da parte di Microsoft e OpenAI su una violazione del sistema di quest’ultima da parte di un gruppo presumibilmente legato alla startup cinese di AI. Una minaccia per il dominio dell’IA negli Stati Uniti Le sorprendenti capacità di DeepSeek l’hanno resa, nel giro di poche settimane, un concorrente importante per gli stalloni americani dell’IA come ChatGPT di OpenAI e Google Gemini. Tuttavia, accanto alle prodezze dell’applicazione, sono emerse preoccupazioni per i presunti legami con il Partito Comunista Cinese (PCC). Secondo alcuni ricercatori di sicurezza, è stato scoperto che un codice nascosto all’interno dell’intelligenza artificiale di DeepSeek trasmette i dati degli utenti a China Mobile, una società di telecomunicazioni di proprietà statale vietata negli Stati Uniti. La politica sulla privacy di DeepSeek consente la raccolta di dati come indirizzi IP, informazioni sui dispositivi e, cosa più allarmante, persino i modelli di battitura dei tasti. Per tua informazione, @deepseek_ai raccoglie il tuo IP, le tue sequenze di tasti, le informazioni sui dispositivi, ecc. ecc. e li archivia in Cina, dove tutti questi dati sono vulnerabili alle requisizioni arbitrarie dello Stato 🇨🇳. Dalla loro stessa informativa sulla privacy: pic.twitter.com/wueJokHcn3 – Luke de Pulford (@lukedepulford) 27 gennaio 2025 Queste scoperte hanno portato a sforzi bipartisan nel Congresso degli Stati Uniti per limitare l’influenza di DeepSeek, con i legislatori che si affannano a proteggere i dati sensibili dalla potenziale sorveglianza della CCP. I rappresentanti. Darin LaHood (R-IL) e Josh Gottheimer (D-NJ) stanno guidando gli sforzi per introdurre una legislazione che proibisca l’installazione di DeepSeek su tutti i dispositivi in dotazione al governo. DeepSeek raccoglie i dati sensibili dei cittadini americani e li invia direttamente al Partito Comunista Cinese – una minaccia per la sicurezza nazionale. Ecco perché ho presentato una legge bipartisan per vietare immediatamente DeepSeek da tutti i dispositivi del governo americano.https://t.co/bNlGZogu4O – Rep Josh Gottheimer (@RepJoshG) 6 febbraio 2025 Diverse agenzie federali, tra cui la NASA e la Marina degli Stati Uniti, hanno già emesso un divieto preventivo su DeepSeek. Allo stesso modo, anche lo stato del Texas ha introdotto delle restrizioni. Il potenziale divieto di DeepSeek è un redux di TikTok? La controversia che circonda DeepSeek è simile ai dibattiti su TikTok, l’app di social video di proprietà dell’azienda cinese ByteDance. TikTok è tuttora sotto tiro per le accuse di accesso ai dati degli utenti da parte del PCC, anche se le prove definitive non si sono ancora materializzate. Al contrario, il caso di DeepSeek comporta prove evidenti, come rivelato dagli investigatori di cybersicurezza che hanno identificato le trasmissioni di dati non autorizzate dell’app. Sebbene alcuni possano dire che DeepSeek riecheggia la controversia di TikTok, gli esperti di sicurezza sostengono che rappresenta una minaccia molto più grave e documentata. I legislatori di tutto il mondo stanno prendendo nota. Oltre alle proposte degli Stati Uniti, DeepSeek ha già subito il divieto di accesso ai sistemi governativi in paesi come Australia, Corea del Sud e Italia. L’intelligenza artificiale diventa un campo di battaglia geopolitico Le preoccupazioni su DeepSeek esemplificano come l’IA sia diventata un punto di scontro geopolitico tra le superpotenze globali, in particolare tra Stati Uniti e Cina. Le aziende americane di IA, come OpenAI, hanno goduto di una posizione dominante negli ultimi anni, ma le aziende cinesi hanno investito risorse per recuperare e, in alcuni casi, superare i loro concorrenti statunitensi. La crescita fulminea di DeepSeek ha messo in crisi questo equilibrio, non solo per i suoi modelli di intelligenza artificiale ma anche per la sua strategia di prezzo, che ha ridotto la concorrenza offrendo l’applicazione gratuitamente. Ciò fa sorgere la domanda se sia davvero “gratuita” o se il costo sia pagato in termini di perdita di privacy e sicurezza. Il coinvolgimento di China Mobile solleva ulteriori dubbi, viste le precedenti sanzioni e il divieto di accesso al mercato statunitense da parte dell’azienda statale di telecomunicazioni. I critici temono che i dati raccolti attraverso piattaforme come DeepSeek possano colmare le lacune delle attività di sorveglianza cinese o addirittura potenziali manipolazioni economiche. Si prospetta un divieto di DeepSeek a livello nazionale Se la proposta di legge statunitense verrà approvata, potrebbe rappresentare il primo passo verso restrizioni a livello nazionale o un divieto assoluto di DeepSeek. Le tensioni geopolitiche tra Cina e Occidente continuano a influenzare le politiche sulle tecnologie avanzate e l’intelligenza artificiale sembra essere l’ultima arena di questa partita a scacchi in corso. Nel frattempo, è probabile che le richieste di regolamentare applicazioni come DeepSeek diventino sempre più forti. Le conversazioni sulla privacy dei dati, sulla sicurezza nazionale e sui limiti etici dello sviluppo dell’IA stanno diventando sempre più urgenti, mentre individui e organizzazioni di tutto il mondo navigano tra le promesse e le insidie degli strumenti di nuova generazione. L’ascesa di DeepSeek potrebbe aver scosso le gerarchie dell’IA, ma resta da vedere se riuscirà a mantenere il suo slancio di fronte alle crescenti spinte globali. Leggi di più su www.artificialintelligence-news.com

Lanciata una iniziativa francese per leader responsabili dell’IA

Lanciata una iniziativa francese per leader responsabili dell'IA

ESSEC Business School e Accenture hanno annunciato il lancio di una nuova iniziativa, “AI for Responsible Leadership”, che segna il 10° anniversario dell’istituzione del ruolo di cattedra presso ESSEC, intitolata ESSEC Accenture Strategic Business Analytics Chair. L’iniziativa mira a incoraggiare l’uso dell’intelligenza artificiale da parte dei leader in modi responsabili ed etici e che portino ad alti livelli di performance professionale. L’obiettivo è fornire ai leader attuali e futuri le competenze necessarie per affrontare le sfide del futuro: economiche, ambientali o sociali. Diverse organizzazioni sostengono l’iniziativa, tra cui istituzioni, aziende e gruppi specializzati, tra cui ESSEC Metalab for Data, Technology & Society e Accenture Research. Il direttore esecutivo dell’ESSEC Metalab, Abdelmounaim Derraz, ha parlato della collaborazione affermando: “Le materie tecniche continuano a scuotere le scuole di economia e l’IA ha aperto opportunità di collaborazione tra aziende partner, ricercatori e altri membri dell’ecosistema (studenti, think tank, associazioni [e] servizio pubblico)” ESSEC e Accenture mirano a integrare prospettive provenienti da diversi campi di competenza, un approccio che è il risultato della sperimentazione effettuata nel decennio di esistenza della cattedra. Gli elementi dell’iniziativa comprendono workshop e colloqui volti a promuovere lo scambio di conoscenze e metodi. Comprenderà anche un “barometro” per monitorare l’implementazione dell’IA e l’impatto complessivo sulla leadership responsabile. L’iniziativa si avvarrà di una rete di istituzioni e pubblicazioni accademiche e un Grand Prix annuale premierà i progetti che si concentrano ed esplorano il tema dell’IA e della leadership. Fabrice Marque, fondatore dell’iniziativa e attuale presidente di ESSEC Accenture Strategics Business Analytics, ha dichiarato: “Per anni abbiamo esplorato il potenziale dell’utilizzo dei dati e dell’intelligenza artificiale nelle organizzazioni. Le sinergie che abbiamo sviluppato con i nostri partner (Accenture, Accor, Dataiku, Engie, Eurofins, MSD, Orange) ci hanno permesso di valutare e testare soluzioni innovative prima di implementarle. “Con questa iniziativa stiamo compiendo un passo importante: riunire un ecosistema impegnato a trasformare in modo sostenibile il modo in cui i leader pensano, decidono e agiscono di fronte alle sfide di domani. La nostra ambizione è chiara: fare dell’IA una leva per le prestazioni, l’innovazione e la responsabilità dei leader […]” L’amministratore delegato di Accenture e sponsor della cattedra e dell’iniziativa ESSEC/Accenture, Aurélien Bouriot, ha dichiarato: “L’ecosistema beneficerà delle risorse messe a disposizione da Accenture e anche dei nostri dipendenti che parteciperanno” Laetitia Cailleteau, Managing Director di Accenture e leader di Responsible AI & Generative AI per l’Europa, ha sottolineato l’importanza che i futuri leader comprendano tutti gli aspetti dell’IA. “L’IA è un pilastro della trasformazione industriale in corso. I leader di domani devono comprendere gli aspetti tecnici, etici e umani e i rischi – e sapere come gestirli. In questo modo, saranno in grado di massimizzare la creazione di valore e di generare un impatto positivo per l’organizzazione, i suoi stakeholder e la società nel suo complesso” Leggi di più su www.artificialintelligence-news.com

ChatGPT acquisisce la capacità agent per la ricerca complessa

ChatGPT acquisisce la capacità agent per la ricerca complessa

OpenAI sta rilasciando una potente funzionalità agenziale che consente a ChatGPT di svolgere attività di ricerca complesse e in più fasi online. La funzione, chiamata Deep Research, secondo quanto riferito, riesce a realizzare in decine di minuti ciò che potrebbe richiedere ore o addirittura giorni a un ricercatore umano. OpenAI descrive Deep Research come una pietra miliare significativa nel suo percorso verso l’intelligenza artificiale generale (AGI). “La capacità di sintetizzare la conoscenza è un prerequisito per creare nuova conoscenza”, afferma OpenAI. “Per questo motivo, Deep Research segna un passo significativo verso il nostro obiettivo più ampio di sviluppare l’AGI” L’IA agenziale consente a ChatGPT di assistere le ricerche più complesse Deep Research consente a ChatGPT di trovare, analizzare e sintetizzare autonomamente le informazioni provenienti da centinaia di fonti online. Secondo OpenAI, con una semplice richiesta da parte dell’utente, lo strumento è in grado di fornire un rapporto completo, paragonabile ai risultati di un analista di ricerca. Attingendo le funzionalità da una variante del modello “o3” di OpenAI, l’obiettivo è quello di liberare gli utenti dalla raccolta di informazioni che richiede tempo e lavoro. Che si tratti di un’analisi competitiva delle piattaforme di streaming, di un’analisi politica informata o persino di raccomandazioni personalizzate per una nuova bicicletta da pendolare, Deep Research promette risultati precisi e affidabili. Inoltre, ogni risultato include citazioni complete e una documentazione trasparente che consente agli utenti di verificare i risultati con facilità. Lo strumento sembra particolarmente abile nello scoprire intuizioni di nicchia o non intuitive, il che lo rende una risorsa preziosa in settori come la finanza, la scienza, la politica e l’ingegneria. Ma OpenAI immagina che Deep Research possa essere utile anche per l’utente medio, ad esempio per gli acquirenti che cercano consigli iper-personalizzati o un prodotto specifico. le persone pubblicheranno molti esempi fantastici, ma eccone uno divertente: in questo momento sono in Giappone e sto cercando una vecchia NSX. ho passato ore a cercare senza successo quella perfetta. stavo per arrendermi e la deep research l’ha trovata. – Sam Altman (@sama) 3 febbraio 2025 Quest’ultima funzionalità agenziale funziona attraverso l’interfaccia utente di ChatGPT; gli utenti devono semplicemente selezionare l’opzione “Ricerca profonda” nel compositore di messaggi e digitare la loro domanda. È inoltre possibile caricare file di supporto o fogli di calcolo per creare un contesto aggiuntivo. Una volta avviata, l’intelligenza artificiale intraprende un rigoroso processo in più fasi, che può richiedere 5-30 minuti per essere completato. Una barra laterale fornisce aggiornamenti sulle azioni intraprese e sulle fonti consultate. Gli utenti possono continuare a svolgere altre attività e riceveranno una notifica quando il report finale sarà pronto. I risultati vengono presentati nella chat sotto forma di rapporti dettagliati e ben documentati. Nelle prossime settimane, OpenAI ha in programma di migliorare ulteriormente questi risultati incorporando immagini, visualizzazioni di dati e grafici per offrire ancora più chiarezza e contesto. A differenza di GPT-4o – che eccelle nelle conversazioni multimodali in tempo reale – Deep Research privilegia la profondità e il dettaglio. La sua capacità di citare rigorosamente le fonti e di fornire un’analisi completa la distingue, spostando l’attenzione da risposte veloci e sintetiche a approfondimenti ben documentati e di qualità. Costruito per le sfide del mondo reale Deep Rsearch si avvale di metodologie di formazione sofisticate, basate su attività di navigazione e ragionamento reali in diversi ambiti. Il suo modello è stato addestrato tramite l’apprendimento per rinforzo per pianificare ed eseguire autonomamente processi di ricerca in più fasi, compreso il backtracking e l’affinamento adattivo del suo approccio quando si rendono disponibili nuove informazioni. Lo strumento è in grado di sfogliare i file caricati dall’utente, di generare e iterare grafici utilizzando Python, di incorporare nelle risposte contenuti multimediali come immagini e pagine web generate e di citare frasi o passaggi esatti delle sue fonti. Il risultato di questa lunga formazione è un agente altamente capace di affrontare i complessi problemi del mondo reale. OpenAI ha valutato Deep Research attraverso un’ampia serie di esami di livello esperto noti come “L’ultimo esame dell’umanità”. Gli esami – che comprendono oltre 3.000 domande che spaziano dalla missilistica alla linguistica, dall’ecologia ai classici – mettono alla prova la competenza di un’intelligenza artificiale nel risolvere problemi di varia natura. I risultati sono stati impressionanti: il modello ha raggiunto un’accuratezza record del 26,6% in tutti questi ambiti: GPT-4o: 3.3% Grok-2: 3,8% Claude 3.5 Sonnet: 4.3% OpenAI o1: 9,1% DeepSeek-R1: 9,4% Ricerca profonda: 26.6% (con strumenti Python di navigazione) Deep Research ha anche raggiunto una nuova performance all’avanguardia nel benchmark GAIA, che valuta i modelli di IA su domande del mondo reale che richiedono capacità di ragionamento, fluidità multimodale e abilità nell’uso degli strumenti. Deep Research ha raggiunto la vetta della classifica con un punteggio del 72,57%. Limiti e sfide Sebbene la capacità dell’intelligenza artificiale agenziale di Deep Research in ChatGPT rappresenti un coraggioso passo avanti, OpenAI riconosce che la tecnologia è ancora nelle sue fasi iniziali e presenta dei limiti. Secondo OpenAI, il sistema occasionalmente “allucina” i fatti o offre inferenze errate, anche se a un tasso notevolmente ridotto rispetto ai modelli GPT esistenti. Inoltre, deve fare i conti con la difficoltà di distinguere tra fonti autorevoli e contenuti speculativi e fatica a calibrare i suoi livelli di fiducia, mostrando spesso un’eccessiva sicurezza per risultati potenzialmente incerti. Anche piccoli errori di formattazione nei rapporti e nelle citazioni, così come ritardi nell’avvio delle attività, potrebbero frustrare gli utenti iniziali. OpenAI afferma che questi problemi dovrebbero migliorare con il tempo, grazie a un maggiore utilizzo e a perfezionamenti iterativi. OpenAI sta introducendo la funzionalità gradualmente, a partire dagli utenti Pro, che avranno accesso a un massimo di 100 query al mese. Seguiranno i livelli Plus e Team, mentre l’accesso Enterprise arriverà successivamente. I residenti nel Regno Unito, in Svizzera e nello Spazio Economico Europeo non sono ancora in grado di accedere a questa funzione, ma OpenAI afferma che sta lavorando per estendere il rollout a queste regioni. Nelle prossime settimane, OpenAI espanderà la funzione alle piattaforme mobile e desktop di ChatGPT. La visione a lungo termine prevede

Sfatare 5 affermazioni sulle capacità di DeepSeek, dai costi ai rischi per la sicurezza

Sfatare 5 affermazioni sulle capacità di DeepSeek, dai costi ai rischi per la sicurezza

Il modello dell’azienda di intelligenza artificiale DeepSeek viene presentato come la risposta cinese all’OpenAI, che sembra avergettato nello scompiglio la Silicon Valley e Wall Street, spazzando via 600 miliardi di dollari di market cap di Nvidia in un solo giorno. Ma mentre alcuni dipingono DeepSeek come un gigante dell’intelligenza artificiale pronto a sconvolgere il settore, la realtà delle sue capacità – e le vere dinamiche competitive – sono molto meno drammatiche, secondo le fonti. Ecco un’analisi più approfondita delle principali affermazioni su DeepSeek e del perché gli esperti dicono che non reggono. Affermazione: DeepSeek è molto più economico di altri modelli Gran parte del dibattito si è concentrato sui costi inferiori di DeepSeek. DeepSeek ha recentemente rilasciato il suo modello R1 open-source, a quanto si dice a una frazione del costo di formazione, nonostante sia vincolato dalla mancanza di accesso ai chip AI di fascia alta di Nvidia, grazie alle politiche statunitensi volte a rallentare i progressi della Cina. A dicembre l’azienda ha dichiarato che l’addestramento del suo modello V3 è costato solo 6 milioni di dollari, una cifra sbalorditiva se paragonata agli oltre 100 milioni di dollari spesi da OpenAI per il GPT-4. I costi di addestramento potrebbero essere inferiori a quelli degli Stati Uniti, ma i costi reali iniziano ad accumularsi quando i modelli funzionano in scala. “Anche se l’addestramento potrebbe essere più economico, non cambia davvero le carte in tavola”, ha dichiarato Jason Snyder, Chief Technology Officer di Momentum Worldwide, spiegando che il costo maggiore dell’IA non è l’addestramento del modello, ma i costi di gestione su scala, noti anche come inferenza. Aziende come OpenAI e Meta spendono miliardi per gestire i loro modelli, un costo che anche DeepSeek dovrà affrontare. Senza l’accesso della Cina alle GPU Nvidia di fascia alta, DeepSeek si affida ad alternative locali come quelle di Huawei, che aiutano a ridurre i costi di formazione, ha sottolineato Snyder. Affermazione: R1 è potente quanto GPT-4 Nonostante l’entusiasmo, DeepSeek non ha fatto un grande passo avanti nell’innovazione. Secondo Snyder, il modello è stato ottimizzato per ottenere prestazioni sufficientemente buone, non risultati all’avanguardia. Le prestazioni di R1 sono impressionanti, ma non sono all’altezza delle capacità di GPT-4. Secondo Snyder, il modello di DeepSeek è più in linea con GPT-3.5, non con i modelli avanzati GPT-4 turbo o Gemini 1.5. “Dato che è open-source, la gente pensa che sia una versione gratuita di GPT-4”, ha detto Snyder. “È buona, ma non cambia le carte in tavola” Affermazione: gli Stati Uniti perdono la loro supremazia nell’intelligenza artificiale a favore della Cina Non solo per i motivi di cui sopra, ma anche se R1 può ottenere buoni risultati in alcuni benchmark, non significa che gli Stati Uniti abbiano perso la loro supremazia nel campo dell’intelligenza artificiale. Secondo Snyder, gli Stati Uniti sono leader nella ricerca all’avanguardia, nell’implementazione di modelli e nell’adozione da parte delle aziende. La Cina, nonostante i passi avanti compiuti, è ancora indietro quando si tratta di AI di frontiera (i modelli di AI più avanzati) e di AGI (intelligenza artificiale generale). “La Cina sta puntando sull’adozione dell’open-source per colmare il divario, ma non ha preso il comando”, ha detto Snyder. Zack Kass, consulente AI ed ex responsabile go-to-market di OpenAI, spiega che possedere una tecnologia di frontiera è solo una parte dell’equazione. “È l’adozione della tecnologia che in ultima analisi definisce il successo economico”, ha affermato, indicando la rapida diffusione di ChatGPT da parte di OpenAI come un esempio lampante. Rivendicazione: DeepSeek livella il campo di gioco dell’IA In molti stanno pubblicizzando il modello open-source di DeepSeek come una forza democratizzante nell’IA, sostenendo che livella il campo di gioco. Ma, secondo gli esperti, la realtà è più complessa. Se da un lato l’IA open-source apre le porte alle startup e alle aziende più piccole (certo, potremmo vedere alcune interessanti aziende sfidanti che propongono modi di utilizzare l’IA gen che non abbiamo ancora pensato), dall’altro non fa molto per spostare il potere dalle grandi aziende tecnologiche. La concorrenza nel settore dell’IA non è guidata solo dall’accesso ai modelli, ma anche dalla potenza di calcolo, dai dati e dalle reti di distribuzione, risorse che aziende come Microsoft e Amazon controllano in abbondanza. “Il vero vantaggio competitivo appartiene ancora ad aziende come Microsoft e Amazon, che controllano enormi set di dati per la messa a punto, metodi proprietari di apprendimento per rinforzo e canali di distribuzione”, ha affermato Snyder. Affermazione: R1 pone rischi per la sicurezza nazionale C’è stata una corsa a etichettare R1 di DeepSeek come una minaccia per la sicurezza nazionale, con il timore che possa essere utilizzato come arma dal governo cinese. Ma gli esperti avvertono che la vera preoccupazione risiede nell’app creata da DeepSeek, non nel modello in sé (DeepSeek ha detronizzato ChatGPT nell’App Store di Apple negli Stati Uniti la scorsa settimana). “L’app in sé potrebbe essere un vaso di Pandora per i consumatori occidentali”, ha affermato Kass, facendo un paragone con le app cinesi come TikTok, che in passato hanno destato allarme per la sicurezza nazionale. Ma R1 può esistere indipendentemente dall’app e le aziende(Perplexity ha reso disponibile R1 per aiutare gli utenti premium nelle ricerche sul web) possono utilizzare i modelli per i loro scopi. Leggi di più su www.adweek.com

LinkedIn ha chiuso i profili dei collaboratori AI creati dall’azienda israeliana di AI MarkeTeam

LinkedIn ha chiuso i profili dei collaboratori AI creati dall'azienda israeliana di AI MarkeTeam

La startup MarkeTeam, che ha raccolto un finanziamento di 5 milioni di dollari, è specializzata nell’utilizzo di agenti AI per replicare le attività di marketing delle piccole e medie imprese. Un anno fa, l’azienda ha creato i profili LinkedIn dei suoi cinque agenti per mostrare le loro capacità e attirare l’attenzione di potenziali aziende interessate ad assumere i suoi talenti AI. Questa settimana, LinkedIn ha rimosso tutti e cinque i profili dei suoi “colleghi” generati dall’intelligenza artificiale , citando violazioni della policy. MarkeTeam vede in questa mossa un più ampio scollamento tra le politiche delle piattaforme e il ruolo in rapida evoluzione dell’IA sul posto di lavoro. “La rimozione dei profili dei nostri agenti AI da LinkedIn mette in evidenza una disconnessione tra le politiche delle piattaforme e la realtà del futuro del lavoro”, ha dichiarato ad ADWEEK Naama Manova-Twito, CEO e cofondatrice di MarkeTeam. “Mentre le aziende assumono e lavorano attivamente con companion AI e i leader del settore dichiarano apertamente la trasformazione verso una forza lavoro agenziale, le reti professionali sono ancora alle prese con il modo in cui rappresentare questa evoluzione sul posto di lavoro” La politica di LinkedIn non consente “profili o entità false” e mette in guardia le persone dal pubblicare “informazioni fuorvianti o ingannevoli su se stessi, sulla propria attività, sulle proprie qualifiche, esperienze lavorative, affiliazioni o risultati” MarkeTeam impiega sia umani che agenti AI – l’azienda ha attualmente sette dipendenti umani e cinque agenti AI – e utilizza questi lavoratori digitali per svolgere una serie di funzioni di marketing, tra cui content marketing, SEO e gestione del marchio. L’ascesa degli agenti AI Nell’ultimo anno i dipendenti AI di MarkeTeam hanno gestito i profili LinkedIn con i loro curriculum e alcuni sono stati anche attivamente ricercati. Le immagini dei loro profili LinkedIn mostravano il badge “#OpenToWork”, una caratteristica che segnala ai loro contatti che stanno cercando nuove opportunità di lavoro. I primi dipendenti AI di MarkeTeam a essere rimossi sono stati Ella e Jane, seguiti da Daniel, Ted e Maya. Ella e Jane hanno generato 200.000 impressioni e click a due cifre, secondo Manova-Twito, che ha sottolineato come il divieto di LinkedIn su questi profili non abbia influito sui servizi della startup. “Questi agenti AI hanno avuto molto successo su LinkedIn”, ha dichiarato Manova-Twito. “Hanno attirato l’attenzione dei responsabili delle assunzioni sulla piattaforma e su altri siti. Avevano centinaia di connessioni e si relazionavano quotidianamente con le persone in tempo reale. Eppure, dopo un anno, i profili sono stati improvvisamente eliminati” LinkedIn non ha risposto a una richiesta di commento sugli avatar AI di MarkeTeam. Gli agenti di intelligenza artificiale sono diventati l’ultimo giocattolo nuovo e scintillante dell’industria del marketing, con un’ondata di startup che promettono soluzioni per gestire autonomamente qualsiasi cosa, dalla prenotazione delle prenotazioni alla negoziazione di accordi commerciali. Un’indagine condotta da Salesforce lo scorso anno ha rilevato che il 77% dei lavoratori è disposto a fidarsi dell’IA sul posto di lavoro. Di questi, il 26% afferma che si fiderà dell’IA per operare in modo autonomo entro i prossimi tre anni, mentre il 41% prevede che ciò avverrà tra tre o più anni. Nel frattempo, alcune persone hanno abbracciato completamente i colleghi dotati di intelligenza artificiale. Michael Payne, senior research recruiter di Amazon Web Services, ha dichiarato a WorkLife di considerare l’IA come “il mio collega in più, il mio amico” Nonostante la crescente presenza di account generati dall’intelligenza artificiale, la politica di LinkedIn è diversa da quella di Instagram e TikTok, altre due piattaforme che hanno visto un aumento degli account guidati dall’intelligenza artificiale. Sebbene Instagram non abbia una politica specifica per gli influencer AI, richiede che i contenuti AI siano etichettati con “Info AI” E le linee guida della community di TikTok stabiliscono che gli influencer AI devono essere esplicitamente etichettati come tali, assicurando la trasparenza per gli utenti che si impegnano con i contenuti AI. “Questo non fa arrabbiare nessuno, ma lo fa su LinkedIn”, ha detto Manova-Twito, sottolineando che l’IA sostituisce alcuni lavori umani. “Il panorama deve adattarsi al fatto che questo sta accadendo e che sempre più agenti AI diventeranno una forza lavoro legittima”, ha aggiunto Manova-Twito. Leggi di più su www.adweek.com

Mark Zuckerberg, CEO di Meta, elogia Trump durante la telefonata per il quarto trimestre, mentre i ricavi aumentano

Mark Zuckerberg, CEO di Meta, elogia Trump durante la telefonata per il quarto trimestre, mentre i ricavi aumentano

I numeri 164,5 miliardi di dollari : il fatturato di Meta per il 2024, in crescita del 22% rispetto al 2023. Il fatturato del quarto trimestre è stato di 48,39 miliardi di dollari, con un aumento del 21% rispetto all’anno precedente. 3.35 miliardi – Persone attive quotidianamente sulla famiglia di applicazioni Meta nel dicembre 2024, con un aumento del 5% rispetto allo stesso mese del 2023. Le impressioni pubblicitarie fornite dalla famiglia di applicazioni Meta sono aumentate del 6% rispetto all’anno precedente nel quarto trimestre e dell’11% rispetto all’anno precedente per l’intero anno 2024. Il prezzo medio per annuncio di Meta è aumentato del 14% rispetto all’anno precedente nel quarto trimestre e del 10% rispetto all’anno precedente per gli interi 12 mesi. Il discorso del watercooler Il CEO di Meta, Mark Zuckerberg, ha parlato delle “centinaia di miliardi” che l’azienda intende investire nell’infrastruttura di intelligenza artificiale nel suo discorso di apertura durante la telefonata di presentazione degli utili dell’azienda, aggiungendo che Meta ha un piano per accelerare le sue iniziative di intelligenza artificiale nei prossimi anni. Ha accennato alla nuova concorrenza della cinese DeepSeek e al fatto che Meta non ne ha ancora compreso l’impatto. “Ci sono una serie di cose nuove che (DeepSeek) ha fatto e che credo stiamo ancora digerendo”, ha detto Zuckerberg. “Ci sono una serie di progressi che hanno fatto e che speriamo di implementare nei nostri sistemi” Dopo l’”anno dell’efficienza” di Zuckerberg per la riduzione dei costi nel 2023, che ha comportato pesanti licenziamenti, la società madre di Facebook, Instagram e WhatsApp si è data da fare con le assunzioni per tutto il 2024. Meta conta attualmente 74.067 dipendenti, con un aumento del 10% rispetto allo stesso trimestre dell’anno scorso. All’inizio di questo mese l’azienda ha annunciato che avrebbe tagliato il 5% della sua forza lavoro in una serie di licenziamenti basati sui risultati, ma la notizia è arrivata dopo la fine del periodo. Infine, la recente decisione di Meta di eliminare il fact-checking di terze parti ha suscitato critiche, ma il direttore finanziario Susan Li ha dichiarato che non c’è stato “alcun impatto apprezzabile sulla spesa degli inserzionisti” Le citazioni chiave Zuckerberg si è assicurato di adulare il Presidente Donald Trump, continuando una recente tendenza di azioni che sembrano destinate ad accattivarsi il favore dell’amministrazione Trump. “Questo sarà un anno importante per ridefinire il nostro rapporto con i governi”, ha dichiarato durante la telefonata. “Ora abbiamo un’amministrazione statunitense che è orgogliosa delle imprese americane e si concentra sulla vittoria” Mercoledì scorso, in concomitanza con la pubblicazione dei risultati di Meta, il New York Times ha riportato che l’azienda ha accettato di pagare 25 milioni di dollari a Trump per risolvere una causa sulla sospensione dei suoi account in seguito alla violazione del Campidoglio degli Stati Uniti del 6 gennaio 2021. Leggi di più su www.adweek.com