Google afferma che i difensori dovrebbero adottare strumenti di intelligenza artificiale avanzati per contribuire a interrompere questo ciclo estenuante. A sostegno di ciò, il gigante tecnologico ha oggi lanciato una nuova “AI Cyber Defense Initiative” e preso diversi impegni relativi all’AI in vista dell’imminente Conferenza sulla Sicurezza di Monaco (MSC), che inizia oggi, 16 febbraio.
L’annuncio arriva un giorno dopo che Microsoft e OpenAI hanno pubblicato ricerche sull’uso avversario di ChatGPT e preso impegni propri per supportare l’uso dell’AI in modo “sicuro e responsabile”. Con i leader governativi di tutto il mondo che si riuniscono per dibattere la politica di sicurezza internazionale all’MSC, è evidente che questi importanti attori dell’AI desiderano dimostrare la loro proattività in termini di cybersicurezza.
“La rivoluzione dell’AI è già in corso”, ha detto Google in un post sul blog oggi. “Siamo… entusiasti del potenziale dell’AI di risolvere sfide generazionali di sicurezza avvicinandoci a un mondo digitale sicuro, protetto e di fiducia”.
Indice dei contenuti
Google “pronta per l’AI”: nuovi strumenti e ricerca
A Monaco, si riuniranno più di 450 decision maker senior e leader di pensiero e di business per discutere temi che includono la tecnologia, la sicurezza transatlantica e l’ordine globale.
- “La tecnologia permea sempre più ogni aspetto del modo in cui stati, società e individui perseguono i propri interessi”, afferma l’MSC sul suo sito web, aggiungendo che la conferenza mira a far avanzare il dibattito sulla regolamentazione della tecnologia, la governance e l’uso “per promuovere la sicurezza inclusiva e la cooperazione globale”.
L’IA è indiscutibilmente in cima ai pensieri di molti leader globali e regolatori mentre cercano di non solo comprendere la tecnologia, ma anche di anticiparne l’uso da parte di attori malevoli.
- Mentre l’evento si svolge, Google si impegna ad investire in un’infrastruttura “pronta per l’IA”, rilasciare nuovi strumenti per i difensori e avviare nuove ricerche e formazioni sulla sicurezza dell’IA.
Oggi, l’azienda annuncia una nuova coorte “IA per la Cybersecurity” di 17 startup dagli Stati Uniti, dal Regno Unito e dall’Unione Europea nell’ambito del Programma di Crescita AI for Cybersecurity di Google for Startups.
- “Questo aiuterà a rafforzare l’ecosistema di cybersecurity transatlantico con strategie di internazionalizzazione, strumenti IA e le competenze per utilizzarli”, afferma l’azienda.
Google inoltre:
- espanderà il suo Programma di Seminari Google.org sulla Cybersecurity da 15 milioni di dollari per coprire tutta l’Europa e aiutare a formare professionisti della cybersecurity in comunità sottoservite.
- renderà open-source Magika, un nuovo strumento alimentato dall’IA volto ad aiutare i difensori attraverso l’identificazione del tipo di file, essenziale per rilevare malware. Google afferma che la piattaforma supera i metodi convenzionali di identificazione dei file, fornendo un aumento dell’accuratezza del 30% e una precisione fino al 95% superiore su contenuti come VBA, JavaScript e Powershell, spesso difficili da identificare.
- fornirà 2 milioni di dollari in sovvenzioni per la ricerca per sostenere iniziative di ricerca basate sull’IA presso l’Università di Chicago, la Carnegie Mellon University e la Stanford University, tra gli altri. L’obiettivo è migliorare la verifica del codice, approfondire la comprensione del ruolo dell’IA nell’offesa e nella difesa informatica e sviluppare modelli di linguaggio (LLM) più resistenti alle minacce.
Inoltre, Google fa riferimento al suo Secure AI Framework, lanciato lo scorso giugno, per aiutare le organizzazioni di tutto il mondo a collaborare sulle migliori pratiche per la sicurezza dell’IA.
- “Crediamo che le tecnologie di sicurezza dell’IA, proprio come altre tecnologie, debbano essere sicure per progettazione e per impostazione predefinita”, scrive l’azienda.
In definitiva, Google sottolinea che il mondo ha bisogno di investimenti mirati, di partenariati tra industria e governo e di “approcci regolatori efficaci” per aiutare a massimizzare il valore dell’IA limitando nel contempo il suo utilizzo da parte degli aggressori.
- “Le scelte di governance dell’IA fatte oggi possono cambiare il terreno nel cyberspazio in modi non intenzionali”, scrive l’azienda. “Le nostre società hanno bisogno di un approccio regolatorio equilibrato all’uso e all’adozione dell’IA per evitare un futuro in cui gli aggressori possono innovare ma i difensori non possono.”
Microsoft e OpenAI combattono l’uso malevolo dell’IA
Nel loro annuncio congiunto di questa settimana, Microsoft e OpenAI hanno notato che gli aggressori vedono sempre più l’IA come “un altro strumento di produttività”.
- In particolare, OpenAI ha dichiarato di aver terminato account associati a cinque attori di minaccia affiliati a stati provenienti dalla Cina, Iran, Corea del Nord e Russia. Questi gruppi hanno utilizzato ChatGPT per:
- debuggare codice e generare script
- creare contenuti probabilmente destinati a campagne di phishing
- tradurre documenti tecnici
- recuperare informazioni pubblicamente disponibili su vulnerabilità e su molteplici agenzie di intelligence
- ricercare modi comuni con cui il malware potrebbe evitare il rilevamento
- svolgere ricerche open-source su protocolli di comunicazione satellitare e tecnologia di imaging radar
Tuttavia, l’azienda ha fatto in fretta a sottolineare che “i nostri risultati mostrano che i nostri modelli offrono solo capacità limitate e incrementali per compiti di cybersecurity malevoli”.
Le due aziende si sono impegnate a garantire l’“uso sicuro e responsabile” delle tecnologie, inclusa ChatGPT.
Per Microsoft, questi principi includono:
- Identificare e agire contro l’uso malevolo da parte di attori di minaccia, come la disabilitazione di account o la terminazione dei servizi.
- Notificare ad altri fornitori di servizi IA e condividere dati pertinenti.
- Collaborare con altri stakeholder sull’uso dell’IA da parte di attori di minaccia.
- Informare il pubblico sull’uso rilevato dell’IA nei loro sistemi e sulle misure prese contro di essi.
In modo simile, OpenAI si impegna a:
- Monitorare e interrompere gli attori malevoli affiliati allo stato. Questo include determinare come gli attori malevoli interagiscono con la loro piattaforma e valutare le intenzioni più ampie.
- Lavorare e collaborare con l'”ecosistema IA”
- Fornire trasparenza pubblica sulla natura e l’estensione dell’uso dell’IA da parte di attori malevoli affiliati allo stato e sulle misure prese contro di loro.