Google, Microsoft e OpenAI: oggi tra Cybersecurity e AI nella MSC 2024

Foto dell'autore

Andrea Barbieri

 

Home > News feed > ICT News > Google, Microsoft e OpenAI: oggi tra Cybersecurity e AI nella MSC 2024

Google afferma che i difensori dovrebbero adottare strumenti di intelligenza artificiale avanzati per contribuire a interrompere questo ciclo estenuante. A sostegno di ciò, il gigante tecnologico ha oggi lanciato una nuova “AI Cyber Defense Initiative” e preso diversi impegni relativi all’AI in vista dell’imminente Conferenza sulla Sicurezza di Monaco (MSC), che inizia oggi, 16 febbraio.

L’annuncio arriva un giorno dopo che Microsoft e OpenAI hanno pubblicato ricerche sull’uso avversario di ChatGPT e preso impegni propri per supportare l’uso dell’AI in modo “sicuro e responsabile”. Con i leader governativi di tutto il mondo che si riuniscono per dibattere la politica di sicurezza internazionale all’MSC, è evidente che questi importanti attori dell’AI desiderano dimostrare la loro proattività in termini di cybersicurezza.

“La rivoluzione dell’AI è già in corso”, ha detto Google in un post sul blog oggi. “Siamo… entusiasti del potenziale dell’AI di risolvere sfide generazionali di sicurezza avvicinandoci a un mondo digitale sicuro, protetto e di fiducia”.

Google “pronta per l’AI”: nuovi strumenti e ricerca

A Monaco, si riuniranno più di 450 decision maker senior e leader di pensiero e di business per discutere temi che includono la tecnologia, la sicurezza transatlantica e l’ordine globale.

  • “La tecnologia permea sempre più ogni aspetto del modo in cui stati, società e individui perseguono i propri interessi”, afferma l’MSC sul suo sito web, aggiungendo che la conferenza mira a far avanzare il dibattito sulla regolamentazione della tecnologia, la governance e l’uso “per promuovere la sicurezza inclusiva e la cooperazione globale”.

L’IA è indiscutibilmente in cima ai pensieri di molti leader globali e regolatori mentre cercano di non solo comprendere la tecnologia, ma anche di anticiparne l’uso da parte di attori malevoli.

  • Mentre l’evento si svolge, Google si impegna ad investire in un’infrastruttura “pronta per l’IA”, rilasciare nuovi strumenti per i difensori e avviare nuove ricerche e formazioni sulla sicurezza dell’IA.

Oggi, l’azienda annuncia una nuova coorte “IA per la Cybersecurity” di 17 startup dagli Stati Uniti, dal Regno Unito e dall’Unione Europea nell’ambito del Programma di Crescita AI for Cybersecurity di Google for Startups.

  • “Questo aiuterà a rafforzare l’ecosistema di cybersecurity transatlantico con strategie di internazionalizzazione, strumenti IA e le competenze per utilizzarli”, afferma l’azienda.

Google inoltre:

  • espanderà il suo Programma di Seminari Google.org sulla Cybersecurity da 15 milioni di dollari per coprire tutta l’Europa e aiutare a formare professionisti della cybersecurity in comunità sottoservite.
  • renderà open-source Magika, un nuovo strumento alimentato dall’IA volto ad aiutare i difensori attraverso l’identificazione del tipo di file, essenziale per rilevare malware. Google afferma che la piattaforma supera i metodi convenzionali di identificazione dei file, fornendo un aumento dell’accuratezza del 30% e una precisione fino al 95% superiore su contenuti come VBA, JavaScript e Powershell, spesso difficili da identificare.
  • fornirà 2 milioni di dollari in sovvenzioni per la ricerca per sostenere iniziative di ricerca basate sull’IA presso l’Università di Chicago, la Carnegie Mellon University e la Stanford University, tra gli altri. L’obiettivo è migliorare la verifica del codice, approfondire la comprensione del ruolo dell’IA nell’offesa e nella difesa informatica e sviluppare modelli di linguaggio (LLM) più resistenti alle minacce.

Inoltre, Google fa riferimento al suo Secure AI Framework, lanciato lo scorso giugno, per aiutare le organizzazioni di tutto il mondo a collaborare sulle migliori pratiche per la sicurezza dell’IA.

  • “Crediamo che le tecnologie di sicurezza dell’IA, proprio come altre tecnologie, debbano essere sicure per progettazione e per impostazione predefinita”, scrive l’azienda.

In definitiva, Google sottolinea che il mondo ha bisogno di investimenti mirati, di partenariati tra industria e governo e di “approcci regolatori efficaci” per aiutare a massimizzare il valore dell’IA limitando nel contempo il suo utilizzo da parte degli aggressori.

  • “Le scelte di governance dell’IA fatte oggi possono cambiare il terreno nel cyberspazio in modi non intenzionali”, scrive l’azienda. “Le nostre società hanno bisogno di un approccio regolatorio equilibrato all’uso e all’adozione dell’IA per evitare un futuro in cui gli aggressori possono innovare ma i difensori non possono.”

Microsoft e OpenAI combattono l’uso malevolo dell’IA

Nel loro annuncio congiunto di questa settimana, Microsoft e OpenAI hanno notato che gli aggressori vedono sempre più l’IA come “un altro strumento di produttività”.

  • In particolare, OpenAI ha dichiarato di aver terminato account associati a cinque attori di minaccia affiliati a stati provenienti dalla Cina, Iran, Corea del Nord e Russia. Questi gruppi hanno utilizzato ChatGPT per:
    • debuggare codice e generare script
    • creare contenuti probabilmente destinati a campagne di phishing
    • tradurre documenti tecnici
    • recuperare informazioni pubblicamente disponibili su vulnerabilità e su molteplici agenzie di intelligence
    • ricercare modi comuni con cui il malware potrebbe evitare il rilevamento
    • svolgere ricerche open-source su protocolli di comunicazione satellitare e tecnologia di imaging radar

Tuttavia, l’azienda ha fatto in fretta a sottolineare che “i nostri risultati mostrano che i nostri modelli offrono solo capacità limitate e incrementali per compiti di cybersecurity malevoli”.

Le due aziende si sono impegnate a garantire l’“uso sicuro e responsabile” delle tecnologie, inclusa ChatGPT.

Per Microsoft, questi principi includono:

  • Identificare e agire contro l’uso malevolo da parte di attori di minaccia, come la disabilitazione di account o la terminazione dei servizi.
  • Notificare ad altri fornitori di servizi IA e condividere dati pertinenti.
  • Collaborare con altri stakeholder sull’uso dell’IA da parte di attori di minaccia.
  • Informare il pubblico sull’uso rilevato dell’IA nei loro sistemi e sulle misure prese contro di essi.

In modo simile, OpenAI si impegna a:

  • Monitorare e interrompere gli attori malevoli affiliati allo stato. Questo include determinare come gli attori malevoli interagiscono con la loro piattaforma e valutare le intenzioni più ampie.
  • Lavorare e collaborare con l'”ecosistema IA”
  • Fornire trasparenza pubblica sulla natura e l’estensione dell’uso dell’IA da parte di attori malevoli affiliati allo stato e sulle misure prese contro di loro.

Lascia un commento