Google, Microsoft e OpenAI: oggi tra Cybersecurity e AI nella MSC 2024

Foto dell'autore

Andrea Barbieri

 

Home > News feed > ICT News > Google, Microsoft e OpenAI: oggi tra Cybersecurity e AI nella MSC 2024

Google afferma che i difensori dovrebbero adottare strumenti di intelligenza artificiale avanzati per contribuire a interrompere questo ciclo estenuante. A sostegno di ciò, il gigante tecnologico ha oggi lanciato una nuova “AI Cyber Defense Initiative” e preso diversi impegni relativi all’AI in vista dell’imminente Conferenza sulla Sicurezza di Monaco (MSC), che inizia oggi, 16 febbraio.

L’annuncio arriva un giorno dopo che Microsoft e OpenAI hanno pubblicato ricerche sull’uso avversario di ChatGPT e preso impegni propri per supportare l’uso dell’AI in modo “sicuro e responsabile”. Con i leader governativi di tutto il mondo che si riuniscono per dibattere la politica di sicurezza internazionale all’MSC, è evidente che questi importanti attori dell’AI desiderano dimostrare la loro proattività in termini di cybersicurezza.

“La rivoluzione dell’AI è già in corso”, ha detto Google in un post sul blog oggi. “Siamo… entusiasti del potenziale dell’AI di risolvere sfide generazionali di sicurezza avvicinandoci a un mondo digitale sicuro, protetto e di fiducia”.

Google “pronta per l’AI”: nuovi strumenti e ricerca

A Monaco, si riuniranno più di 450 decision maker senior e leader di pensiero e di business per discutere temi che includono la tecnologia, la sicurezza transatlantica e l’ordine globale.

  • “La tecnologia permea sempre più ogni aspetto del modo in cui stati, società e individui perseguono i propri interessi”, afferma l’MSC sul suo sito web, aggiungendo che la conferenza mira a far avanzare il dibattito sulla regolamentazione della tecnologia, la governance e l’uso “per promuovere la sicurezza inclusiva e la cooperazione globale”.

L’IA è indiscutibilmente in cima ai pensieri di molti leader globali e regolatori mentre cercano di non solo comprendere la tecnologia, ma anche di anticiparne l’uso da parte di attori malevoli.

  • Mentre l’evento si svolge, Google si impegna ad investire in un’infrastruttura “pronta per l’IA”, rilasciare nuovi strumenti per i difensori e avviare nuove ricerche e formazioni sulla sicurezza dell’IA.

Oggi, l’azienda annuncia una nuova coorte “IA per la Cybersecurity” di 17 startup dagli Stati Uniti, dal Regno Unito e dall’Unione Europea nell’ambito del Programma di Crescita AI for Cybersecurity di Google for Startups.

  • “Questo aiuterà a rafforzare l’ecosistema di cybersecurity transatlantico con strategie di internazionalizzazione, strumenti IA e le competenze per utilizzarli”, afferma l’azienda.

Google inoltre:

  • espanderà il suo Programma di Seminari Google.org sulla Cybersecurity da 15 milioni di dollari per coprire tutta l’Europa e aiutare a formare professionisti della cybersecurity in comunità sottoservite.
  • renderà open-source Magika, un nuovo strumento alimentato dall’IA volto ad aiutare i difensori attraverso l’identificazione del tipo di file, essenziale per rilevare malware. Google afferma che la piattaforma supera i metodi convenzionali di identificazione dei file, fornendo un aumento dell’accuratezza del 30% e una precisione fino al 95% superiore su contenuti come VBA, JavaScript e Powershell, spesso difficili da identificare.
  • fornirà 2 milioni di dollari in sovvenzioni per la ricerca per sostenere iniziative di ricerca basate sull’IA presso l’Università di Chicago, la Carnegie Mellon University e la Stanford University, tra gli altri. L’obiettivo è migliorare la verifica del codice, approfondire la comprensione del ruolo dell’IA nell’offesa e nella difesa informatica e sviluppare modelli di linguaggio (LLM) più resistenti alle minacce.

Inoltre, Google fa riferimento al suo Secure AI Framework, lanciato lo scorso giugno, per aiutare le organizzazioni di tutto il mondo a collaborare sulle migliori pratiche per la sicurezza dell’IA.

  • “Crediamo che le tecnologie di sicurezza dell’IA, proprio come altre tecnologie, debbano essere sicure per progettazione e per impostazione predefinita”, scrive l’azienda.

In definitiva, Google sottolinea che il mondo ha bisogno di investimenti mirati, di partenariati tra industria e governo e di “approcci regolatori efficaci” per aiutare a massimizzare il valore dell’IA limitando nel contempo il suo utilizzo da parte degli aggressori.

  • “Le scelte di governance dell’IA fatte oggi possono cambiare il terreno nel cyberspazio in modi non intenzionali”, scrive l’azienda. “Le nostre società hanno bisogno di un approccio regolatorio equilibrato all’uso e all’adozione dell’IA per evitare un futuro in cui gli aggressori possono innovare ma i difensori non possono.”

Microsoft e OpenAI combattono l’uso malevolo dell’IA

Nel loro annuncio congiunto di questa settimana, Microsoft e OpenAI hanno notato che gli aggressori vedono sempre più l’IA come “un altro strumento di produttività”.

  • In particolare, OpenAI ha dichiarato di aver terminato account associati a cinque attori di minaccia affiliati a stati provenienti dalla Cina, Iran, Corea del Nord e Russia. Questi gruppi hanno utilizzato ChatGPT per:
    • debuggare codice e generare script
    • creare contenuti probabilmente destinati a campagne di phishing
    • tradurre documenti tecnici
    • recuperare informazioni pubblicamente disponibili su vulnerabilità e su molteplici agenzie di intelligence
    • ricercare modi comuni con cui il malware potrebbe evitare il rilevamento
    • svolgere ricerche open-source su protocolli di comunicazione satellitare e tecnologia di imaging radar

Tuttavia, l’azienda ha fatto in fretta a sottolineare che “i nostri risultati mostrano che i nostri modelli offrono solo capacità limitate e incrementali per compiti di cybersecurity malevoli”.

Le due aziende si sono impegnate a garantire l’“uso sicuro e responsabile” delle tecnologie, inclusa ChatGPT.

Per Microsoft, questi principi includono:

  • Identificare e agire contro l’uso malevolo da parte di attori di minaccia, come la disabilitazione di account o la terminazione dei servizi.
  • Notificare ad altri fornitori di servizi IA e condividere dati pertinenti.
  • Collaborare con altri stakeholder sull’uso dell’IA da parte di attori di minaccia.
  • Informare il pubblico sull’uso rilevato dell’IA nei loro sistemi e sulle misure prese contro di essi.

In modo simile, OpenAI si impegna a:

  • Monitorare e interrompere gli attori malevoli affiliati allo stato. Questo include determinare come gli attori malevoli interagiscono con la loro piattaforma e valutare le intenzioni più ampie.
  • Lavorare e collaborare con l'”ecosistema IA”
  • Fornire trasparenza pubblica sulla natura e l’estensione dell’uso dell’IA da parte di attori malevoli affiliati allo stato e sulle misure prese contro di loro.

Lascia un commento

Panoramica privacy
Multinazionali Tech

Questo sito web utilizza i cookie per consentirci di fornirti la migliore esperienza utente possibile. Le informazioni sui cookie vengono memorizzate nel tuo browser ed eseguono funzioni come riconoscerti quando ritorni sul nostro sito Web e aiutare il nostro team a capire quali sezioni del sito Web trovi più interessanti e utili. Maggiori informazioni qui

Cookie strettamente necessari

I cookie strettamente necessari dovrebbero essere sempre attivati per poter salvare le tue preferenze per le impostazioni dei cookie.

Cookie di terze parti

Questo sito Web utilizza Google Analytics per raccogliere informazioni anonime come il numero di visitatori del sito e le pagine più popolari.

Mantenere questo cookie abilitato ci aiuta a migliorare il nostro sito Web.