Il CEO di Mistral conferma la “fuga” di un nuovo modello di IA open source vicino alle prestazioni di GPT-4. Negli ultimi giorni, la comunità dell’IA open source in crescita ha vissuto un periodo intenso, anche secondo i suoi standard dinamici e liberi.
Indice dei contenuti
La ricostruzione della futa sul modello LLM Open Source
Intorno al 28 gennaio, un utente con il nickname “Miqu Dev” ha pubblicato su HuggingFace, la principale piattaforma di condivisione di modelli e codici di IA open source, un insieme di file che costituivano un nuovo modello di linguaggio naturale open source (LLM) etichettato “miqu-1-70b”. L’entrata su HuggingFace, ancora disponibile al momento della pubblicazione di questo articolo, indicava che il formato di prompt del nuovo LLM, ossia il modo in cui gli utenti interagiscono con esso, era lo stesso di Mistral, l’azienda parigina di IA open source ben finanziata dietro a Mixtral 8x7b, considerato da molti il miglior LLM open source attualmente disponibile, una versione affinata e ritratta del Llama 2 di Meta.
Lo stesso giorno, un utente anonimo su 4chan (probabilmente “Miqu Dev”) ha postato un link ai file di miqu-1-70b su 4chan, noto rifugio di meme online e tossicità, dove gli utenti hanno iniziato a notarlo.
Alcuni hanno condiviso la scoperta del modello e le sue prestazioni eccezionalmente elevate nei compiti comuni dei LLM (misurati con test noti come benchmark) su X, il social network di Elon Musk precedentemente noto come Twitter, avvicinandosi al leader precedente, il GPT-4 di OpenAI, nel EQ-Bench.
Ricercatori di machine learning (ML) hanno preso nota su LinkedIn.
“‘miqu’ sta per MIstral QUantized? Non lo sappiamo con certezza, ma questo è rapidamente diventato uno dei migliori, se non il migliore, LLM open source”, ha scritto Maxime Labonne, uno scienziato ML di JP Morgan & Chase. La quantizzazione nel ML è una tecnica utilizzata per rendere possibile l’esecuzione di certi modelli di IA su computer e chip meno potenti.
Si è speculato che “Miqu” potrebbe essere un nuovo modello di Mistral “fugato” segretamente dalla stessa azienda – soprattutto dato che Mistral è nota per rilasciare nuovi modelli e aggiornamenti senza clamore attraverso mezzi esoterici e tecnici – o forse un dipendente o cliente ribelle.
Il CEO conferma la notizia
Oggi sembra che abbiamo finalmente una conferma: il co-fondatore e CEO di Mistral, Arthur Mensch, ha chiarito su X: “Un dipendente troppo entusiasta di uno dei nostri clienti con accesso anticipato ha fugato una versione quantizzata (e con watermark) di un vecchio modello che abbiamo addestrato e distribuito abbastanza apertamente…Abbiamo fatto buoni progressi da allora – rimanete sintonizzati!”
Curiosamente, Mensch ha anche commentato il post illecito su HuggingFace non per richiederne la rimozione, ma suggerendo che il poster “potrebbe considerare l’attribuzione”.
Con il suo invito a “rimanere sintonizzati!”, sembra che non solo Mistral stia addestrando una versione di questo cosiddetto modello “Miqu” che si avvicina alle prestazioni di GPT-4, ma potrebbe in effetti eguagliarle o superarle.
Il 2024 sarà l’anno dell’Intelligenza Artificiale Open Source?
Questo sarebbe un momento epocale non solo per l’IA generativa open source, ma per l’intero campo dell’IA e dell’informatica: da quando è stato rilasciato nel marzo 2023, GPT-4 è rimasto il LLM più potente e performante al mondo secondo la maggior parte dei benchmark. La pubblicazione di un modello di classe GPT-4 open source, presumibilmente gratuito, potrebbe esercitare una enorme pressione competitiva su OpenAI e sui suoi livelli di abbonamento, specialmente poiché sempre più imprese guardano ai modelli open source, o a una combinazione di open source e closed source, per alimentare le loro applicazioni. OpenAI potrebbe mantenere il vantaggio con il suo GPT-4 Turbo più veloce e GPT-4V (vision), ma il messaggio è chiaro: la comunità AI open source sta recuperando velocemente. OpenAI avrà un vantaggio sufficiente e un “fossato” metaforico con il suo GPT Store e altre funzionalità per rimanere in cima alla classifica dei LLM?
Fonte informazioni: VentureBeat, rielaborate e organizzate da Multinazionali Tech