Apple ha recentemente rilasciato openELM, una nuova famiglia open source di grandi modelli di linguaggio. Questi modelli, sviluppati internamente da Apple, mirano a offrire prestazioni simili ad altri modelli open source di machine learning, ma richiedendo meno dati di addestramento.
Open-source Efficient Language Models (appunto openELM) comprende quattro modelli pre-addestrati, ospitati sulla piattaforma HuggingFace, con parametri che vanno da 270 milioni a 3 miliardi di token macinati.
Questi modelli di intelligenza artificiale sfruttano una strategia di “scalabilitĂ a livelli” per distribuire i parametri all’interno dei livelli, migliorandone l’accuratezza.
Ma approfondiamo per capirne qualcosa in piĂą e trovare un modo per usarlo.
In questo articolo:
I recenti modelli di AI di Apple
Non è la prima volta che Apple rilascia un modello di AI o pubblichi informazioni riguardante l’intelligenza artificiale. Da quando la società ha accelerato per recuperare il territorio perso in ambito di intelligenza artificiale generativa, abbiamo visto crescere le informazioni su questo topic collegate all’azienda.
Per esempio qualche settimana fa abbiamo visto ReALM (Reference Resolution As Language Modeling): un modello di AI in grado di comprendere l’ambiente dove opera, per esempio gli elementi grafici presenti sullo schermo, per dare risposte più pertinenti in base al contesto.
Pare che la società stia lavorando anche a modelli di AI dedicati alle immagini, per chiedere modifiche con i comandi vocali. Per esempio potrebbe essere possibile chiedere di cancellare elementi in un’immagine o cambiare colore degli elementi. Funzioni che probabilmente troveremo in futuro in iOS.
Cos’è il modello openELM open source di Apple
Un nuovo approccio efficiente
Apple ha rilasciato openELM, una famiglia di modelli di linguaggio open source progettati per essere efficienti. Questi modelli richiedono solo la metĂ dei token di pre-addestramento rispetto ai modelli precedenti, pur offrendo prestazioni migliori.
AccessibilitĂ e trasparenza
Apple ha reso disponibile l’intero framework di addestramento e valutazione di openELM, inclusi log, checkpoint e configurazioni di pre-addestramento. Questo rende openELM accessibile alla comunitĂ open source, promuovendo la trasparenza e la riproducibilitĂ .
Preparazione per iOS 18
Il rilascio di openELM fa parte dei preparativi di Apple per iOS 18, che presenterĂ nuove funzionalitĂ basate sull’intelligenza artificiale eseguite direttamente sui dispositivi. Questo approccio “on-device” migliora la privacy e le prestazioni, sfruttando il potenziale dell’hardware Apple.
Miglioramenti significativi
Con un budget di circa 1 miliardo di parametri, openELM ha mostrato un miglioramento dell’accuratezza del 2,36% rispetto ai modelli precedenti. Questa performance è resa possibile dalla strategia di “scalabilitĂ a livelli” di Apple, che distribuisce i parametri in modo efficiente all’interno del modello.
Come provare openELM da HuggingFace con LM Studio
LM Studio: Uno strumento per utilizzare i modelli di linguaggio localmente
LM Studio è un’applicazione che consente di eseguire grandi modelli di linguaggio (LLM) direttamente sul computer. Offre un’interfaccia web intuitiva per selezionare e caricare diversi modelli pre-addestrati, come quelli della famiglia openELM di Apple.
Con LM Studio, potete interagire programmaticamente con il modello caricato grazie alla funzionalitĂ del server integrato. Un’opzione interessante per esplorare le potenzialitĂ dei modelli open source senza dipendere da servizi cloud.
AccessibilitĂ e flessibilitĂ
LM Studio è disponibile per tutte le piattaforme (Apple, Windows, Linux) e facile da scaricare e installare. L’interfaccia consente di cercare modelli direttamente da HuggingFace, visualizzandone dettagli come autore, scheda del modello e versioni quantizzate.
L’applicazione verifica automaticamente la compatibilitĂ dei modelli con le specifiche del proprio computer, indicando se possono funzionare con l’hardware disponibile. Potete gestire i modelli scaricati nella scheda “My Models”, eliminando quelli non piĂą necessari.
Le potenzialitĂ dei modelli di AI in locale nei dispositivi
L’obiettivo di Apple: eseguire modelli di AI sui dispositivi
L’obiettivo principale di Apple è consentire l’esecuzione di grandi modelli di linguaggio (LLM) direttamente sui dispositivi mobili, senza la necessitĂ di connettersi al cloud. Questo richiede la compressione dei modelli di intelligenza artificiale e hardware dedicato potente, aspetti su cui Apple sta lavorando.
Un modello LLM on-device e offline con iOS 18
Apple dovrebbe svelare il proprio modello LLM che funzionerĂ completamente on-device e offline sugli iPhone con iOS 18, durante la conferenza WWDC 2024 del 10 giugno.
Questo modello potrĂ operare direttamente sull’iPhone senza accedere al cloud, in linea con l’attenzione di Apple alla privacy degli utenti, poichĂ© tutti i calcoli verranno eseguiti sul dispositivo.
Integrazione nel sistema operativo e limitazioni
La natura on-device e offline di questo LLM lo renderĂ meno potente dei modelli basati sul cloud, ma sarĂ piĂą strettamente integrato nel sistema operativo.
Potrebbe migliorare le capacitĂ di Siri o essere distribuito nelle app di Apple. Per attivitĂ piĂą intensive, come la generazione di immagini o testi lunghi, Apple potrebbe ancora affidarsi a servizi cloud, anche di fornitori esterni.
In conclusione
Riassumendo, Apple sta compiendo passi significativi nell’integrazione dell’intelligenza artificiale nei propri dispositivi. Il rilascio open source di openELM rappresenta un importante passo avanti nell’offerta di modelli efficienti e accessibili alla comunitĂ .
Allo stesso tempo, l’azienda sta lavorando per portare grandi modelli di linguaggio direttamente sui dispositivi, consentendo funzionalitĂ avanzate senza compromettere la privacy degli utenti.
La strategia “on-device” di Apple promette di sfruttare appieno il potenziale dell’hardware Silicon, offrendo esperienze AI fluide e integrate nel sistema operativo. Sebbene ci possano essere limitazioni rispetto ai modelli basati su cloud, l’attenzione alla privacy e la possibilitĂ di elaborare direttamente sui dispositivi rappresentano un approccio unico nel panorama tecnologico attuale.
Questi consentirà di avere il “proprio assistente” addestrato con le proprie informazioni e utilizzi del dispositivo, rendendo ogni AI diverso dalle altre.