modelli di AI

Apple ha recentemente rilasciato openELM, una nuova famiglia open source di grandi modelli di linguaggio. Questi modelli, sviluppati internamente da Apple, mirano a offrire prestazioni simili ad altri modelli open source di machine learning, ma richiedendo meno dati di addestramento.

Open-source Efficient Language Models (appunto openELM) comprende quattro modelli pre-addestrati, ospitati sulla piattaforma HuggingFace, con parametri che vanno da 270 milioni a 3 miliardi di token macinati.

Questi modelli di intelligenza artificiale sfruttano una strategia di “scalabilitĂ  a livelli” per distribuire i parametri all’interno dei livelli, migliorandone l’accuratezza.

Ma approfondiamo per capirne qualcosa in piĂą e trovare un modo per usarlo.

I recenti modelli di AI di Apple

Non è la prima volta che Apple rilascia un modello di AI o pubblichi informazioni riguardante l’intelligenza artificiale. Da quando la società ha accelerato per recuperare il territorio perso in ambito di intelligenza artificiale generativa, abbiamo visto crescere le informazioni su questo topic collegate all’azienda.

Per esempio qualche settimana fa abbiamo visto ReALM (Reference Resolution As Language Modeling): un modello di AI in grado di comprendere l’ambiente dove opera, per esempio gli elementi grafici presenti sullo schermo, per dare risposte più pertinenti in base al contesto.

Pare che la società stia lavorando anche a modelli di AI dedicati alle immagini, per chiedere modifiche con i comandi vocali. Per esempio potrebbe essere possibile chiedere di cancellare elementi in un’immagine o cambiare colore degli elementi. Funzioni che probabilmente troveremo in futuro in iOS.

Cos’è il modello openELM open source di Apple

Un nuovo approccio efficiente

Apple ha rilasciato openELM, una famiglia di modelli di linguaggio open source progettati per essere efficienti. Questi modelli richiedono solo la metĂ  dei token di pre-addestramento rispetto ai modelli precedenti, pur offrendo prestazioni migliori.

AccessibilitĂ  e trasparenza

Apple ha reso disponibile l’intero framework di addestramento e valutazione di openELM, inclusi log, checkpoint e configurazioni di pre-addestramento. Questo rende openELM accessibile alla comunitĂ  open source, promuovendo la trasparenza e la riproducibilitĂ .

Preparazione per iOS 18

Il rilascio di openELM fa parte dei preparativi di Apple per iOS 18, che presenterĂ  nuove funzionalitĂ  basate sull’intelligenza artificiale eseguite direttamente sui dispositivi. Questo approccio “on-device” migliora la privacy e le prestazioni, sfruttando il potenziale dell’hardware Apple.

Miglioramenti significativi

Con un budget di circa 1 miliardo di parametri, openELM ha mostrato un miglioramento dell’accuratezza del 2,36% rispetto ai modelli precedenti. Questa performance è resa possibile dalla strategia di “scalabilitĂ  a livelli” di Apple, che distribuisce i parametri in modo efficiente all’interno del modello.

Come provare openELM da HuggingFace con LM Studio

LM Studio: Uno strumento per utilizzare i modelli di linguaggio localmente

LM Studio è un’applicazione che consente di eseguire grandi modelli di linguaggio (LLM) direttamente sul computer. Offre un’interfaccia web intuitiva per selezionare e caricare diversi modelli pre-addestrati, come quelli della famiglia openELM di Apple.

Con LM Studio, potete interagire programmaticamente con il modello caricato grazie alla funzionalitĂ  del server integrato. Un’opzione interessante per esplorare le potenzialitĂ  dei modelli open source senza dipendere da servizi cloud.

AccessibilitĂ  e flessibilitĂ 

LM Studio è disponibile per tutte le piattaforme (Apple, Windows, Linux) e facile da scaricare e installare. L’interfaccia consente di cercare modelli direttamente da HuggingFace, visualizzandone dettagli come autore, scheda del modello e versioni quantizzate.

L’applicazione verifica automaticamente la compatibilitĂ  dei modelli con le specifiche del proprio computer, indicando se possono funzionare con l’hardware disponibile. Potete gestire i modelli scaricati nella scheda “My Models”, eliminando quelli non piĂą necessari.

Le potenzialitĂ  dei modelli di AI in locale nei dispositivi

L’obiettivo di Apple: eseguire modelli di AI sui dispositivi

L’obiettivo principale di Apple è consentire l’esecuzione di grandi modelli di linguaggio (LLM) direttamente sui dispositivi mobili, senza la necessitĂ  di connettersi al cloud. Questo richiede la compressione dei modelli di intelligenza artificiale e hardware dedicato potente, aspetti su cui Apple sta lavorando.

Un modello LLM on-device e offline con iOS 18

Apple dovrebbe svelare il proprio modello LLM che funzionerĂ  completamente on-device e offline sugli iPhone con iOS 18, durante la conferenza WWDC 2024 del 10 giugno.

Questo modello potrĂ  operare direttamente sull’iPhone senza accedere al cloud, in linea con l’attenzione di Apple alla privacy degli utenti, poichĂ© tutti i calcoli verranno eseguiti sul dispositivo.

Integrazione nel sistema operativo e limitazioni

La natura on-device e offline di questo LLM lo renderĂ  meno potente dei modelli basati sul cloud, ma sarĂ  piĂą strettamente integrato nel sistema operativo.

Potrebbe migliorare le capacitĂ  di Siri o essere distribuito nelle app di Apple. Per attivitĂ  piĂą intensive, come la generazione di immagini o testi lunghi, Apple potrebbe ancora affidarsi a servizi cloud, anche di fornitori esterni.

In conclusione

Riassumendo, Apple sta compiendo passi significativi nell’integrazione dell’intelligenza artificiale nei propri dispositivi. Il rilascio open source di openELM rappresenta un importante passo avanti nell’offerta di modelli efficienti e accessibili alla comunitĂ .

Allo stesso tempo, l’azienda sta lavorando per portare grandi modelli di linguaggio direttamente sui dispositivi, consentendo funzionalitĂ  avanzate senza compromettere la privacy degli utenti.

La strategia “on-device” di Apple promette di sfruttare appieno il potenziale dell’hardware Silicon, offrendo esperienze AI fluide e integrate nel sistema operativo. Sebbene ci possano essere limitazioni rispetto ai modelli basati su cloud, l’attenzione alla privacy e la possibilitĂ  di elaborare direttamente sui dispositivi rappresentano un approccio unico nel panorama tecnologico attuale.

Questi consentirà di avere il “proprio assistente” addestrato con le proprie informazioni e utilizzi del dispositivo, rendendo ogni AI diverso dalle altre.

Leave a comment

Cosa ne pensi?