Phi-3

Phi-3: Microsoft annuncia i nuovi modelli linguistici

Aiutaci a crescere: lasciaci un like :)

I modelli linguistici di grande dimensione sono noti per la loro complessità e il vasto numero di parametri, che spesso si contano in centinaia di miliardi o persino trilioni. Tuttavia, una domanda fondamentale si pone nel campo dell’intelligenza artificiale: è necessario disporre di un numero così elevato di parametri per garantire un ragionamento efficace? Recentemente, Microsoft ha risposto a questa domanda con il lancio del Phi-3-mini, parte della nuova famiglia di modelli Phi-3, che possiede solamente 3,8 miliardi di parametri. Phi-3-mini, ora accessibile attraverso piattaforme come Azure, HuggingFace e Ollama, rappresenta una svolta nel rapporto costo-prestazioni tra i modelli linguistici. È stato addestrato utilizzando dati sintetici di alta qualità e si è dimostrato capace di superare modelli con un numero di parametri fino a dieci volte superiore. Questo risultato non solo mette in discussione la necessità di modelli iper-dimensionati ma offre anche alternative più accessibili e praticabili per gli utenti con esigenze diverse riguardo a costi, latenza e infrastruttura.

La nascita di Phi-3

L’innovazione del modello Phi-3 trae origine dai laboratori di ricerca di Microsoft e dal recentemente costituito team GenAI dell’azienda. Questo team ha adottato tecniche pedagogiche ispirate al modo in cui i bambini apprendono, ad esempio attraverso le storie raccontate prima della buonanotte, e ha affinato la selezione dei dati come farebbe un insegnante spiegando concetti complessi a uno studente. Questo approccio non solo migliora la qualità dell’addestramento ma integra anche pratiche di Responsible AI, aumentando la sicurezza e riducendo i rischi associati all’uso di linguaggio inappropriato che spesso emerge dai modelli addestrati su dati raccolti da Internet. Il lancio di Phi-3-mini, che funziona con un numero di parametri significativamente inferiore rispetto ai suoi competitori di maggiore dimensione, dimostra che è possibile affidare a modelli più piccoli compiti che tradizionalmente necessitano di soluzioni più grandi. Questo modello è particolarmente vantaggioso per l’implementazione in quanto richiede meno risorse, riducendo così i costi e facilitando l’uso in casi personalizzati.

Le prossime versioni

In aggiunta, Microsoft ha annunciato che presto saranno disponibili anche Phi-3-small e Phi-3-medium, con rispettivamente 7 e 14 miliardi di parametri, mantenendo proposte di valore analoghe e migliorando ulteriormente le prestazioni. Infine, rendendo Phi-3 disponibile su diverse piattaforme, Microsoft sostiene la community degli sviluppatori, permettendo l’esecuzione dei modelli localmente, senza la necessità di una connessione Internet continua o accesso al cloud, estendendo così l’accessibilità all’intelligenza artificiale anche in aree con infrastrutture limitate.

Phi-3

Le ultime di Microsoft: