Tech

Questa settimana nell'AI: Apple non dirà come viene fatta la salsiccia

Ciao, gente, e benvenuti alla newsletter regolare sull'IA di TechCrunch.

Questa settimana nell'IA, Apple ha rubato la scena.

Alla Conferenza mondiale degli sviluppatori (WWDC) dell'azienda a Cupertino, Apple ha svelato Apple Intelligence, il suo atteso, push ecosistemico nell'IA generativa. Apple Intelligence alimenta una serie di funzionalità, da un Siri aggiornato a emoji generati dall'IA ai tool di editing delle foto che rimuovono persone e oggetti indesiderati dalle foto.

L'azienda ha promesso che Apple Intelligence viene costruita con la sicurezza al suo centro, insieme a esperienze altamente personalizzate.

"Deve capire te e essere basato sul tuo contesto personale, come la tua routine, i tuoi rapporti, le tue comunicazioni e altro", ha sottolineato il CEO Tim Cook durante il keynote di lunedì. "Tutto questo va oltre l'intelligenza artificiale. È intelligenza personale, ed è il prossimo grande passo per Apple."

Apple Intelligence è classicamente Apple: nasconde la tecnologia dettagliata dietro funzionalità ovviamente, intuitivamente utili. (Cook non ha mai pronunciato la frase "modello di grande dimensioni".) Ma come qualcuno che scrive sull'aspetto nascosto dell'IA per mestiere, vorrei che Apple fosse più trasparente - solo questa volta - su come è stata fatta la salsiccia.

Ad esempio, prendiamo le pratiche di addestramento dei modelli di Apple. Apple ha rivelato in un post sul blog che addestra i modelli di IA che alimentano Apple Intelligence su una combinazione di set di dati concessi in licenza e sul web pubblico. Gli editori hanno la possibilità di rinunciare a futuri addestramenti. Ma se sei un artista curioso di sapere se il tuo lavoro è stato coinvolto nell'addestramento iniziale di Apple? Sfortunatamente - mum's the word.

Il segreto potrebbe essere per ragioni competitive. Ma sospetto che sia anche per proteggere Apple da sfide legali - in particolare sfide relative al copyright. I tribunali devono ancora decidere se i fornitori come Apple hanno il diritto di addestrare su dati pubblici senza compensare o accreditare i creatori di quei dati - in altre parole, se la dottrina dell'uso equo si applica all'IA generativa.

È un po' deludente vedere Apple, che spesso si dipinge come campione di politiche tecniche sensate, abbracciare implicitamente l'argomento dell'uso equo. Nascosto dietro al velo del marketing, Apple può pretendere di adottare un approccio responsabile e misurato all'IA mentre potrebbe benissimo aver addestrato sui lavori dei creatori senza autorizzazione. Una piccola spiegazione farebbe molto. È un peccato che non ne abbiamo avuta una - e non sono ottimista che ne avremo presto, a meno di una causa legale (o due).

Notizie

Le migliori funzionalità di IA di Apple: Yours truly ha raccolto le migliori funzionalità di IA annunciate da Apple durante il keynote del WWDC di questa settimana, dall'Siri aggiornato alle profonde integrazioni con il ChatGPT di OpenAI.

OpenAI assume dirigenti: OpenAI questa settimana ha assunto Sarah Friar, ex CEO della rete sociale iperlocale Nextdoor, per ricoprire il ruolo di direttore finanziario, e Kevin Weil, che in precedenza ha guidato lo sviluppo del prodotto su Instagram e Twitter, come direttore del prodotto.

Posta, ora con più IA: questa settimana, Yahoo (la società madre di TechCrunch) ha aggiornato Yahoo Mail con nuove funzionalità di IA, inclusi riepiloghi generati dall'IA delle email. Google ha introdotto di recente una funzionalità simile di riepilogo generativo - ma è dietro a un paywall.

Punti di vista controversi: uno studio recente del Carnegie Mellon scopre che non tutti i modelli di IA generativa sono creati uguali, specialmente per quanto riguarda il trattamento di argomenti polarizzanti.

Generatore di suoni: Stability AI, la startup dietro al generatore d'arte alimentato dall'IA Stable Diffusion, ha rilasciato un modello AI aperto per la generazione di suoni e canzoni che sostiene è stato addestrato esclusivamente su registrazioni senza royalties.

Ricerca della settimana

Google pensa di poter costruire un modello di IA generativo per la salute personale - o almeno fare passi preliminari in quella direzione.

In un nuovo articolo presentato sul blog ufficiale di Google AI, i ricercatori di Google sollevano il velo su Personal Health Large Language Model, o PH-LLM in breve - una versione ottimizzata di uno dei modelli Gemini di Google. PH-LLM è progettato per dare raccomandazioni per migliorare il sonno e il fitness, in parte leggendo i dati di frequenza cardiaca e di respirazione dai dispositivi indossabili come gli smartwatch.

Per testare la capacità di PH-LLM di dare suggerimenti utili per la salute, i ricercatori hanno creato quasi 900 studi di caso sul sonno e il fitness che coinvolgono soggetti con sede negli Stati Uniti. Hanno scoperto che PH-LLM ha dato raccomandazioni sul sonno che erano vicine - ma non così buone come - raccomandazioni date da esperti umani del sonno.

I ricercatori sostengono che PH-LLM potrebbe aiutare a contestualizzare i dati fisiologici per "applicazioni di salute personale". Viene in mente Google Fit; non sarei sorpreso di vedere PH-LLM alimentare alla fine una nuova funzionalità in un'app di Google focalizzata sul fitness, Fit o altro.

Modello della settimana

Apple ha dedicato parecchia copia al blog per dettagliare i suoi nuovi modelli di IA generativa su dispositivo e in cloud che compongono la sua suite Apple Intelligence. Eppure nonostante quanto sia lungo questo post, rivela poco sulle capacità dei modelli. Ecco il nostro miglior tentativo di analizzarlo:

L'anonimo modello su dispositivo evidenziato da Apple è di piccole dimensioni, senza dubbio in modo che possa funzionare offline su dispositivi Apple come l'iPhone 15 Pro e Pro Max. Contiene 3 miliardi di parametri - "parametri" sono le parti del modello che essenzialmente ne definiscono l'abilità su un problema, come generare testo - rendendolo paragonabile al modello Gemini di Google su dispositivo Nano, che arriva in taglie da 1,8 miliardi di parametri e 3,25 miliardi di parametri.

Il modello del server, intanto, è più grande (di quanto esattamente, Apple non lo dirà con precisione). Quello che sappiamo è che è più capace del modello su dispositivo. Mentre il modello su dispositivo si comporta allo stesso modo di modelli come il Phi-3-mini di Microsoft, il Mistral 7B di Mistral e il Gemma 7B di Google nei benchmark elencati da Apple, il modello del server "si confronta favorevolmente" con il vecchio modello di punta di OpenAI GPT-3.5 Turbo, afferma Apple.

Apple dice anche che sia il modello su dispositivo che quello del server sono meno inclini a uscire dai binari (ovvero, a produrre tossicità) rispetto ai modelli di dimensioni simili. Potrebbe essere così - ma questo scrittore si riserva il giudizio fino a quando non avremo la possibilità di mettere alla prova Apple Intelligence.

Borsa di studio

Questa settimana ha segnato il sesto anniversario del rilascio di GPT-1, il progenitore di GPT-4o, l'ultimo modello di punta generativo di OpenAI. E sebbene il deep learning possa essere vicino a un punto di stallo, è incredibile quanto sia avanzato il campo.

Pensate che ci sia voluto un mese per addestrare GPT-1 su un set di dati di 4,5 gigabyte di testo (il BookCorpus, contenente circa 7.000 libri di narrativa inediti). GPT-3, che è quasi 1.500 volte più grande di GPT-1 per numero di parametri e significativamente più sofisticato nella prosa che può generare e analizzare, ha impiegato 34 giorni per addestrarsi. Che dire dell'escalation?

Ciò che ha reso GPT-1 rivoluzionario è stato il suo approccio all'addestramento. Le tecniche precedenti si basavano su vaste quantità di dati etichettati manualmente, limitando la loro utilità. (Etichettare manualmente i dati è lungo e laborioso.) Ma GPT-1 no; si è addestrato principalmente su dati non etichettati per "imparare" come svolgere una serie di compiti (ad esempio, scrivere saggi).

Molti esperti ritengono che non vedremo presto un cambiamento di paradigma altrettanto significativo come quello di GPT-1. Ma d'altra parte, il mondo non ha nemmeno visto arrivare GPT-1.

Related Articles

Back to top button Back to top button