Tech

Questa settimana nell'intelligenza artificiale: Con la caduta di Chevron, sembrano svanite le regolamentazioni sull'IA

\n

Ciao, amici, e benvenuti alla newsletter regolare sull'IA di TechCrunch.

\n

Questa settimana nell'IA, la Corte Suprema degli Stati Uniti ha respinto la 'deferenza di Chevron', una decisione di 40 anni sul potere delle agenzie federali che richiedeva ai tribunali di deferire alle interpretazioni delle leggi congressuali da parte delle agenzie.

\n

La deferenza di Chevron permetteva alle agenzie di creare le proprie regole quando il Congresso lasciava ambigui gli aspetti delle sue leggi. Ora ci si aspetta che i tribunali esercitino il proprio giudizio legale - e gli effetti potrebbero essere di ampia portata. Scott Rosenberg di Axios scrive che il Congresso - difficilmente l'organo più funzionale in questi giorni - deve ora tentare efficacemente di predire il futuro con la sua legislazione, poiché le agenzie non possono più applicare regole di base a nuove situazioni di applicazione.

\n

E questo potrebbe mettere fine ai tentativi di regolamentazione nazionale sull'IA una volta per tutte.

\n

Già il Congresso stava facendo fatica a passare un quadro di politiche di base sull'IA - al punto che i regolatori statali di entrambi gli schieramenti si sono sentiti costretti ad intervenire. Ora qualsiasi regolamentazione che scriverà dovrà essere estremamente specifica se vuole resistere alle sfide legali - un compito apparentemente irrisolvibile, vista la velocità e l'imprevedibilità con cui si muove l'industria dell'IA.

\n

La giustizia Elena Kagan ha menzionato l'IA specificatamente durante le argomentazioni orali:

\n
\n

Immaginiamo che il Congresso promulghi una legge sull'intelligenza artificiale e che abbia tutte le deleghe. Solo per la natura delle cose e soprattutto per la natura del soggetto, ci saranno tutti i tipi di situazioni in cui, anche se non vi è una delega esplicita, il Congresso ha di fatto lasciato un vuoto. … Vogliamo che i tribunali colmino quel vuoto, o vogliamo che un'agenzia lo colmi?

\n
\n

Adesso saranno i tribunali a colmare quel vuoto. Oppure i legislatori federali considereranno l'esercizio futile e metteranno a riposo i loro progetti di legge sull'IA. Qualsiasi sia l'esito, regolare l'IA negli Stati Uniti è diventato molto più difficile.

\n

Notizie

\n

Costi ambientali dell'IA di Google: Google ha pubblicato il suo Rapporto Ambientale 2024, un documento di oltre 80 pagine che descrive gli sforzi dell'azienda nell'applicare la tecnologia alle questioni ambientali e mitigare i suoi contributi negativi. Ma evita la domanda su quanta energia stia utilizzando l'IA di Google, scrive Devin. (L'IA è nota per essere molto energivora).

\n

Figma disabilita la funzione di design: Il CEO di Figma, Dylan Field, ha dichiarato che Figma disabiliterà temporaneamente la sua funzione di "Make Design" AI, che si diceva copiasse i design dell'app Meteo di Apple.

\n

Meta cambia l'etichetta del suo AI: Dopo che Meta ha iniziato a contrassegnare le foto con l'etichetta "Fatto con AI" a maggio, i fotografi si sono lamentati che l'azienda applicava le etichette erroneamente anche a vere foto. Ora Meta sta cambiando l'etichetta in "Informazioni AI" su tutte le sue app nel tentativo di placare i critici, segnala Ivan.

\n

Gatti, cani e uccelli robotici: Brian scrive su come lo stato di New York stia distribuendo migliaia di animali robotici agli anziani in mezzo a un 'epidemia di solitudine'.

\n

Apple porta l'IA al Vision Pro: Apple ha in programma di andare oltre i lanci dell'Apple Intelligence annunciati in precedenza su iPhone, iPad e Mac. Secondo Mark Gurman di Bloomberg, l'azienda sta anche lavorando per portare queste funzionalità ai suoi visori misti Vision Pro.

\n

Articolo di ricerca della settimana

\n

I modelli di generazione di testo come il GPT-4o di OpenAI sono diventati uno standard nel settore tecnologico. Difficilmente ci sono app che non li utilizzano oggigiorno, per compiti che vanno dal completamento di email alla scrittura di codice.

\n

Ma nonostante la popolarità dei modelli, come questi modelli "capiscono" e generano testo che suona umano non è una scienza risolta. In un'indagine per capire meglio, i ricercatori dell'Università del Nord Est hanno esaminato la tokenizzazione, ovvero il processo di suddivisione del testo in unità chiamate token con cui i modelli possono lavorare più facilmente.

\n

I modelli di generazione di testo di oggi elaborano il testo come una serie di token tratti da un "vocabolario di token" che corrisponde a parole singole ("pesce") o a parti di una parola più lunga ("sal" e "mon" in "salmone"). Il vocabolario di token disponibile per un modello è tipicamente determinato prima dell'addestramento, basandosi sulle caratteristiche dei dati utilizzati per addestrarlo. Ma i ricercatori hanno trovato prove che i modelli sviluppino anche un vocabolario implicito che mappa gruppi di token - ad esempio, parole multi-token come "northeastern" e la frase "in bocca al lupo" - a "unità" semanticamente significative.

\n

Sulla base di questa evidenza, i ricercatori hanno sviluppato una tecnica per "sondare" il vocabolario implicito di qualsiasi modello aperto. Da "Llama 2" di Meta, hanno estratto frasi come "Lancaster", "giocatori della Coppa del Mondo" e "Royal Navy", così come termini più oscuri come "giocatori della Bundesliga".

\n

Il lavoro non è stato sottoposto a revisione tra pari, ma i ricercatori credono che potrebbe essere un primo passo verso la comprensione di come si formino le rappresentazioni lessicali nei modelli - e servire come uno strumento utile per scoprire cosa "sa" un dato modello.

\n

Modello della settimana

\n

Un team di ricerca di Meta ha addestrato diversi modelli per creare asset tridimensionali (cioè, forme tridimensionali con texture) da descrizioni testuali, adatti per progetti come app e videogiochi. Anche se ci sono molti modelli per la generazione di forme disponibili, Meta afferma che i propri sono "all'avanguardia" e supportano il rendering basato sulla fisica, che consente agli sviluppatori di "rifornire" gli oggetti per dare l'aspetto di una o più fonti luminose.

\n

I ricercatori hanno combinato due modelli, AssetGen e TextureGen, ispirati al generatore di immagini Emu di Meta, in un unico flusso di lavoro chiamato 3DGen per generare forme. AssetGen converte le indicazioni testuali (ad esempio, "un t-rex con un maglione verde di lana") in una maglia 3D, mentre TextureGen migliora la "qualità" della maglia e aggiunge una texture per ottenere la forma finale.

\n
Crediti immagine: Meta

Il 3DGen, che può anche essere utilizzato per riprogettare forme esistenti, impiega circa 50 secondi dall'inizio alla fine per generare una nuova forma.

\n

Combinando i punti di forza di questi modelli, 3DGen raggiunge una sintesi di oggetti 3D di altissima qualità da indicazioni testuali in meno di un minuto

, hanno scritto i ricercatori in un paper tecnico.

Quando valutato da artisti 3D professionisti, l'output di 3DGen è preferito nella maggior parte dei casi rispetto alle alternative dell'industria, in particolare per indicazioni complesse.

\n

Meta sembra essere pronta a incorporare strumenti come 3DGen nei suoi sforzi di sviluppo di giochi nel metaverso. Secondo un annuncio di lavoro, l'azienda sta cercando di cercare e creare prototipi di giochi VR, AR e mista realtà realizzati con l'aiuto della tecnologia AI generativa - incluso, presumibilmente, generatori di forme personalizzate.

\n

Select

\n

Apple potrebbe ottenere un posto di osservatore nel consiglio di amministrazione di OpenAI a seguito della partnership annunciata il mese scorso.

\n

Bloomberg riferisce che Phil Schiller, executive Apple responsabile del App Store e degli eventi Apple, si unirà al consiglio di amministrazione di OpenAI come secondo osservatore dopo Dee Templeton di Microsoft.

\n

Se il passaggio avverrà, sarà una dimostrazione significativa del potere da parte di Apple, che ha in programma di integrare la piattaforma di chatbot basata su AI di OpenAI, ChatGPT, con molti dei suoi dispositivi quest'anno come parte di un più ampio suite di funzionalità AI.

\n

Apple non pagherà OpenAI per l'integrazione di ChatGPT, avendo fatto l'argomento che l'esposizione pubblica è tanto preziosa come - o più preziosa di - denaro. In realtà, OpenAI potrebbe finire per pagare Apple; si dice che Apple stia valutando un accordo secondo cui otterrebbe una percentuale dei ricavi da eventuali funzionalità premium di ChatGPT che OpenAI porta sulle piattaforme Apple.

\n

Quindi, come ha fatto notare il mio collega Devin Coldewey, questo mette il collaboratore e investitore principale di OpenAI, Microsoft, nella scomoda posizione di sostanzialmente sovvenzionare l'integrazione di ChatGPT di Apple - con poco da mostrare in cambio. Quello che Apple vuole, lo ottiene, a quanto pare - anche se ciò significa contenziosità che i partner devono appianare.

Related Articles

Back to top button Back to top button