Internet

Slack sotto attacco per la politica subdola di addestramento dell'IA

\n

In seguito alle continue problematiche legate al modo in cui le grandi aziende tech appropriano i dati delle persone e delle imprese nell'addestramento dei servizi di intelligenza artificiale, si sta scatenando una tempesta tra gli utenti di Slack arrabbiati per il modo in cui la piattaforma di chat di proprietà di Salesforce sta procedendo con la sua visione dell'IA.

\n

L'azienda, come molte altre, sta utilizzando i propri dati utente per addestrare alcuni dei suoi nuovi servizi di intelligenza artificiale. Tuttavia, risulta che se non vuoi che Slack utilizzi i tuoi dati, devi inviare un'email all'azienda per optare per l'esclusione.

\n

E i termini di quell'interazione sono nascosti in ciò che appare essere una politica sulla privacy datata e confusa a cui nessuno prestava attenzione. Questo era il caso di Slack, fino a quando una persona arrabbiata ha postato a riguardo su un sito della community molto popolare tra gli sviluppatori, e poi quel post è diventato virale... ed è quello che è successo qui.

\n

Tutto ha avuto inizio la scorsa notte, quando una nota su Hacker News ha sollevato la questione di come Slack addestra i suoi servizi di intelligenza artificiale, attraverso un semplice link ai suoi principi di privacy, senza bisogno di ulteriori commenti. Quel post ha dato il via a una conversazione più ampia - e a ciò che sembrava essere una novità per gli attuali utenti di Slack - che Slack opta per default per l'addestramento AI degli utenti, e che è necessario inviare un'email a un indirizzo specifico per optare per l'esclusione.

\n

Quel thread di Hacker News ha poi suscitato diverse conversazioni e domande su altre piattaforme: c'è un nuovo prodotto dal nome generico di "Slack AI" che consente agli utenti di cercare risposte e riassumere i fili delle conversazioni, tra le altre cose, ma perché non viene menzionato neanche una sola volta con un nome in quella pagina dei principi di privacy in alcun modo, neanche per chiarire se la politica sulla privacy si applica ad esso? E perché Slack fa riferimento sia a 'modelli globali' che a 'modelli di IA'?

\n

Tra le persone confuse su dove Slack stia applicando i suoi principi di privacy AI, e le persone sorprese e infastidite all'idea di inviare un'email per optare per l'esclusione - presso un'azienda che fa molto clamore per sbandierare che "Tu controlli i tuoi dati" - Slack non esce bene da tutto ciò.

\n

Lo shock potrebbe essere nuovo, ma i termini non lo sono. Secondo pagine dell'Internet Archive, i termini sono applicabili almeno da settembre 2023. (Abbiamo chiesto all'azienda di confermare.)

\n

Conforme alla politica sulla privacy, Slack sta utilizzando i dati dei clienti specificamente per addestrare "modelli globali", che Slack utilizza per alimentare le raccomandazioni dei canali e degli emoji e i risultati delle ricerche. Slack ci ha comunicato che l'uso dei dati ha limiti specifici.

\n

“Slack ha modelli di machine learning a livello di piattaforma per cose come le raccomandazioni dei canali e degli emoji e i risultati delle ricerche. Non costruiamo o addestriamo questi modelli in modo che potrebbero imparare, memorizzare o essere in grado di riprodurre una parte dei dati dei clienti,” ha detto un portavoce dell'azienda a TechCrunch. Tuttavia, la politica non sembra affrontare l'ambito complessivo e i piani più ampi dell'azienda per addestrare i modelli di IA.

\n

Nella sua politica, Slack afferma che se i clienti optano per l'esclusione dall'addestramento dei dati, trarranno comunque beneficio dai "modelli AI/ML addestrati a livello globale" dell'azienda. Ma ancora una volta, in questo caso non è chiaro perché l'azienda stia utilizzando i dati dei clienti per alimentare funzionalità come le raccomandazioni degli emoji.

\n

L'azienda ha inoltre dichiarato di non utilizzare i dati dei clienti per addestrare Slack AI.

\n

“Slack AI è un add-on acquistabile separatamente che utilizza Large Language Models (LLM) ma non addestra quei LLM sui dati dei clienti. Slack AI utilizza LLM ospitati direttamente all'interno dell'infrastruttura AWS di Slack, in modo che i dati del cliente restino all'interno dell'azienda e non siano condivisi con nessun fornitore di LLM. Ciò garantisce che i dati del cliente rimangano sotto il controllo di quell'organizzazione ed esclusivamente per l'uso di quell'organizzazione,” ha detto un portavoce.

\n

Una parte della confusione sarà probabilmente affrontata prima piuttosto che dopo. In una risposta a una critica su Threads da parte dell'ingegnere e scrittore Gergely Orosz, l'ingegnere di Slack Aaron Maurer ha ammesso che l'azienda deve aggiornare la pagina per riflettere "come questi principi sulla privacy si relazionano con Slack AI."

\n

Maurer ha aggiunto che questi termini sono stati scritti al momento in cui l'azienda non aveva ancora Slack AI, e queste regole riflettono il lavoro dell'azienda intorno a ricerca e raccomandazioni. Sarà utile esaminare i termini per future aggiornamenti, data la confusione su ciò che Slack sta attualmente facendo con la sua IA.

\n

Le problematiche di Slack sono un severo ricordo che, nel mondo in rapida evoluzione dello sviluppo dell'IA, la privacy degli utenti non dovrebbe essere un pensiero di secondo piano e i termini di servizio di un'azienda dovrebbero chiaramente specificare come e quando i dati vengono utilizzati o se non lo sono.

Related Articles

Back to top button Back to top button