Sociology

Il confronto sulla sicurezza di Telegram e gli 'edge lords' di OpenAI secondo Meredith Whittaker di Signal

Meredith Whittaker è stufa della componente 'frat house' dell'industria tecnologica. Mi sono seduto con il Presidente di Signal a VivaTech a Parigi per discutere la vasta gamma di questioni serie e adulte che la società sta affrontando, dalla disinformazione al controllo dell'IA, all'avanzamento dello stato di sorveglianza. Nel corso della nostra conversazione, abbiamo approfondito la recente guerra di parole di Signal con Elon Musk, di Telegram con Pavel Durov e, dato il suo controverso scontro con Scarlett Johanson, i pensieri sinceri di Whittaker sul leadership di OpenAI, che ha paragonato a 'scherzi da camera studenteschi'.

Tra le altre cose, Whittaker è preoccupata per la concentrazione del potere nei cinque principali social media, specialmente in un anno in cui il mondo affronta un gran numero di elezioni generali, soprattutto negli Stati Uniti, e la dipendenza dell'Europa da giganti tecnologici esterni con sede negli Stati Uniti. Ha argomentato che allentare le regolamentazioni dell'UE in realtà non aiuterà l'Europa a competere con i giganti tecnologici statunitensi, né sarà buono per la società. Ha criticato l'ossessione dei media per i deepfake basati sull'IA, ignorando spesso come le piattaforme di social media privilegino l'impegno iperbolico rispetto ai fatti.

Abbiamo anche discusso della pubblicità di sorveglianza, delle implicazioni del Online Safety Bill del Regno Unito, delle proposte CSAM dell'UE ('assolutamente pericolose'), e se Pavel Durov di Telegram dovrebbe dedicare più tempo a rendere sicura la sua piattaforma piuttosto che essere seguito da un fotografo per il suo account Instagram ('è pieno di m***a').

E alla fine, ha rivelato il motivo per cui passerà i prossimi sei mesi in Europa. (Le mie domande sono in corsivo):

Hai recentemente parlato della concentrazione del potere nell'IA, e che questo era importante nel contesto europeo. Vorresti espanderti su questo?

La risposta molto breve è che è importante nel contesto europeo, perché quel potere non è concentrato in Europa. Sì, quel potere è concentrato nelle mani di alcune aziende che risiedono negli Stati Uniti, e poi ancora in alcune in Cina. Ma quando parliamo di questo contesto, parliamo degli Stati Uniti. La dipendenza dell'Europa, delle startup europee, dei governi europei, delle istituzioni europee, dall'IA è ultimamente una dipendenza da infrastrutture e sistemi che sono creati, controllati e riconducono ai profitti e alla crescita di queste poche aziende.

Ora, il contesto in cui stiamo parlando è maggio 2024. Ora, non so quanti mesi mancano alle elezioni e mi rifiuto di ricordarlo in questo momento. Ma stiamo guardando la concreta possibilità di un regime Trump e di un governo statunitense più autoritario e quella parte del partito [repubblicano] ha avuto gli occhi su controllare la tecnologia e in particolare i social media da molto tempo. Quindi queste sono considerazioni che dovrebbero essere tutte prese insieme in un'analisi di cosa sia l'IA? A chi serve l'IA? E perché di nuovo l'Europa dovrebbe preoccuparsi della concentrazione del potere nell'industria dell'IA.

C'è un dibattito in Europa sull'accelerazionismo e sulle tecnologie acceleranti. Alcuni imprenditori europei sono frustrati dalla regolamentazione europea. Pensate che le loro preoccupazioni riguardanti una possibile regolamentazione europea, forse l'UE rallentando il ritmo del progresso tecnologico, siano giustificate?

Scusami, vengo dall'Accademia. Quindi sono pignolo per le definizioni. Voglio approfondire un po'. La premessa qui è che senza simili lacci, l'Europa sarebbe libera di costruire concorrenti pari ai giganti tecnologici statunitensi? Se è questa la presunzione, non è vero. Loro sanno che non è vero. Chiunque capisca la storia, i modelli aziendali, il profondo radicamento di queste aziende, sa anche che non è vero.

Potrebbe esserci frustrazione per la regolamentazione che 'rallenta il tuo serie B'. Ma penso che dovremmo guardare a una definizione di 'progresso' che si basi su gettare via tutti i paraurti che dovrebbero governare l'uso e l'abuso delle tecnologie che attualmente vengono incaricate di prendere decisioni incredibilmente sensibili; attualmente sono legati a infrastrutture di sorveglianza di massa che stanno accelerando nuove forme di controllo sociale; che vengono utilizzati per degradare e diminuire il lavoro. Ecco, è questo il nostro progresso? È questo il progresso verso un futuro vivibile? Progresso verso una struttura di governance socialmente benefica, progresso verso una tecnologia che in realtà soddisfa i bisogni umani, che è effettivamente responsabile nei confronti dei cittadini.

Sicuramente, alcuni ragazzi finiranno solidamente di classe media dopo aver incassato, e questo è positivo per loro. Ma non confondiamo questo con il progresso verso un futuro vivibile. Progresso verso una struttura di governance socialmente benefica, progresso verso una tecnologia che soddisfi effettivamente i bisogni umani, che sia effettivamente responsabile nei confronti dei cittadini.

Hai sollevato l'esempio della disinformazione su contenuti generati dall'IA su Zelensky e sua moglie. Come video deepfake e siti web generati dall'IA.

Il focus sui deepfake nel vuoto sta effettivamente mancando il bosco per gli alberi, con il 'bosco' che è il fatto che ora ci affidiamo a cinque grosse piattaforme di social media come arbitri. [TikTok, Facebook, Instagram, Twitter/X e YouTube]

Queste massive piattaforme di social media omogenee sono incentivati a calibrare i loro algoritmi per l'impegno perché vogliono più clic, più visualizzazioni di annunci, che sono incentivati ad elevare contenuti di m***a, contenuti bombastici, contenuti iperbolici, contenuti completamente falsi, giusto? Ed è lì che vediamo, dal mio punto di vista, l'IA utilizzata per la disinformazione in modo molto più potente. È lì che troveresti un deepfake. Nessuno va più su un sito web. Si va su Twitter, YouTube, si cerca in giro, si guarda cosa c'è.

Vedi il titolo e ci clicchi, clicchi su qualcuno che pubblica da quel sito web. Non credo che possiamo parlare di disinformazione senza parlare del ruolo di grandi piattaforme omogenee che hanno cannibalizzato il nostro ecosistema mediatico e informativo a servizio del profitto e della crescita di alcune aziende.

Nel Regno Unito, abbiamo l'Advertising Standards Authority. In Germania, non puoi pubblicizzare memorabilia nazista, per esempio su eBay. Ci sarebbero modi per regolamentare il settore della pubblicità e quindi, a valle, creare regole migliori e migliori risultati dalle piattaforme che si basano sulla pubblicità come modello di business?

Penso che vietare la pubblicità di sorveglianza sarebbe un primo passo molto buono. Staremmo davvero incidendo alla radice delle patologie con cui stiamo affrontando dall'industria tecnologica, che è questa sorveglianza di massa in nome dell'influenza, influenza per vendere qualcosa, influenza per convincere qualcuno a votare per qualcosa, influenza per disinformare qualcuno. In definitiva, questo è il gioco.

I dati di addestramento per quella sorveglianza di massa, come l'ha definita, sono stati messi in rilievo con la storia dell'uso da parte di OpenAI della voce AI 'Sky' che suonava abbastanza simile a Scarlett Johansson. Poi ha rivelato di essere stata contattata da Sam Altman per utilizzare la sua voce. Hai un parere su chi ha vinto quell'incidente?

Ho postato questo su Twitter, ma è solo ... miserabili 'edge Lords'. È così irrispettoso. È così inutile. E realmente strappa il velo su questa mitologia che voi siete persone serie all'apice della scienza che costruiscono il prossimo nume, quando è molto chiaro che la cultura è feste in dormitorio incitate da un gruppo di 'Yes men' che pensano che ogni battuta tu dici sia divertente, perché sono pagati per farlo, e nessuno lì intorno prende questa leadership per le spalle e dice 'Che fai!?'.

L'anno scorso al TechCrunch Disrupt c'è stata una discussione con te sull'Online Safety Bill del Regno Unito (ora Legge) che suggeriva che potrebbe chiedere alle aziende tecnologiche di costruire backdoor nei loro sistemi di crittografia end-to-end. Qual è la tua posizione ora che quella legge è passata?

Non lo faremo mai. Non lo faremo mai. Quello che abbiamo detto è che se avessero preso misure per far rispettare quella parte della legge, che poteva essere usata da Ofcom per dire a Signal 'devono costruire una backdoor, devono implementare la scansione lato client' - che è una backdoor - noi avremmo lasciato [il Regno Unito]. Perché non faremo quello. Non venderemo mai le persone che fanno affidamento su Signal, specialmente considerato che molti di loro fanno affidamento su di esso, in contesti in cui la sicurezza digitale è questione di vita o di morte.

Ciò che appare chiaro è che Ofcom ha ricevuto una gigantesca borsa di assurdità selvaggia, parte interessante, parte no, che si è accumulata come un albero di Natale, dove ognuno ha attaccato il proprio ornamento preferito. È passato per inerzia politica, non [attraverso] un reale supporto. Ogni parlamentare con cui ho parlato in vista della legge era come 'Sì, sappiamo quella roba, ma nessuno farà nulla al riguardo'. E ora Ofcom deve occuparsi di far rispettare la legge. E quindi... ogni paio di mesi scende un'altra 1.700 pagine che devi pagare qualcuno per leggere.

Quindi non avete avuto pressioni da parte di Ofcom ancora?

No, e la mia esperienza con la leadership di Ofcom è che sono abbastanza ragionevoli. Capiscono queste questioni. Ma di nuovo, hanno ricevuto questa legge e ora stanno cercando di comprendere cosa fare lì.

C'è stato un recente sviluppo, dove stanno consultando sull'IA per la sicurezza online. Hai qualche commento su questo?

Sono molto preoccupato per la limitazione di età. E questa idea che abbiamo bisogno di un database, [ad esempio] gestito da Yoti, un'azienda con sede negli Stati Uniti che si sta spingendo molto per queste infrastrutture, che farebbe l'identificazione biometrica o qualche magia inaccurata di apprendimento automatico, o avere un database di ID, o quello che hai, che significa che devi effettivamente accedere con la tua vera identità e la tua età e qualsiasi altra informazione vogliano, per poter visitare un sito web.

Stai parlando di un regime di sorveglianza di massa incredibile. Negli Stati Uniti per lungo tempo i bibliotecari hanno tenuto duro nel non divulgare cosa avevano controllato le persone perché quella informazione era così sensibile. Puoi guardare al caso di Robert Bork e i suoi noleggi e acquisti video e quanto fosse sensibile quella informazione. Quello che vediamo qui con queste disposizioni è solo un invito a qualcosa che ignora completamente la comprensione di quanto sia semplicemente sensibile quel dato e crea un [situazione] in cui devi registrarti con le autorità prima di poter utilizzare un sito web.

La Commissione Europea ha proposto una nuova Direttiva per rielaborare le norme di diritto penale in materia di materiale di abuso sessuale sui minori (EU-CSAM). Qual è la tua opinione su questa proposta?

Onestamente, non sembra che ci sia la volontà politica [per farlo]. Ma è notevole che sembra che ci sia questa fazione rabbiosa, che nonostante l'inchiesta denigratoria che mostra quanto abbia giocato una mano pesante i lobbyist dell'industria della scansione e delle biometrie nella stesura di questa legislazione. Questo, nonostante l'intera comunità degli esperti - chiunque di rilievo che faccia ricerca sulla sicurezza o la crittografia e capisca questi sistemi e i loro limiti - che esca e dica che questo è assolutamente irrealizzabile. Quello di cui stai parlando è una backdoor nelle infrastrutture fondamentali su cui ci affidiamo per il governo, per il commercio, per la comunicazione.

È assolutamente pericoloso, e oh, aspetta, non ci sono dati che mostrano che questo in realtà aiuterà i bambini. C'è un enorme mancanza di finanziamenti per i servizi sociali, l'istruzione. Ci sono problemi reali per aiutare i bambini. Questi non vengono affrontati. Invece, c'è questa fissazione su una backdoor sulla crittografia, sull'abbattere l'unica tecnologia che abbiamo che può garantire riservatezza, autenticità e privacy. Quindi gli argomenti sono sul tavolo. È molto chiaro che sono sbagliati. È molto chiaro che questo processo è stato corrotto, per non dire altro. Eppure sembra che ci sia questa fazione che semplicemente non riesce a lasciare andare quel pezzo.

Se è ovvio che tu sia preoccupato per il potere delle piattaforme di IA centralizzate. Cosa ne pensi della cosiddetta 'IA decentralizzata' di cui si parla da Emad Mostaque, ad esempio?

Sentivo uno slogan. Dammi un argomento. Dammi un'architettura. Dimmi cosa significa effettivamente quella decentralizzazione. Che cosa specifica viene decentralizzata? Quali sono gli accorgimenti che accompagnano la tua speciale versione di decentralizzazione?

Ovviamente c'è stato il recente scontro con Elon Musk su Telegram contro Signal. Ampliando e uscendo da quell'esperienza: Hai visto qualche attivista passare a Signal? Quali sono le tue opinioni su ciò che ha detto Pavel Durov?

Sembra che Pavel potrebbe essere troppo impegnato a farsi seguire da un fotografo professionale per fare correttezza dei fatti. Non so perché abbia amplificato quella questione. So che è pieno di m***a quando si tratta delle sue opinioni o delle sue affermazioni su Signal. E abbiamo tutte le prove dalla nostra parte. Quindi la giuria è presa. Il verdetto è chiaro.

Quello che è sfortunato di questo è che, a differenza di altri casi di vacuità dei dirigenti tecnologici - con cui va bene confrontarsi e non me ne importa particolarmente - questo danneggia effettivamente persone reali ed è incredibilmente spericolato. Insieme a diverse persone con cui lavoriamo in coalizione, siamo stati in contatto con difensori dei diritti umani e comunità di attivisti che erano legittimamente spaventati da queste affermazioni perché siamo in un'industria, in un ecosistema, dove ci sono forse 5.000 persone al mondo con le competenze per sedersi effettivamente e convalidare ciò che facciamo, e noi diamo inizio a coloro che hanno quell'ampia esperienza

Related Articles

Back to top button Back to top button