Tech

Donne in AI: Sarah Myers West dice che dovremmo chiederci, 'Perché costruire l'AI del tutto?'

Per dare alle donne accademiche focalizzate sull'AI e ad altri il meritato - e tardivo - tempo sotto i riflettori, TechCrunch ha pubblicato una serie di interviste incentrate su donne straordinarie che hanno contribuito alla rivoluzione dell'AI. Stiamo pubblicando questi pezzi durante l'anno mentre il boom dell'AI continua, mettendo in evidenza lavori chiave che spesso passano inosservati. Leggi altri profili qui.

Sarah Myers West è direttore esecutivo presso l'istituto AI Now, un istituto di ricerca americano che studia le implicazioni sociali dell'AI e la ricerca di politiche che affrontano la concentrazione di potere nell'industria tecnologica. In precedenza ha lavorato come consulente senior sull'AI presso la Federal Trade Commission degli Stati Uniti ed è una ricercatrice visitatrice presso la Northeastern University, nonché collaboratrice di ricerca presso il Citizens and Technology Lab di Cornell.

Brevemente, come hai cominciato nell'AI? Cosa ti ha attratto nel campo?

Ho trascorso gli ultimi 15 anni interrogandomi sul ruolo delle aziende tecnologiche come attori politici potenti mentre emergevano sul fronte della governance internazionale. All'inizio della mia carriera, ho avuto il privilegio di osservare come le aziende tecnologiche statunitensi si sono presentate in tutto il mondo in modi che hanno cambiato il panorama politico - in Asia sud-orientale, in Cina, in Medio Oriente e altrove - e ho scritto un libro approfondendo su come il lobbying dell'industria e la regolamentazione abbiano plasmato le origini del modello di business della sorveglianza per Internet nonostante tecnologie che offrivano alternative in teoria che nella pratica non si sono materializzate.

Per molti punti della mia carriera, mi sono chiesta: 'Perché ci stiamo bloccando in questa visione molto distopica del futuro?' La risposta ha poco a che fare con la tecnologia stessa e molto con la politica pubblica e la commercializzazione.

Questo è stato praticamente il mio progetto da allora, sia nella mia carriera di ricerca che ora nel mio lavoro di policy come co-direttore di AI Now. Se l'AI fa parte dell'infrastruttura della nostra vita quotidiana, dobbiamo esaminare criticamente le istituzioni che la producono e assicurarci che come società ci sia una sufficiente 'frizione' - sia attraverso la regolamentazione che attraverso l'organizzazione - per garantire che siano soddisfatte le esigenze del pubblico alla fine della giornata, non quelle delle aziende tecnologiche.

Di quale lavoro sei più orgogliosa nel campo dell'AI?

Sono molto orgogliosa del lavoro che abbiamo svolto alla FTC, che è l'agenzia governativa degli Stati Uniti che, tra le altre cose, è in prima linea nell'applicazione normativa dell'intelligenza artificiale. Amavo mettermi all'opera e lavorare sui casi. Sono riuscita a utilizzare la mia formazione metodologica come ricercatrice per impegnarmi nel lavoro investigativo, poiché il kit di strumenti è essenzialmente lo stesso. È stato gratificante poter utilizzare questi strumenti per rendere direttamente conto al potere e vedere questo lavoro avere un impatto immediato sul pubblico, che si tratti di affrontare come l'IA è utilizzata per svalutare i lavoratori e aumentare i prezzi o combattere il comportamento anticoncorrenziale delle grandi aziende tecnologiche.

Siamo stati in grado di coinvolgere un fantastico team di tecnologi che lavorano sotto l'Ufficio della politica scientifica e tecnologica della Casa Bianca, ed è stato entusiasmante vedere il lavoro che abbiamo svolto avere una rilevanza immediata con l'emergere dell'IA generativa e l'importanza dell'infrastruttura cloud.

Quali sono le questioni più urgenti che l'AI affronterà man mano che si evolve?

In primo luogo, le tecnologie dell'AI sono ampiamente utilizzate in contesti altamente sensibili - negli ospedali, nelle scuole, ai confini e così via - ma rimangono insufficientemente testate e validate. Si tratta di una tecnologia propensa agli errori, e sappiamo dalla ricerca indipendente che tali errori non sono distribuiti in modo uniforme; danneggiano in modo sproporzionato le comunità che hanno a lungo sopportato il peso della discriminazione. Dovremmo fissare un obiettivo molto, molto più alto. Ma ciò che mi preoccupa di più è come le istituzioni potenti stiano usando l'AI - che funzioni o no - per giustificare le proprie azioni, dall'uso di armi contro i civili a Gaza al privare i lavoratori dei propri diritti. Questo è un problema non della tecnologia, ma del discorso: su come orientare la nostra cultura intorno alla tecnologia e all'idea che se c'è di mezzo l'AI, certe scelte o comportamenti diventino più 'oggettivi' o ricevano una sorta di passa dritto.

Qual è il modo migliore per costruire in modo responsabile l'AI?

Dobbiamo sempre partire dalla domanda: Perché costruire l'AI del tutto? Cosa necessita l'uso dell'intelligenza artificiale, e l'IA è adatta a quel proposito? A volte la risposta è costruire meglio, e in tal caso gli sviluppatori dovrebbero garantire la conformità alla legge, documentare e convalidare robustamente i propri sistemi e rendere aperto e trasparente ciò che possono, in modo che i ricercatori indipendenti possano fare altrettanto. Ma altre volte la risposta non è costruire affatto: non abbiamo bisogno di più armi o tecnologie di sorveglianza costruite in modo responsabile. L'uso finale conta per questa domanda, ed è da lì che dobbiamo partire.

Related Articles

Back to top button Back to top button