Internet

La presentazione dell'IPO di Rubrik rivela un comitato di governance sull'IA. Abituatevi.

Nella presentazione dell'IPO di Rubrik questa settimana - tra le parti riguardanti il numero di dipendenti e gli stati dei costi - c'era un dettaglio che rivela come la società di gestione dei dati sta pensando all'IA generativa e ai rischi che accompagnano la nuova tecnologia: Rubrik ha silenziosamente istituito un comitato di governance per supervisionare come l'intelligenza artificiale viene implementata nel suo business.

Secondo il Form S-1, il nuovo comitato di governance sull'IA include manager del dipartimento di ingegneria, prodotto, legale e sicurezza dell'informazione di Rubrik. Insieme, i team valuteranno i potenziali rischi legali, di sicurezza e commerciali dell'utilizzo di strumenti di IA generativa e pondereranno "misure che possono essere adottate per mitigare tali rischi", si legge nella presentazione.

Per essere chiari, Rubrik non è un'azienda di IA nel suo core - il suo unico prodotto di IA, un chatbot chiamato Ruby che ha lanciato nel novembre 2023, è basato su API di Microsoft e OpenAI. Ma come molti altri, Rubrik (e i suoi attuali e futuri investitori) sta considerando un futuro in cui l'IA avrà un ruolo sempre più importante nel suo business. Ecco perché dovremmo aspettarci più mosse del genere in futuro.

Crescente attenzione regolamentare

Alcune aziende stanno adottando le migliori pratiche sull'IA per prendere l'iniziativa, ma altre saranno spinte a farlo da regolamenti come l'Atto sull'IA dell'UE.

Denominata "la prima legge completa sull'IA al mondo", la legislazione storica - prevista diventare legge in tutta l'Unione entro la fine dell'anno - vieta alcuni casi d'uso di IA ritenuti portatori di "rischi inaccettabili" e definisce altre applicazioni "ad alto rischio". Il disegno di legge stabilisce inoltre regole di governance volte a ridurre i rischi che potrebbero amplificare danni come prevenzione della discriminazione. Questo approccio di valutazione del rischio è probabile che venga ampiamente adottato dalle aziende che cercano un modo ragionato per adottare l'IA.

L'avvocato per la privacy e la protezione dei dati Eduardo Ustaran, partner presso Hogan Lovells International LLP, prevede che l'Atto sull'IA dell'UE e le sue molteplici obbligazioni amplificheranno la necessità di governance sull'IA, che a sua volta richiederà comitati. "Oltre al suo ruolo strategico nel progettare e supervisionare un programma di governance sull'IA, da un punto di vista operativo, i comitati di governance sull'IA sono uno strumento chiave per affrontare e ridurre i rischi", ha detto. "Questo perché collettivamente, un comitato adeguatamente istituito e finanziato dovrebbe essere in grado di anticipare tutti gli ambiti a rischio e lavorare con l'attività commerciale per affrontarli prima che si materializzino. In un certo senso, un comitato di governance sull'IA servirà da base per tutti gli altri sforzi di governance e fornirà una rassicurazione necessaria per evitare lacune di conformità."

In un recente documento politico sulle implicazioni dell'Atto sull'IA dell'UE per la governance aziendale, la consulente per ESG e conformità Katharina Miller ha concordato, raccomandando alle aziende di istituire comitati di governance sull'IA come misura di conformità.

Esame legale

La conformità non è destinata solo a soddisfare i regolatori. L'Atto sull'IA dell'UE ha conseguenze, e "le sanzioni per la mancata conformità con l'Atto sull'IA sono significative", ha notato lo studio legale anglo-americano Norton Rose Fulbright.

La sua portata va oltre l'Europa. "Le aziende che operano al di fuori del territorio dell'UE potrebbero essere soggette alle disposizioni dell'Atto sull'IA se svolgono attività relative all'IA coinvolgendo utenti o dati dell'UE", ha avvertito lo studio legale. Se sarà simile al GDPR, la legislazione avrà un impatto internazionale, specialmente in mezzo all'aumentata cooperazione UE-USA sull'IA.

Gli strumenti di IA possono portare un'azienda in difficoltà oltre la legislazione sull'IA. Rubrik ha rifiutato di condividere commenti con TechCrunch, probabilmente a causa del periodo di silenzio sull'IPO, ma la presentazione della società menziona che il suo comitato di governance sull'IA valuta una vasta gamma di rischi.

I criteri di selezione e analisi includono la considerazione di come l'uso di strumenti di IA generativa potrebbe sollevare questioni relative a informazioni confidenziali, dati personali e privacy, dati dei clienti e obblighi contrattuali, software open source, diritti d'autore e altri diritti di proprietà intellettuale, trasparenza, accuratezza e affidabilità dell'output, e sicurezza.

È importante tenere presente che il desiderio di Rubrik di coprire le basi legali potrebbe derivare da una varietà di altri motivi. Potrebbe, ad esempio, anche essere lì per mostrare che sta anticipando responsabilmente i problemi, cosa critica dato che Rubrik ha precedentemente affrontato non solo una fuga di dati e un hack, ma anche cause per violazione della proprietà intellettuale.

Una questione di ottica

Le aziende non guarderanno esclusivamente all'IA attraverso il filtro della prevenzione dei rischi. Ci saranno opportunità che loro e i loro clienti non vorranno perdere. Questo è uno dei motivi per cui gli strumenti di IA generativa vengono implementati nonostante abbiano evidenti difetti come "allucinazioni" (ovvero una tendenza a fabbricare informazioni).

Sarà un equilibrio delicato per le aziende. Da un lato, vantarsi del loro uso di IA potrebbe aumentare le loro valutazioni, indipendentemente da quanto reale sia detto utilizzo o da quale differenza faccia al loro bilancio. Dall'altro, dovranno rassicurare sui potenziali rischi.

"Ci troviamo in questo momento chiave dell'evoluzione dell'IA dove il futuro dell'IA dipende fortemente dal fatto che il pubblico si fidi dei sistemi di IA e delle aziende che li utilizzano", ha scritto Adomas Siudika, consulente per la privacy e la sicurezza del software OneTrust, in un post sul blog sul tema.

Stabilire comitati di governance sull'IA sarà probabilmente almeno un modo per cercare di aiutare sul fronte della fiducia.

Related Articles

Back to top button Back to top button