AI Act e Big Tech: equilibrio tra trasparenza, diritti e lobbying

Le Big Tech stanno influenzando la definizione degli standard europei sull’intelligenza artificiale. Il rischio per l’AI Act? Che finisca per rispecchiare più gli interessi delle multinazionali che quelli dei cittadini

Chi sta davvero dettando le regole sull’intelligenza artificiale in Europa? Secondo il Corporate Europe Observatory (CEO), ong belga che monitora l’influenza delle lobby sul policy making europeo, dietro le quinte dell’Ai Act ci sarebbe un ruolo eccessivo delle multinazionali tecnologiche. Le evidenze raccolte in un recente rapporto parlano chiaro: il processo di definizione degli standard europei sarebbe opaco e squilibrato, con la presenza di troppi rappresentanti di grandi aziende e società di consulenza nei tavoli decisionali di Cen e Cenelec, gli organismi incaricati di stabilire i criteri tecnici per l’applicazione dell’Ai Act.

La partecipazione alle riunioni di standardizzazione richiede tempo, risorse e competenze tecniche di alto livello. Una barriera d’ingresso che esclude di fatto la società civile, nonostante sia l’unica in grado di valutare l’impatto delle normative sulla popolazione. Questo squilibrio mina l’inclusività di un processo che, almeno sulla carta, dovrebbe tenere conto anche dei diritti umani e dei rischi etici delle tecnologie emergenti. Come spiega Marco Fasoli, docente di Filosofia dell’intelligenza artificiale alla Sapienza, “la tecnologia e i suoi standard non possono più essere visti come questioni meramente tecniche. Stabilire qual è lo standard minimo accettabile per la trasparenza o i bias dei sistemi ha un impatto potenzialmente enorme”. Ma a oggi, osserva, “siamo molto distanti da questa consapevolezza”.

AI Act, un problema condiviso

Lo stesso problema viene evidenziato da Fabrizio Silvestri, professore di AI alla Sapienza, che sottolinea quanto concetti come bias e trasparenza siano difficili da tradurre in parametri oggettivi. “Gli standard – dice – dovrebbero tener conto anche delle specificità regionali e delle PMI, spesso escluse, ma fondamentali per l’economia europea. Regole troppo generiche, poco aderenti alle esigenze locali o incapaci di tutelare i soggetti vulnerabili, rischiano di erodere la fiducia pubblica”.

Standardizzare significa fissare soglie minime di sicurezza e qualità: ciò vale per qualunque prodotto, dai telefoni alle IA. In Europa, a occuparsene per l’intelligenza artificiale sono Cen e Cenelec, che nel 2023 hanno ricevuto mandato dalla Commissione europea per elaborare standard su temi come gestione del rischio, trasparenza, supervisione umana e cybersecurity. Il JTC21, comitato congiunto istituito per lo scopo, ha creato cinque gruppi di lavoro. Entro il 2026, i sistemi di IA “ad alto rischio” dovranno conformarsi agli standard stabiliti.

Ma chi siede davvero attorno a questi tavoli? Secondo CEO, nonostante la riservatezza formale, molti partecipanti discutono apertamente il proprio ruolo su LinkedIn. Da un’analisi dei profili, emerge che 78 dei 143 membri identificati sono rappresentanti di corporation e società di consulenza. Tra questi, spiccano colossi come Microsoft, che secondo il rapporto guida persino alcune delegazioni nazionali, ma anche IBM, Amazon, Google, Oracle, Qualcomm e Huawei. “Per farla breve, Big Tech domina il processo di definizione degli standard” riassume Bram Vranken, ricercatore del CEO.

Il ruolo delle società di consulenza, come Deloitte ed Ernst & Young, è altrettanto centrale, ma spesso opaco. Partecipano per conto di clienti non europei, ma senza doverne dichiarare l’identità, garantendo l’anonimato. Questo consente di moltiplicare le voci a favore di uno stesso interesse, frammentandole per nazionalità. 

Anche Ilaria Fevola, di Article 19, l’organizzazione internazionale che promuove e difende la libertà di espressione e l’accesso all’informazione, denuncia una sproporzione evidente: “Da una parte ci sono Big Tech, dall’altra tutti gli altri. Ma la società civile è quasi assente”. Le riunioni, troppo affollate e strutturate in modo da limitare le possibilità di intervento, non favoriscono il pluralismo. “Come è possibile creare regole per far rispettare i diritti se non ascolti chi li tutela?”, si chiede Fevola.

La Commissione europea, interpellata sul tema, ha replicato che “le minute e la lista dei partecipanti esistono, anche se non sono pubbliche”, e che sono accessibili agli esperti coinvolti. Aggiunge di aver coinvolto molte più organizzazioni attive sui diritti fondamentali rispetto ad altri ambiti normativi, citando realtà come ANEC, ETUC, 5Rights e Algorithm Audit. Riguardo alla scelta di tenere una riunione nella sede di Microsoft a Dublino, la Commissione precisa che la rotazione dei luoghi spetta agli organismi nazionali di standardizzazione, e che il meeting successivo si è tenuto all’università di Bath.

I dubbi su un processo in cui, più che la diversità delle voci, sembra contare chi ha più potere, risorse e lobby, restano.

Redazione

Lo spazio dedicato all'informazione, alle notizie e a tutti gli aggiornamenti sul mondo del commercio elettronico

Non ci sono ancora commenti

Lascia un Commento

Il tuo indirizzo email non sarà pubblicato.

CONTATTI

Via Lana, 5 | 25020 FLERO (BS)

Tel 030.358.03.78
redazione@lineaecommerce.it

LINEAeCOMMERCE

Lo spazio dedicato all'informazione, alle notizie e a tutti gli aggiornamenti sul mondo del commercio elettronico

CHI SIAMO

Linea ecommerce è un prodotto editoriale curato da Aicel (Associazione italiana commercio elettronico) con l'obiettivo di fare cultura e informazione sul mondo delle vendite online di beni e servizi, sugli sviluppi normativi del settore e più in generale sul digitale. Un canale per essere sempre aggiornati riguardo all'evoluzione dell'ecommerce e alle sue tendenze.