Munera 2/2022 – Mario Midiri >> Big Tech, l’intelligenza artificiale e il potere dei dati: una questione costituzionale

L’intelligenza artificiale (IA) è «una delle questioni più profonde su cui sta lavorando l’umanità. Più profonda del fuoco o dell’elettricità», così S. Pichai, Chief Executive Officer di Alphabet, la società madre di Google. Grandi sono le potenzialità applicative dell’IA come pure i rischi, che però sono diversamente percepiti nelle diverse regioni del mondo: con un marcato atteggiamento favorevole verso l’innovazione nell’ordinamento statunitense, mentre nell’esperienza cinese si intrecciano incentivi alla ricerca e controllo pubblico.

L’Europa sembra tagliata fuori sul piano industriale e della ricerca. Sono statunitensi Alphabet-Google, Apple, Facebook, Microsoft, Amazon: investono in IA e fanno acquisizioni mirate. Dal 2007, Alphabet ha comprato 30 aziende di IA; nel 2014, l’acquisto di DeepMind. Se si guarda al cloud, la maggior parte degli operatori è americano (Amazon Web Services, Microsoft Azure, Google Cloud Platform, Ibm Cloud, che ha acquisito Red Hat); c’è anche la cinese Alibaba, ma nessuna impresa europea. Oltre il 90 per cento dei dati nel mondo occidentale è memorizzato negli Stati Uniti.2 Quanto al 5G, è la Cina ad ambire alla primazia. Come ha ammesso il relatore al comitato del Parlamento UE su Artificial Intelligence in Digital Age, la UE «è chilometri indietro rispetto agli USA e alla Cina»: le mancano potere di mercato, capacità di ricerca, investimenti.3

L’Unione Europea può comunque assumere un ruolo di rilievo nella definizione del sistema delle regole, necessario per creare fiducia nell’uso responsabile della tecnologia. Il corpus di norme che essa sta elaborando potrebbe servire da modello per altri ordinamenti – anche per quello statunitense – come è accaduto per altre regolazioni.

Già da tempo si chiede alle grandi piattaforme digitali di innervare nelle policy d’impresa il rispetto di essenziali principi di etica. Il richiamo al principio di responsabilità dovrebbe rafforzarsi con l’adozione di regole giuridiche vincolanti: la forza di mercato di Big Tech – e la posizione di potere così acquisita – non consentono di puntare sulla sola auto-regolazione, né sembra bastare la soft law. Spetta, quindi, alle istituzioni un compito complesso: difendere i valori costituzionali (tutela della dignità umana, dei dati personali e della vita privata, principio di non discriminazione) senza perdere i vantaggi dell’innovazione.

In questo ambito, la regolazione non può ricalcare quella sperimentata per le reti (energia elettrica, gas, acqua): essa deve avere margini di adattamento a sviluppi non codificabili ex ante. La stessa definizione della IA come “software che genera output per obiettivi definiti dall’uomo” ha carattere generale, e l’elenco delle tecniche e degli approcci seguiti per realizzare il sistema è soggetto a futura revisione: il che è ragionevole, considerata l’evoluzione tecnologica, ma può creare incertezza sul futuro ambito applicativo del regolamento.

Acquista l'articolo
per continuare a leggere acquista questo articolo

Utente biblioteche abbonate: clicca qui »

Share