L’AI stretta tra sistemi giuridici ed implicazioni geopolitiche (cap.1)
La Regolamentazione dell’Intelligenza Artificiale e il “Brussels Effect”: Un’Analisi Comparativa Dettagliata delle Visioni Giuridiche Globali e le Sue Implicazioni Geopolitiche
L’Unione Europea si è affermata a livello globale come un attore di spicco, un “campione” nella capacità di “saper fare le regole”, un fenomeno ampiamente riconosciuto e studiato nel diritto internazionale e nella geopolitica come il “Brussels Effect“. Questo ruolo le viene riconosciuto anche in contesti internazionali, distinguendola per un approccio normativo che è percepito come una leadership nell’ambito della governance digitale e della definizione di standard globali. Il suo approccio alla regolamentazione dell’AI è principalmente basato sulla valutazione e gestione del rischio, con l’intento esplicito di introdurre “cautele” specifiche per salvaguardare i diritti fondamentali, la sicurezza e la privacy dei cittadini. Tale impostazione mira a bilanciare l’innovazione tecnologica con la protezione etica e sociale.
Questo sistema giuridico europeo si differenzia nettamente da quello di altre grandi potenze globali, come gli Stati Uniti, e in maniera ancora più marcata da quello di autocrazie quali la Cina. La Cina, ad esempio, adotta una regolamentazione sulle “fake news” che riflette un controllo statale molto più stringente sull’informazione, considerata un “elemento fondamentale” per la stabilità, la sicurezza nazionale e la coesione sociale. Anche rispetto a paesi come l’Arabia Saudita, che fu la prima in tempi non sospetti a riconoscere un passaporto a un robot, l’approccio europeo mostra una chiara differenza valoriale e metodologica. Mentre gli Stati Uniti sono riconosciuti come una potenza tecnologica, una potenza finanziaria, una potenza militare, e dunque agiscono con una logica diversa orientata alla supremazia e alla competitività globale, l’Europa cerca di bilanciare la spinta all’innovazione con la protezione dei diritti e dei principi democratici.
L’ordinamento giuridico europeo si fonda su tre principi cardine: l’eguaglianza, il riconoscimento e la terzietà del giudice. Questi principi, che costituiscono la base dell’ordinamento giuridico europeo, creano una complessità intrinseca che complica notevolmente la ricerca di accordi bilaterali o multilaterali con sistemi giuridici che non condividono le stesse fondamenta. L’assenza reciproca di questi principi, infatti, può far crollare tutto il castello di buone intenzioni. Nel contesto dei negoziati internazionali, specialmente nei bilaterali, si assiste spesso all’applicazione della “legge del più forte”, come osservato in dispute commerciali quali quelle sui dazi. Questo significa che, senza un terreno comune basato su valori giuridici condivisi, la parte più debole (spesso l’Europa in contesti tecnologici dominati da USA e Cina) rischia di subire le condizioni imposte.
Esempi concreti illustrano queste difficoltà di interoperabilità giuridica e di riconoscimento reciproco. Il sistema cinese convocato dal garante privacy italiano, ha risposto rifiutando esplicitamente di riconoscere l’autorità italiana e impedendo persino l’avvio del dialogo, che di fatto non è neanche partito. Questo episodio sottolinea una fondamentale mancanza di giurisdizione effettiva su entità tecnologiche globali. Analogamente ma con qualche differenza, aziende statunitensi come Clearview AI e Open AI sono state sanzionate in paesi come l’Italia e la Germania per aver utilizzato dati europei senza le cautele della nostra regolamentazione sulla protezione dei dati, nonostante le loro pretese contrarie. Il Garante Privacy italiano, in particolare, è stato tra i primi a intervenire in questi casi, dimostrando la vigilanza europea ma anche le difficoltà nell’applicare le proprie regole a entità globali che operano senza una chiara assunzione di responsabilità locale. Questi esempi ci dicono che “la fattispecie non è univoca”, ovvero che il panorama giuridico e operativo dell’AI non è equamente distribuito o compreso tra i diversi attori globali.
La regolamentazione europea, pur ambiziosa nel suo intento di creare un quadro normativo solido e inclusivo, è talvolta criticata per la sua eccessiva complessità e mancanza di astrattezza. Per spiegare un singolo articolo dell’AI Act, sono state prodotte centinaia di pagine di linee guida. Questa estensione e il dettaglio minuzioso suggeriscono una difficoltà intrinseca nel “inquadrare” e regolamentare un numero indeterminato di fattispecie. Una norma, in principio, deve essere gnerale e astratta, ovvero serve per regolare un numero indeterminato di fattispecie. Dunque se si devono elencare e puntualizzare si è creata una sommatoria di casi d’uso, diminuendo la portata generale della norma ed aumentando la burocrazia. Tale complessità rende il quadro normativo europeo difficile da comprendere o accettare per altri sistemi giuridici, come quello americano. L’ordine esecutivo del Presidente Biden, ad esempio, rifletteva chiaramente un sistema diverso dal nostro, rendendo difficile cercare accordi bilaterali, nonostante si aprisse ad essi. Questa complessità normativa, sebbene intesa a tutelare i diritti e i principi democratici, rischia di creare barriere all’innovazione e alla cooperazione internazionale, rendendo l’Europa un attore più lento e meno agile nel panorama globale dell’AI.
In questo contesto, si è verificato un “allentamento degli aiuti di Stato” post-pandemia, permettendo agli Stati membri maggiore flessibilità nel supportare le proprie industrie. La Presidente della Commissione Europea, Ursula von der Leyen, ha manifestato spesso l’intento di agire sulle deroghe a sistemi che sembrano ingessati e ha sottolineato l’importanza della difesa, riconoscendo che le tecnologie hanno usi civili e usi militari. Quest’ultimo aspetto è cruciale, poiché gli usi militari emergono soltanto quando si parla di casi specifici, ma la duplice natura delle tecnologie è fondamentale per la sicurezza nazionale. Tuttavia, nonostante questi tentativi di adattamento e l’esplicito riconoscimento della dimensione strategica dell’AI, la disgiunzione tra la volontà di regolare e la capacità di farlo in modo coeso rimane una sfida centrale per l’Europa, rendendo difficile l’allineamento delle “27 strategie” dei singoli Stati membri in un fronte comune e competitivo.