ChatGPT torna attivo in Italia: la regolamentazione è controversa, ma l’Italia a che punto è?

5 Maggio 2023

Misure preventive contro l’Intelligenza Artificiale, tra i paesi liberi ne abbiamo avute solo in Italia. Le preoccupazioni per la rapida diffusione della nuova tecnologia sono molto vaste, ma i presupposti, considerando il curioso appello alla moratoria preventiva da parte di operatori big tech e scienziati, sono fortemente influenzati da bias catastrofici, da prospettive a lungo termine o da posizioni ideologiche. Forse qualcuno di loro temeva proprio l’effetto disruptive della novità sul proprio business. Una domanda: quale delle tecnologie, di cui sono alfieri alcuni dei sottoscrittori dell’appello, a partire dal Presidente della autorità, è stata regolata prima che si affermasse? E quale mai bloccandola? Curioso che persino al vertice delle istituzioni di garanzia ci sia chi ha sottoscritto appelli del genere e che ci informi oggi della propria opinione che diventa azione istituzionale.

Fondate o no che fossero le attenzioni e gli allarmi del Garante per la protezione dei dati personali, aver indotto il blocco di fatto di ChatGPT, prima di averne accertato le violazioni, non è stata una buona idea. Non c’è un criterio di “garanzia” degli utenti e in generale sul libero uso dei dati anche da parte dei proprietari dei dati stessi. Il dialogo che è successivamente iniziato tra le parti, è una buona notizia da ovunque la si guardi, ma il blocco del processamento dati (che tanti esperti definiscono ipocritamente un non-blocco di Chat GPT) ne ha impedito l’uso ad ognuno di noi, anzi solo ad alcuni di noi perché gli altri si sono dotati di una VPN. Ergo, la decisione ha dato via ad un aggiramento di massa del problema, anch’esso costoso e discriminante.

Un segnale sbagliato e pericoloso, in un mondo reso più difficile e stretto da una logica preventiva del diritto, che diventa restrizione. Quando si contrasta ciò che non si è ancora accertato, gli utenti (i cui dati vengono utilizzati) vengono “messi ai domiciliari” con una protezione non richiesta. La loro libertà è limitata a prescindere. Non si vuole stabilire se, come, quanto ChatGPT ha violato né che cosa, ma di rovesciare l’onere della prova in attesa dell’accertamento. Intervistato dopo il primo incontro Stanzione ha dichiarato:

Come Italia indichiamo una via europea all’intelligenza artificiale, che prescinde dal liberismo accentuato statunitense come dal sovranismo autarchico della Cina o della Corea del Nord e si situa nel bel mezzo di questa nuova guerra fredda. La nostra è una strada intermedia, faticosa, per la libertà, la democrazia e la dignità della persona in Europa”.

Certo privacy, copyright, ed esposizione di minori sono ambiti, giustamente, fortemente protetti. Si possono giudicare diversamente (Tra Europa, USA, paesi Autoritari) le ragioni e gli esiti di questa “protezione” ed “i patti” che provider ed utenti sono tenuti a stabilire e rispettare. Va riconosciuto che laddove questa protezione non funziona (minorenni e identità) nonostante i ragionevoli auto-accertamenti, questo non equivale ad un “liberi tutti”; ma ogni volta che si “agisce” anticipando e invece di applicare la “rule of law” si sa dove si comincia, ma anche che, spesso, finisce male.

Anche l’applicazione pedissequa di norme prescrittive può dar luogo a contraddizioni curiose, come avviene ad esempio nelle “Linee guida per il trattamento di dati personali effettuato da soggetti pubblici per finalità di pubblicazione e diffusione sul web”, linee emesse dal Garante, dove si indica (attenzione non si obbliga) come e quanto “de-indicizzare” i dati personali dei dirigenti pubblici (compensi e cv) in modo che, pur essendo obbligatoriamente pubblici, non vengano aggregati e duplicati. Cioè si indica il diritto e la possibilità di tenersi al riparo da ricerche “semplificate”. Indicazioni condivisibili, che si fondano sul rispetto della privacy, ma contemperato da obblighi di trasparenza, pubblicità, accessibilità vincolanti. Si tratta di diritti e regole già definiti, il cui accertamento deve essere verificato e varia in base alle disponibilità e alle funzioni. Solo successivamente vengono applicate le sanzioni e le restrizioni.
Perché non riconoscere almeno la stessa libertà, volontà e capacità di giudizio agli utenti privati di proteggersi, dosando la propria sovranità sui dati con gli strumenti esistenti, se informati, salvo violazioni accertate?

Un artista ingegnoso nel 2020 ha simulato tempo fa un ingorgo stradale su Google Maps (tecnologia largamente acquisita a livello di massa) grazie a 99 cellulari trasportati con una carriola su un ponte a Berlino. Dati e cookies perfettamente anonimizzati possono dar luogo a contraddizioni impensate: perché non vietare o sospendere dunque la geolocalizzazione del traffico?
Sembra un vizio italiano ed europeo quello di muoversi per evitare (fino alla massima precauzione), piuttosto che per accertare la realtà su base di prove.
Sono filosofie regolatorie diverse: funzionano solo se c’è certezza ed univocità del diritto. Se invece c’è incertezza (e pregiudizio) si determinano contenziosi dagli esiti lunghissimi che aumentano la “renitenza” all’ investimento e rallentano l’innovazione. Per tutti.

È evidente che la prevenzione giudiziaria di cui già abbiamo danni, che sono resi esponenziali dalle diverse giurisdizioni nazionali ed extra-nazionali rende tutto più complicato, incerto e resta sempre “al di qua” di una realtà in continua evoluzione tecnologica.
Provare ad irregimentarla fermandola prima che si sviluppi resta una via più inutile che pericolosa.

Massimo Micucci

Condividi questo articolo:
Open Gate Italia Srl | Via di Villa Belardi, 24 00154 Rome | VAT IT09992661000 | REA RM-1202504 | authorized capital 111.111,00€
Developed by Thinknow