La ricerca, e i ricercatori, ai quali dovremmo attribuire maggiore importanza e risorse per corrispondere ad un “mercato della conoscenza” sempre più innovativo e complesso, si risolvono spesso in pubblicazioni scientifiche. A volte, i risultati della ricerca portano a invenzioni che vengono protette da brevetti per la tutela del diritto di utilizzazione industriale e commerciale. L’opera d’ingegno, l’autenticità e la responsabilità degli autori e dei coautori sono protetti dal diritto d’autore per la loro divulgazione e uso.
Le pubblicazioni e il lavoro editoriale sono molto cambiati nel tempo. Certamente, non si tratta più semplicemente di PDF o dell’editing di libri e riviste cartacee. Ora si tratta di opere che sfruttano rendering 3D, modelli, filmati HD, database, confronti e citazioni, la cui credibilità si basa su verifiche continue e persino correzioni e ritrattazioni. Questa è la base non solo della conoscenza incorporata in beni e servizi, ma anche di quella che ci permette di sopravvivere, crescere, costruire un futuro e trasferire tecnologie per la loro utilizzazione industriale o commerciale.
Quando di parla di prodotti della ricerca, varie esigenze richiedono di seguire rigorosi criteri etici e di trasparenza:
Oggi si è aggiunta un’altra grande sfida per la credibilità della scienza e dei suoi prodotti: l’utilizzazione di strumenti di intelligenza artificiale nell’elaborazione di opere scientifiche. È su questo punto che sia le associazioni che proteggono la qualità delle ricerche, che gli stessi editori, hanno adottato nuovi principi etici.
L’ascesa dell’intelligenza artificiale (IA) e delle tecnologie assistite dall’IA nella produzione di contenuti ha spinto editori come Elsevier a creare una nuova politica per gli autori scientifici, mirata a fornire maggiore trasparenza e guida agli autori, lettori, revisori, editor e contributori. Anche altri editori, come Springer, adottano ormai criteri analoghi.
Le tecnologie assistite dall’IA nel processo di scrittura, dovrebbero essere impiegate soltanto per
“migliorare la leggibilità e il linguaggio del lavoro e non per sostituire compiti chiave del ricercatore, fatto di intuizioni scientifiche, analisi ed interpretazione dei dati o conclusioni scientifiche”.
L’applicazione di queste tecnologie, infine, deve avvenire sotto il controllo e la supervisione umana e gli autori dovrebbero esaminare attentamente e modificare i risultati ottenuti, poiché l’AI può generare contenuti che suonano autorevoli ma che possono essere scorretti, incompleti o parziali.
In ogni caso, gli autori sono e rimangono “responsabili e responsabilizzati” per il contenuto del loro lavoro. Pertanto, è importante che i ricercatori dichiarino l’utilizzo dell’IA o di tecnologie simili nel manoscritto e favoriscano la trasparenza e la fiducia tra autori, lettori, revisori, editor e collaboratori. La divulgazione dell’uso di queste tecnologie dovrebbe anche facilitare la conformità ai termini di utilizzo degli strumenti o delle tecnologie pertinenti. Infine, è importante notare che gli autori non devono elencare le tecnologie assistite dall’IA come autori o coautori, né citare l’IA (ChatGPT una fra tante) come autore.
L’autorialità implica responsabilità e compiti che possono essere attribuiti e svolti solo da esseri umani. Ogni (co)autore è responsabile di garantire che le domande relative all’accuratezza o all’integrità di qualsiasi parte del lavoro siano adeguatamente indagate e risolte, l’autorialità richiede la capacità di approvare la versione finale del lavoro e acconsentire alla sua presentazione.
Gli autori sono, inoltre, responsabili di garantire che il lavoro sia originale, che gli autori indicati siano qualificati e che il lavoro non violi i diritti di terzi.
Per ora sono criteri soddisfatti solo e soltanto dalle capacità umane
Massimo Micucci