La rivista Cultura giuridica e diritto vivente adotta una policy sull’uso dell’intelligenza artificiale in linea con i principi internazionali di integrità della ricerca, trasparenza e responsabilità scientifica.
Uso dell’intelligenza artificiale nella preparazione dei manoscritti
Gli autori possono utilizzare strumenti di intelligenza artificiale generativa esclusivamente come supporto nella preparazione del manoscritto (ad esempio per migliorare la chiarezza linguistica o l’organizzazione del testo). Tali strumenti non possono in alcun caso sostituire il contributo scientifico, l’analisi critica e la responsabilità intellettuale degli autori.
Gli autori restano pienamente responsabili del contenuto del proprio contributo e devono verificare l’accuratezza, l’affidabilità e la correttezza delle informazioni eventualmente generate o rielaborate mediante strumenti di intelligenza artificiale.
Autorialità e responsabilità scientifica
Gli strumenti di intelligenza artificiale non possono essere indicati come autori o coautori di un contributo scientifico.
L’autorialità implica responsabilità scientifiche e editoriali che possono essere attribuite esclusivamente a persone fisiche.
Gli autori sono responsabili dell’originalità del lavoro, della correttezza delle fonti utilizzate e della conformità del contributo alle norme di etica della ricerca.
Trasparenza nell’uso degli strumenti di intelligenza artificiale
Qualora strumenti di intelligenza artificiale siano stati utilizzati nella preparazione del manoscritto, gli autori devono dichiararlo al momento della sottomissione, indicando:
- lo strumento utilizzato;
- le finalità del suo impiego;
- l’estensione del suo utilizzo.
Questa dichiarazione è finalizzata a garantire trasparenza nei confronti di lettori, revisori ed editor.
Uso dell’intelligenza artificiale nel processo di peer review
Il processo di peer review richiede una valutazione critica indipendente e deve essere svolto esclusivamente da revisori umani. I revisori non devono caricare manoscritti sottoposti a valutazione, o parti di essi, su piattaforme di intelligenza artificiale generativa, al fine di garantire la riservatezza del processo editoriale e la tutela dei diritti degli autori.
Uso dell’intelligenza artificiale nel processo editoriale
Analogamente, gli editor non devono utilizzare strumenti di intelligenza artificiale per analizzare o valutare i manoscritti sottoposti alla rivista, né caricare tali documenti su piattaforme di intelligenza artificiale.
Le decisioni editoriali devono essere basate esclusivamente sulla valutazione scientifica degli editor e dei revisori.
