Lo European Research Council (ERC) ha pubblicato nuove linee guida sull’utilizzo dell’intelligenza artificiale nei processi di valutazione delle proposte progettuali, con l’obiettivo di garantire trasparenza, integrità e qualità del sistema di peer review.
Le indicazioni, adottate dallo Scientific Council dell’ERC, intervengono in un momento in cui l’uso dell’AI nei processi di ricerca e valutazione è in forte crescita, definendo regole chiare e limiti precisi per il suo impiego.
Due principi chiave: responsabilità e riservatezza
Le linee guida si fondano su due pilastri fondamentali:
- non delegabilità della valutazione: la responsabilità scientifica resta interamente in capo ai revisori;
- protezione della riservatezza: è vietato condividere contenuti delle proposte con strumenti esterni di AI.
In particolare, non è consentito utilizzare sistemi di intelligenza artificiale per:
- sintetizzare le proposte progettuali;
- valutarne il merito scientifico;
- generare bozze di valutazione.
Uso limitato e controllato dell’AI
Le linee guida ammettono un utilizzo circoscritto degli strumenti di AI, ad esempio per:
- migliorare la qualità linguistica dei report;
- supportare ricerche generali di contesto.
Tali utilizzi sono consentiti solo a condizione che non vengano inseriti dati sensibili o contenuti delle proposte, preservando così la confidenzialità del processo.
Garantire l’integrità della valutazione scientifica
L’iniziativa dell’ERC punta a mantenere elevati standard di qualità e affidabilità nella selezione dei progetti finanziati, evitando che l’automazione possa compromettere l’indipendenza del giudizio scientifico.
In questo quadro, l’intelligenza artificiale viene riconosciuta come uno strumento di supporto, ma non come sostituto del processo umano di valutazione, che resta centrale per assicurare l’eccellenza della ricerca finanziata.
Fonte: European Research Council



