AI Responsabile e Affidabile

Gli avanzamenti nella ricerca e nello sviluppo di sistemi di Intelligenza Artificiale, sempre più sofisticati e precisi, hanno portato alla possibilità di poter applicare questi sistemi in settori importanti, ma spesso anche critici e ad alto rischio. Nel frattempo, l’imminente approvazione dell’AI Act ha dato l’impulso allo sviluppo di standard europei per assicurare l’affidabilità dei sistemi di AI. Questi standard porteranno all’implementazione pratica del regolamento e alla definizione di criteri e metriche per la misurazione dei principi contenuti nell’AI Act, come ad esempio human oversight, accuracy, data quality, eccetera. L’adozione di metriche e best practices condivise e quindi lo sviluppo di un'Intelligenza Artificiale Responsabile che rispetti i principi etici e legali individuati dall'Europa, come trasparenza, fairness, privacy, robustezza e non solo, sono di fondamentale importanza per costruire una fiducia sociale duratura, assicurare l’accettazione dei sistemi di AI, e in ultimo garantire il supporto all’innovazione tecnologica. In quest’ottica, la collaborazione tra accademia e industria è necessaria per costruire sistemi di AI efficaci e affidabili.

Chairs

Piercosma Bisconti Lucidi
CINI
Anna Monreale
Università degli Studi di Pisa
Francesca Naretto
Università degli Studi di Pisa

Programma

Location: Urania 2 e 3
9 a.m. Step in e introduzione al workshop

Relatori: Piercosma Bisconti, Anna Monreale e Francesca Naretto

9:30 a.m. Keynote speech: Foundational and societal aspects of AI

Relatore: Enrico Panai, Convenor of CEN-CENELEC WG4

10:15 a.m. Trustworthiness of Artificial Agents

Developing safe and explainable autonomous agents: from simulation to the real world [PDF]
Federico Bianchi, Alberto Castellini, Alessandro Farinelli, Luca Marzari, Daniele Meli, Francesco Trotti, Celeste Veronese
University of Verona

The NEMO co-pilot [PDF]
Stefania Costantini, Pierangelo Dell'acqua, Giovanni De Gasperis, Francesco Gullo, Andrea Rafanelli
Department of Information Engineering, Computer Science and Mathematics, University of L’Aquila, Department of Science and Technology, Linköping University, Linköping, Department of Computer Science, University of Pisa

11 a.m. Coffee break

11:30 a.m. Trustworthy GenAI

Assessing and Enhancing the Safety of LLMs
Simone Tedeschi, Andrea David Passarelli, Roberto Navigli
Babelscape srl

Towards a responsible usage of AI-based Large Acoustic Models for Automatic Speech Recognition: on the importance of data in the self-supervised era. [PDF]
Vincenzo Norman Vitale, Emilia Tanda, Francesco Cutugno
Università degli studi di Napoli Federico II

Beyond the Hype: Toward a Concrete Adoption of the Fair and Responsible Use of AI [PDF]
Lelio Campanile, Roberta De Fazio, Michele Di Giovanni, Fiammetta Marulli
Department of Mathematics and Physics Università degli Studi della Campania ”L. Vanvitelli”, Department of Mathematics and Physics Università degli Studi della Campania ”L. Vanvitelli”,

Ghosts in the AI [PDF]
Emanuele Fulvio Perri, Elio Grande
University of Pisa, CS Department

1 p.m. Symbiotic Trustworthiness

Acceptability of Symbiotic Artificial Intelligence: Highlights from the FAIR project [PDF]
Francesca Alessandra Lisi, Antonio Carnevale, Abeer Dyoub, Antonio Lombardi, Piero Marra, Lorenzo Pulito
University of Bari Aldo Moro

Symbiotic AI: What is the Role of Trustworthiness? [PDF]
Miriana Calvano, Antonio Curci, Rosa Lanzilotti, Antonio Piccinno
Università degli Studi di Bari Aldo Moro

1:30 p.m. Lunch

2:30 p.m. Fundamental rights and user-centred design for Responsible AI

Operationalizing the Fundamental Rights Impact Assessment for AI systems: the FRIA Project
Roberta Savella, Francesca Pratesi, Roberto Trasarti, Lucilla Gatt, Maria Cristina Gaeta, Ilaria Amelia Caggiano, Livia Aulino, Emiliano Troisi, Luigi Izzo
nstitute of Information Science and Technologies, National Research Council of Italy, Research Centre of European Private Law (ReCEPL), Università degli Studi Suor Orsola Benincasa

Towards Trustworthy AI in Inclusive Education: A Co-Creation Approach Rooted in Ecological Frameworks [PDF]
Valeria Cesaroni, Martina Galletti, Eleonora Pasqua, Daniele Nardi
Università degli studi di Perugia, Sony CSL -Paris; Sapienza University of Rome, Sapienza University of Rome; Centro Ricerca e Cura di Roma, Sapienza University of Rome; CINI-AIIS

On Representing Humans' Soft-Ethics Preferences As Dispositions [PDF]
Donatella Donati, Ziba Assadi, Simone Gozzano, Paola Inverardi, Nicolas Troquard
UNIVAQ, GSSI

Toward an Automated Framework to Ensure Machine Learning Fairness from Requirements Elicitation
Francesco Casillo, Gianmario Voria, Andrea De Lucia, Gemma Catolino, Fabio Palomba, Carmine Gravino
Università degli Studi di Salerno

4 p.m. Coffee break

4:30 p.m. Ensuring intrinsic trustworthiness through explainability and robustness

Responsibile and Reliable AI: Activities of the CINI-AIIS Lab at University of Naples Federico II [PDF]
Flora Amato, Giovanni Maria De Filippis, Antonio Galli, Michela Gravina, Lidia Marassi, Stefano Marrone, Elio Masciari, Vincenzo Moscato, Antonio Maria Rinaldi, Cristiano Russo, Carlo Sansone, Cristian Tommasino
Università degli Studi di Napoli Federico II

Investigating the robustness of fully decentralized learning
Luigi Palmieri, Chiara Boldrini, Lorenzo Valerio, Andrea Passarella, Marco Conti
IIT-CNR

Requirements of eXplainable AI in Algorithmic Hiring
Andrea Beretta, Gianmario Ercoli, Alfonso Ferraro, Riccardo Guidotti, Andrea Iommi, Antonio Mastropietro, Anna Monreale, Daniela Rotelli, Salvatore Ruggieri
ISTI-CNR, Università di Pisa

A Risk-based Approach to Trustworthy AI Systems for Judicial Procedures [PDF]
Majid Mollaeefar, Eleonora Marchesini, Roberto Carbone, Silvio Ranise
Fondazione Bruno Kessler, Center for Cybersecurity, Trento, Italy, Fondazione Bruno Kessler, Center for Cybersecurity, and Department of Mathematics, University of Trento