AI Responsabile e Affidabile
Gli avanzamenti nella ricerca e nello sviluppo di sistemi di Intelligenza Artificiale, sempre più sofisticati e precisi, hanno portato alla possibilità di poter applicare questi sistemi in settori importanti, ma spesso anche critici e ad alto rischio. Nel frattempo, l’imminente approvazione dell’AI Act ha dato l’impulso allo sviluppo di standard europei per assicurare l’affidabilità dei sistemi di AI. Questi standard porteranno all’implementazione pratica del regolamento e alla definizione di criteri e metriche per la misurazione dei principi contenuti nell’AI Act, come ad esempio human oversight, accuracy, data quality, eccetera. L’adozione di metriche e best practices condivise e quindi lo sviluppo di un'Intelligenza Artificiale Responsabile che rispetti i principi etici e legali individuati dall'Europa, come trasparenza, fairness, privacy, robustezza e non solo, sono di fondamentale importanza per costruire una fiducia sociale duratura, assicurare l’accettazione dei sistemi di AI, e in ultimo garantire il supporto all’innovazione tecnologica. In quest’ottica, la collaborazione tra accademia e industria è necessaria per costruire sistemi di AI efficaci e affidabili.
Chairs
|
Programma
Location: Urania 2 e 39 a.m. |
Step in e introduzione al workshop
Relatori: Piercosma Bisconti, Anna Monreale e Francesca Naretto |
9:30 a.m. |
Keynote speech: Foundational and societal aspects of AI
Relatore: Enrico Panai, Convenor of CEN-CENELEC WG4 |
10:15 a.m. |
Trustworthiness of Artificial Agents
Developing safe and explainable autonomous agents: from simulation to the real world
[PDF]
The NEMO co-pilot
[PDF]
|
11 a.m. |
Coffee break
|
11:30 a.m. |
Trustworthy GenAI
Assessing and Enhancing the Safety of LLMs
Towards a responsible usage of AI-based Large Acoustic Models for Automatic Speech Recognition: on the importance of data in the self-supervised era.
[PDF]
Beyond the Hype: Toward a Concrete Adoption of the Fair and Responsible Use of AI
[PDF]
Ghosts in the AI
[PDF]
|
1 p.m. |
Symbiotic Trustworthiness
Acceptability of Symbiotic Artificial Intelligence: Highlights from the FAIR project
[PDF]
Symbiotic AI: What is the Role of Trustworthiness?
[PDF]
|
1:30 p.m. |
Lunch
|
2:30 p.m. |
Fundamental rights and user-centred design for Responsible AI
Operationalizing the Fundamental Rights Impact Assessment for AI systems: the FRIA Project
Towards Trustworthy AI in Inclusive Education: A Co-Creation Approach Rooted in Ecological Frameworks
[PDF]
On Representing Humans' Soft-Ethics Preferences As Dispositions
[PDF]
Toward an Automated Framework to Ensure Machine Learning Fairness from Requirements Elicitation
|
4 p.m. |
Coffee break
|
4:30 p.m. |
Ensuring intrinsic trustworthiness through explainability and robustness
Responsibile and Reliable AI: Activities of the CINI-AIIS Lab at University of Naples Federico II
[PDF]
Investigating the robustness of fully decentralized learning
Requirements of eXplainable AI in Algorithmic Hiring
A Risk-based Approach to Trustworthy AI Systems for Judicial Procedures
[PDF]
|