La tesi affronta il problema teorico della fiducia nelle intelligenze artificiali. L’obiettivo della ricerca è chiarire che cosa significhi realmente fidarsi di un sistema di intelligenza artificiale e se sia possibile applicare il concetto di fiducia a entità prive di agentività morale, spostando l’attenzione dall’ingegneria del sistema all’esperienza dell’utente. Attraverso un approccio etico-epistemologico e interdisciplinare, la tesi propone sei tesi principali: (1) la fiducia nelle IA richiede un quadro concettuale autonomo, distinto tanto dall’affidamento tecnico quanto dalla fiducia interpersonale; (2) la distinzione cruciale nel contesto della human-AI interaction è tra fiducia e fede, non tra fiducia e affidamento; (3) gli output delle IA vanno intesi come “speculazioni affidabili”; (4) l’autorità epistemica di una IA deve restare non vincolante; (5) le IA possono agire come agenti sociali pur senza agentività morale; (6) lo sviluppo di una competenza fiduciaria negli utenti è essenziale per una gestione responsabile dell’incertezza nelle interazioni uomo-macchina.

Comportati bene e dimmi la verità: problemi etico-epistemologici nell'interazione con le IA

Pedrazzoli, Francesco
Writing – Original Draft Preparation
2025-01-01

Abstract

La tesi affronta il problema teorico della fiducia nelle intelligenze artificiali. L’obiettivo della ricerca è chiarire che cosa significhi realmente fidarsi di un sistema di intelligenza artificiale e se sia possibile applicare il concetto di fiducia a entità prive di agentività morale, spostando l’attenzione dall’ingegneria del sistema all’esperienza dell’utente. Attraverso un approccio etico-epistemologico e interdisciplinare, la tesi propone sei tesi principali: (1) la fiducia nelle IA richiede un quadro concettuale autonomo, distinto tanto dall’affidamento tecnico quanto dalla fiducia interpersonale; (2) la distinzione cruciale nel contesto della human-AI interaction è tra fiducia e fede, non tra fiducia e affidamento; (3) gli output delle IA vanno intesi come “speculazioni affidabili”; (4) l’autorità epistemica di una IA deve restare non vincolante; (5) le IA possono agire come agenti sociali pur senza agentività morale; (6) lo sviluppo di una competenza fiduciaria negli utenti è essenziale per una gestione responsabile dell’incertezza nelle interazioni uomo-macchina.
2025
Intelligenza Artificiale, Fiducia, Human-AI Interaction
File in questo prodotto:
File Dimensione Formato  
Francesco_Pedrazzoli_Tesi_Dottorato_pdfa.pdf

accesso aperto

Descrizione: Il documento contiene la tesi di dottorato dal titolo "Comportati bene e dimmi la verità: problemi etico-epistemologici nell'interazione con le IA"
Tipologia: Tesi di dottorato
Licenza: Dominio pubblico
Dimensione 999.77 kB
Formato Adobe PDF
999.77 kB Adobe PDF Visualizza/Apri

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11562/1172511
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact