L'analisi evidenzia l’importanza dell’approccio basato sul rischio per l’effettività dei diritti in un contesto di utilizzo dell’IA. Con tale tecnica normativa il diritto reagisce a un elevato grado di differenziazione e di complessità del reale, tale da impedire una pre-definizione rigida e standard dei contenuti delle misure di tutela. Se la tecnologia è sempre stata una determinante chiave di questa complessità, nel caso dell’IA, soprattutto del machine learning, la problematica si intensifica e acuisce, perché le peculiarità adattive e auto-evolutive della fonte di potenziale pericolo, nonché la variabilità della sua possibile autonomia d’azione fanno dipendere l’effettività delle tutele da un necessario processo iterativo di valutazione e gestione dei rischi. L’indagine esamina in tale prospettiva il contributo e i limiti che offrono le diverse fonti Ue coinvolte nella costruzione del sistema integrato delle tutele del lavoratore: anzitutto il GDPR, le direttive in materia di salute e sicurezza sul lavoro, il Regolamento Macchine, l’AI Act, la direttiva piattaforme e la direttiva due diligence. Proprio la centralità dell’approccio risk-based nel contesto in esame, segnalata ad esempio dai rischi di c.d. proxy discrimination, invita, d’altra parte, a riflettere sulla rilevanza di una sua implementazione anche al di fuori del campo di applicazione delle diposizioni che lo prevedono. Specifica attenzione è infine dedicata alla tecnica di giuridificazione del rischio (inaccettabile, alto e non-alto) utilizzata dall’AI Act e alle problematiche interpretative poste dalle tecniche di classificazione.
IA e obblighi datoriali di tutela del lavoratore: necessità e declinazioni dell’approccio risk-based
Marco Peruzzi
2024-01-01
Abstract
L'analisi evidenzia l’importanza dell’approccio basato sul rischio per l’effettività dei diritti in un contesto di utilizzo dell’IA. Con tale tecnica normativa il diritto reagisce a un elevato grado di differenziazione e di complessità del reale, tale da impedire una pre-definizione rigida e standard dei contenuti delle misure di tutela. Se la tecnologia è sempre stata una determinante chiave di questa complessità, nel caso dell’IA, soprattutto del machine learning, la problematica si intensifica e acuisce, perché le peculiarità adattive e auto-evolutive della fonte di potenziale pericolo, nonché la variabilità della sua possibile autonomia d’azione fanno dipendere l’effettività delle tutele da un necessario processo iterativo di valutazione e gestione dei rischi. L’indagine esamina in tale prospettiva il contributo e i limiti che offrono le diverse fonti Ue coinvolte nella costruzione del sistema integrato delle tutele del lavoratore: anzitutto il GDPR, le direttive in materia di salute e sicurezza sul lavoro, il Regolamento Macchine, l’AI Act, la direttiva piattaforme e la direttiva due diligence. Proprio la centralità dell’approccio risk-based nel contesto in esame, segnalata ad esempio dai rischi di c.d. proxy discrimination, invita, d’altra parte, a riflettere sulla rilevanza di una sua implementazione anche al di fuori del campo di applicazione delle diposizioni che lo prevedono. Specifica attenzione è infine dedicata alla tecnica di giuridificazione del rischio (inaccettabile, alto e non-alto) utilizzata dall’AI Act e alle problematiche interpretative poste dalle tecniche di classificazione.File | Dimensione | Formato | |
---|---|---|---|
IA e obblighi datoriali di tutela del lavoratore.pdf
non disponibili
Licenza:
Copyright dell'editore
Dimensione
768.73 kB
Formato
Adobe PDF
|
768.73 kB | Adobe PDF | Visualizza/Apri Richiedi una copia |
I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.