Illegalità dei sistemi di intelligenza artificiale, fino a prova contraria: è la proposta di Frank Pasquale e Gianclaudio Malgieri, fondata sull’evidenza delle violazioni dei diritti individuali che hanno luogo quando i sistemi di intelligenza artificiale sono utilizzati per ottenere classificazioni o produrre decisioni che hanno effetti rilevanti sulle vite delle persone. I modelli di IA ad alto rischio incorporati oggi in prodotti e servizi dovrebbero essere disciplinati entro un sistema di “illegalità di default”: fino a prova contraria, tali sistemi dovrebbero essere considerati illegali. Prima di immettere sul mercato un prodotto o un servizio che incorpori sistemi di IA ad alto rischio, le aziende avrebbero l’obbligo di dimostrare che la loro tecnologia non è discriminatoria, non è manipolatoria, non è iniqua, non è inaccurata e non è illegittima nelle sue basi giuridiche e nei suoi scopi. La proposta di Pasquale e Malgieri di inquadrare i sistemi di IA entro un regime di “illegalità di default” si fonda sulla priorità dei diritti individuali specificamente protetti dalla legge su un generico principio di innovazione, che è spesso la maschera dietro la quale i grandi soggetti economici rivendicano la tutela dei loro concreti interessi.
“Automaticamente illegali”. Una proposta per i sistemi di intelligenza artificiale
daniela tafani
2022-01-01
Abstract
Illegalità dei sistemi di intelligenza artificiale, fino a prova contraria: è la proposta di Frank Pasquale e Gianclaudio Malgieri, fondata sull’evidenza delle violazioni dei diritti individuali che hanno luogo quando i sistemi di intelligenza artificiale sono utilizzati per ottenere classificazioni o produrre decisioni che hanno effetti rilevanti sulle vite delle persone. I modelli di IA ad alto rischio incorporati oggi in prodotti e servizi dovrebbero essere disciplinati entro un sistema di “illegalità di default”: fino a prova contraria, tali sistemi dovrebbero essere considerati illegali. Prima di immettere sul mercato un prodotto o un servizio che incorpori sistemi di IA ad alto rischio, le aziende avrebbero l’obbligo di dimostrare che la loro tecnologia non è discriminatoria, non è manipolatoria, non è iniqua, non è inaccurata e non è illegittima nelle sue basi giuridiche e nei suoi scopi. La proposta di Pasquale e Malgieri di inquadrare i sistemi di IA entro un regime di “illegalità di default” si fonda sulla priorità dei diritti individuali specificamente protetti dalla legge su un generico principio di innovazione, che è spesso la maschera dietro la quale i grandi soggetti economici rivendicano la tutela dei loro concreti interessi.I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.