I sistemi di intelligenza artificiale sono oggi in grado di svolgere alcuni specifici compiti, che erano stati, finora, prerogativa dei soli esseri umani. Nell’entusiasmo per i sistemi di apprendimento automatico, che hanno consentito questi genuini progressi, le grandi aziende tecnologiche hanno colto l’opportunità per un’espansione illimitata di prodotti e servizi «intelligenti». Hanno diffuso e messo in commercio, con la formula di marketing «intelligenza artificiale», sistemi di apprendimento automatico, per lo svolgimento di attività che tali sistemi non sono in grado di svolgere o che semplicemente non sono possibili. Tra i prodotti di questo genere – costitutivamente pericolosi e non funzionanti – ci sono le auto a guida autonoma, i sistemi di ottimizzazione predittiva e i generatori di linguaggio naturale. Se la responsabilità per gli effetti ordinari di tali prodotti ricadesse sui produttori, la loro commercializzazione non sarebbe vantaggiosa. Per sfuggire alle loro responsabilità senza rinunciare a una fonte di enorme profitto, i giganti della tecnologia hanno diffuso una famiglia di narrazioni che danno forma alla percezione pubblica del rapporto tra etica, politica, diritto e tecnologia e costituiscono gli assiomi indiscussi di qualsiasi discorso pubblico. Sono così entrati a far parte del senso comune, tra gli altri, il principio di inevitabilità tecnologica, il mito dell’eccezionalismo tecnologico, il principio di innovazione e il mito del vuoto giuridico. Alla tesi dell’eccezionalità delle nuove tecnologie, che renderebbe inapplicabili i sistemi normativi vigenti e gli ordinari criteri di attribuzione della responsabilità, si oppone oggi una crescente consapevolezza del fatto che i sistemi informatici sono artefatti, ossia prodotti, e che non c’è alcuna ragione per sottrarne la distribuzione e la commercializzazione alla legislazione ordinaria.

Sistemi fuori controllo o prodotti fuorilegge? La cosiddetta «intelligenza artificiale» e il risveglio del diritto

tafani daniela
2023-01-01

Abstract

I sistemi di intelligenza artificiale sono oggi in grado di svolgere alcuni specifici compiti, che erano stati, finora, prerogativa dei soli esseri umani. Nell’entusiasmo per i sistemi di apprendimento automatico, che hanno consentito questi genuini progressi, le grandi aziende tecnologiche hanno colto l’opportunità per un’espansione illimitata di prodotti e servizi «intelligenti». Hanno diffuso e messo in commercio, con la formula di marketing «intelligenza artificiale», sistemi di apprendimento automatico, per lo svolgimento di attività che tali sistemi non sono in grado di svolgere o che semplicemente non sono possibili. Tra i prodotti di questo genere – costitutivamente pericolosi e non funzionanti – ci sono le auto a guida autonoma, i sistemi di ottimizzazione predittiva e i generatori di linguaggio naturale. Se la responsabilità per gli effetti ordinari di tali prodotti ricadesse sui produttori, la loro commercializzazione non sarebbe vantaggiosa. Per sfuggire alle loro responsabilità senza rinunciare a una fonte di enorme profitto, i giganti della tecnologia hanno diffuso una famiglia di narrazioni che danno forma alla percezione pubblica del rapporto tra etica, politica, diritto e tecnologia e costituiscono gli assiomi indiscussi di qualsiasi discorso pubblico. Sono così entrati a far parte del senso comune, tra gli altri, il principio di inevitabilità tecnologica, il mito dell’eccezionalismo tecnologico, il principio di innovazione e il mito del vuoto giuridico. Alla tesi dell’eccezionalità delle nuove tecnologie, che renderebbe inapplicabili i sistemi normativi vigenti e gli ordinari criteri di attribuzione della responsabilità, si oppone oggi una crescente consapevolezza del fatto che i sistemi informatici sono artefatti, ossia prodotti, e che non c’è alcuna ragione per sottrarne la distribuzione e la commercializzazione alla legislazione ordinaria.
2023
Tafani, Daniela
File in questo prodotto:
Non ci sono file associati a questo prodotto.

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11568/1178227
 Attenzione

Attenzione! I dati visualizzati non sono stati sottoposti a validazione da parte dell'ateneo

Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact