Uomo contro macchina

Pubblicità

Di

La Commissione Europea ha proposto un nuovo regolamento, atto ad aiutare le persone danneggiate da prodotti che usano l’intelligenza artificiale a ottenere giustizia. La “AI Liability Directive” è stata definita “un quadro legale adatto all’era digitale” dal commissario per la giustizia Didier Reynders.

Se questo regolamento dovesse essere approvato, verrebbe implementato assieme all’”Atto sull’intelligenza artificiale” proposto dall’Unione Europea – andando insieme a formare il primo sistema di leggi al mondo che regolerebbe come e quando è possibile sfruttare un’intelligenza artificiale. 

Il punto principale del nuovo regolamento è chiamato “presunzione di causalità”, e consiste nello stabilire che un’IA è sempre responsabile delle sue azioni, e conseguentemente lo è chi l’ha prodotta. Questo renderebbe esponenzialmente più facile ottenere risarcimento per danni subiti o dati persi per colpa di un difetto di funzionamento di un’intelligenza artificiale. 

Un sistema di leggi simile si è rapidamente reso necessario con l’avvento dell’era digitale; finora, la maggior parte delle cause legali potevano essere risolte a favore del produttore con la “scusa” che il prodotto risponde ai comandi impartiti dal compratore. Questo tipo di giustificazione è possibile poiché finora non erano mai state vendute macchine con un loro senso di agentività: Se investo qualcuno in macchina è chiaramente colpa mia, ma se la macchina è equipaggiata con un’IA che promette di guidare in mia vece? In altre parole, la nuova legislazione considererebbe una scelta errata da parte di un’intelligenza artificiale come un malfunzionamento di cui il produttore è responsabile, mentre nel corrente quadro legale si tratta di un “rischio da correre” quando si compra un prodotto azionato da un’IA.

La Commissione Europea ha identificato diversi ambiti e aspetti in cui l’uso di intelligenze artificiali è “ad alto rischio”, ad esempio infrastruttura e prodotti che possono influenzare direttamente la vita di una persona come trasporti, controllo frontiere e sistemi di valutazione scolastici. 

Certo, questo tipo di legislazione renderà molte compagnie e aziende infelici, ma secondo uno statement rilasciato dalla Commissione “regolamentazioni simili chiarificano la posizione legale di prodotti attivati da intelligenze artificiali, sia per consumatori che produttori”. 

Finora, uno dei principali ostacoli all’adozione dell’intelligenza artificiale su larga scala era proprio questa situazione di “grigiore” legale, conosciuto come “effetto scatola nera”. Avere più chiarezza in tal senso potrebbe portare a un’espansione della tecnologia intelligente di proporzioni rivoluzionarie, ma in ogni caso dipenderà molto dalle applicazioni pratiche della legge – ancora tutte da scoprire.

Pubblicità

GAS è gratuito, perchè riteniamo fondamentale che il maggior numero di lettori possibile possa avere un’informazione alternativa rispetto alla stampa ufficiale.

Il nostro lavoro, tuttavia, comporta degli investimenti. Abbiamo scelto di non ricorrere alla pubblicità per non “sporcare” il sito con annunci pubblicitari, e mantenere la nostra indipendenza rispetto al mondo imprenditoriale ed economico. Ci sosteniamo solo tramite le adesioni dei nostri soci e le donazioni dei nostri lettori.

Se anche tu vuoi aiutarci ad andare avanti nel nostro lavoro di informazione indipendente e alternativa, puoi contribuire diventando socio di GAS oppure con una donazione libera. Grazie per il tuo supporto.

NO,GRAZIE!