Macchine 4.0 e Responsabilità Civile

La quarta rivoluzione industriale, anche detta Industria 4.0, si basa sullo sviluppo della robotica, sull’interconnessione, sull’analisi di una gran mole di dati e in generale sull’utilizzo delle nuove tecnologie informatiche.

Tale rivoluzione pone all’attenzione di tutti nuovi problemi di diritto civile, penale, tutela della privacy e riconoscimento delle responsabilità in caso di danni o reati. In particolare, decisioni ed azioni sempre più complesse verranno effettuate da sistemi completamente automatizzati, senza l’ausilio di un operatore umano. L’auto a guida autonoma è solo uno degli esempi di maggiore rilievo.

Tuttavia, ci sono dei settori come la logistica e la produzione industriale che già fanno ampio ricorso a sistemi automatizzati e a robot capaci di compiere compiti sempre più complessi, grazie a sensori e software, all’analisi dati e all’interconnessione.

Intelligenza Artificiale e produzione

Le fabbriche 4.0 sono luoghi dove umani e robot sempre più sofisticati convivono. Questo articolo prende spunto da un recente caso giudiziario americano di responsabilità conseguente alla morte di una lavoratrice uccisa da un robot. Ciò ci permetterà di illustrare alcune delle principali difficoltà nel rintracciare le responsabilità e alcune importanti questioni in gioco, anche alla luce del nuovo regolamento macchine in discussione in sede europea.

Normative attualmente in vigore

Sia in Europa sia in USA, all’interno delle fabbriche, i robot devono essere confinati in specifiche aree destinate alla produzione, al fine di non interferire e non causare danni agli umani.

Mentre specifiche direttive si occupano della sicurezza dei macchinari, non vi è una specifica normativa sui robot. Rimangono aperte molte questioni sul fronte delle responsabilità per l’utilizzo di sistemi robotici complessi, in particolare per quelli che vengono aggiornati da remoto o implementano nuove soluzioni software o fanno uso dell’intelligenza artificiale per la quale al momento non c’è una regolamentazione.

In questo senso, come già per il regolamento privacy, l’UE sta facendo da apripista sia con la prima proposta di regolamento sull’intelligenza artificiale, sia con una proposta di regolamento che sostituirà e aggiornerà l’attuale direttiva macchine, per tenere conto dello sviluppo tecnologico anche nel campo della robotica.

Il caso Holbrook: il robot che uccide in fabbrica

Nel 2017, il marito della sig.ra Holbrook chiamò in giudizio dinanzi alla Michigan District Court, in America, 6 società (Prodomax Automation, Fanuc USA and Fanuc Japan, Nachi Robotic, Lincoln Electric, Flex-N-Gate), di cui 5 di robotica, per far accertare la loro responsabilità nella morte della moglie. La sig.ra Holbrook era addetta alla manutenzione di un impianto automatizzato di Ventra Ionia nel Michigan che, nel 2015 era stata colpita alla nuca da un braccio robotico mentre stava effettuando una riparazione ed era deceduta.

Il marito riteneva che all’origine dell’incidente ci fosse un difetto nei robot, nella linea di produzione e nei sistemi di sicurezza, di cui i produttori e gli installatori dovessero rispondere.

Anche se le regole esistenti (sia in US sia in EU) riconducono la responsabilità dei robot a chi ha concorso alla realizzazione/installazione della macchina, si è trattato tuttavia di un caso piuttosto complesso sia per il numero delle parti coinvolte, 7 società, di cui alcune anche non statunitensi (in particolare, canadesi e giapponesi), sia per l’accertamento che ha richiesto oltre 4 anni.

Alla fine, la causa si è conclusa con un accordo transattivo tra il sig. Holbrook e Prodomax Automation, prima della sentenza, dopo che era emerso che, per ragioni non chiarite, la vittima era passata da una zona all’altra delle aree dove si trovavano i robot scavalcando i bassi muri laterali senza passare dalla porta di sicurezza che avrebbe arrestato i robot vicini. In questo modo, mentre lei effettuava la riparazione, un braccio robotico ha ripreso ad operare e l’ha colpita. Malgrado fosse emersa una violazione delle disposizioni aziendali di sicurezza da parte della vittima, il sig. Holbrook riteneva che fosse responsabile la società che aveva programmato i robot. Infatti, solo dopo l’incidente gli ingegneri della società riprogrammavano il software PLC (Programmable Logic Controller – Controllore Logico Programmabile) in modo da arrestare tutta la linea produttiva e non solo una sua parte, in presenza di una persona nell’area.

La giudice aveva chiarito che si applicava la normativa del Michigan sulla responsabilità da prodotto difettoso (che peraltro in Michigan – Stato di produttori di auto – limitava il risarcimento a 500,000$), in quanto la definizione di prodotto comprendeva tanto le caratteristiche tangibili del bene quanto le sue componenti software e, nello specifico la programmazione del dispositivo PLC.

Il punto controverso, su cui la società di automazione industriale ha preferito non arrivare a decisione, transando la causa, era se fosse prevedibile un utilizzo improprio della linea e, di conseguenza, la responsabilità attribuibile al fornitore del software di programmazione PLC per non aver sufficientemente garantito la sicurezza del prodotto.

Direttiva Macchine europea e la proposta di Regolamento Macchine

Nell’unione europea, la Direttiva Macchine (recepita in Italia con il D.Lgs. 17/2010) prevede che le macchine commercializzate o messe in servizio siano conformi ai requisiti essenziali di sicurezza contenuti nell’Allegato I alla Direttiva stessa (art.3, comma 3).

Tra i requisiti di sicurezza previsti dalla Direttiva Macchine e contenuti nell’Allegato I, vengono indicati quelli che riguardano la sicurezza e affidabilità dei sistemi di comando che devono essere progettati e costruiti in modo da evitare l’insorgere di situazioni pericolose e in particolare in modo da:

  • resistere alle previste sollecitazioni di servizio e agli influssi esterni;
  • evitare che un’avaria nell’hardware o nel software del sistema di comando crei situazioni pericolose;
  • evitare che errori della logica del sistema di comando creino situazioni pericolose;
  • evitare che errori umani ragionevolmente prevedibili nelle manovre creino situazioni pericolose.

Tuttavia, mentre l’attuale Direttiva Macchine concerne i sistemi di controllo della macchina, la norma non si applica direttamente al software quale prodotto immateriale.

La direttiva è in fase di profonda revisione in sede europea, per tenere conto dello sviluppo tecnologico, e sarà a breve sostituita dal nuovo regolamento. Questo verrà uniformemente applicato in tutti i Paesi dell’Unione Europea, 30 mesi e 20 giorni dopo la pubblicazione del nuovo regolamento nella Gazzetta UE.

Le novità introdotte rispetto alla Direttiva Macchine

Un primo importante passo in avanti è la definizione di “componente di sicurezza” della nuova proposta di regolamento: sono stati per la prima volta introdotti anche i componenti digitali, compreso il software. Il software che svolge funzioni di sicurezza e che sia immesso sul mercato separatamente dovrà quindi essere marcato CE ai sensi del regolamento macchine ed essere accompagnato da una dichiarazione di conformità UE e da istruzioni per l’uso.

Un altro elemento oggetto di regolazione è legato al modo in cui gli aggiornamenti software incidono sul “comportamento” delle macchine dopo la loro immissione sul mercato.

Inoltre, la proposta per il nuovo regolamento prende in considerazione per la prima volta anche le macchine autonome. In proposito, il regolamento detta disposizioni per quanto riguarda il prodotto macchina “dotato di un comportamento destinato ad evolvere integralmente o parzialmente oppure di una logica progettata per funzionare con livelli variabili di autonomia”.

Disposizioni anche riguardo la macchina mobile autonoma “che dispone di una modalità autonoma, nel contesto della quale tutte le funzioni essenziali di sicurezza della macchina mobile sono assicurate nella sua zona per le operazioni di spostamento e lavorazione senza l’interazione permanente di un operatore.”

Come per le altre macchine, anche in quest’ultimo caso, il regolamento prescrive che vi sia un conducente responsabile della macchina anche da remoto e definito come “incaricato della supervisione del prodotto macchina mobile autonomo indipendentemente dalla distanza e dal mezzo di comunicazione di controllo.”

La nuova proposta di regolamento si preoccupa altresì di precisare che i nuovi sistemi debbano essere progettati per arrestarsi in presenza di qualsiasi ostacolo sia esso un essere umano o un animale domestico.

Inoltre, vengono meglio affrontati i rischi anche potenziali che provengono da una collaborazione diretta uomo-robot anche alla luce del sempre maggiore ricorso ai robot collaborativi (cobot), progettati per lavorare a fianco degli esseri umani.

Un’altra importante questione per la prima volta definita e trattata riguarda la cybersicurezza.  Infine, si prevede l’obbligo dei fabbricanti di macchine e robot “intelligenti” di procedere ad una valutazione completa del rischio relativo alle applicazioni di apprendimento automatico prima che il prodotto sia immesso sul mercato. Peraltro, nel caso di utilizzo di sistemi di intelligenza artificiale devono essere soddisfatti anche i requisiti del regolamento sull’intelligenza artificiale, al momento ancora in fase di discussione.

 

Cerchi un approfondimento sulle normative relative all’intelligenza artificiale? Leggi l’articolo AI e responsabilità civile in caso di danni

Post Correlati

Vuoi ricevere aggiornamenti e approfondimenti su questo argomento?

Oppure contattaci per ottenere maggiori informazioni sui nostri servizi