Automazione: anche i robot scalpitano

A cura di Enzo Guaglione

Il cervello positronico immaginato da Isaac Asimov.

Asimov scelse l’aggettivo positronico, perché nel 1928 il fisico Paul Dirac postulò l’esistenza dell’omonima particella, e nel 1938 il positrone fu effettivamente osservato sperimentalmente. I primi racconti sui robot positronici risalgono agli anni 1939-1940, perciò Asimov scelse l’aggettivo “positronico” semplicemente perché trovava il nome esotico e adatto a un racconto di fantascienza, al posto del più consono “cervello elettronico”. In effetti i positroni, essendo delle anti-particelle, non potrebbero esistere in un universo come il nostro fatto di elettroni, poiché le due particelle opposte si annichilirebbero in una frazione di secondo distruggendo la materia. Nella visione di Asimov, l’annullamento delle due particelle opposte – che per conseguenza produce energia – avrebbe dovuto portare i lettori a immaginare una sorta di scintilla assimilabile a quella che nel pensiero umano si verifica nei neuroni.

Una scena del film “Io Robot” prodotto dalla 20th Century Fox; il titolo è ispirato all’antologia omonima dello scrittore di fantascienza Isaac Asimov.

Nella fantascienza, le Tre leggi della robotica sono un insieme di norme scritte da Asimov, alle quali obbediscono tutti i robot positronici. Le tre leggi hanno subìto qualche variazione passando da traduzione a traduzione, ma anche se il contenuto rimane sempre lo stesso è meglio esprimere prima le tre leggi nella versione originale:
1 – Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio scorretto intervento, un essere umano riceva danno.
2 – Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
3 – Un robot deve proteggere la propria esistenza, purché quest’autodifesa non contrasti con la Prima o con la Seconda Legge.
Asimov era dell’idea che se una macchina era progettata bene, non poteva presentare alcun rischio, purché ovviamente non fosse utilizzata impropriamente. Egli implementò queste leggi nei suoi robot rispettando la necessità di sicurezza (la Prima Legge), servizio (la Seconda Legge) e prudenza (la Terza Legge) di questi “utensili” tanto sofisticati.

La sicurezza è il prerequisito fondamentale per l’integrazione intelligente uomo-macchina-robot in fabbrica (AirTrack-robot).

Dalle leggi di Asimov alle leggi europee
In Europa c’è ormai la determinazione necessaria per affrontare i problemi di precarietà dell’ambiente di lavoro; l’incognita italiana riguarda la capacità delle istituzioni da una parte e dell’industria dall’altra di assumere la responsabilità (o l’impopolarità) di ciò che deve essere fatto per rimettere ordine nella macchina della sicurezza; finalmente, però, sia gli enti di standardizzazione sia le associazioni industriali si stanno dando da fare. Insomma, tutti hanno capito che riparare i guai costa molto di più che prevenirli.

Con l’avvento di Industria 4.0 e della fabbrica digitale, norme efficaci in materia di salute, igiene e sicurezza dei lavoratori sono diventate imperative. La Sicurezza 4.0 é appena agli inizi; il polverone di polemiche che le precarietà ecologiche stanno sollevando non é più sopportabile, soprattutto oggi quando si parla di automazione integrata, informatizzazione, robotizzazione, fabbrica digitale e quant’altro. Se il partito della salute ha da dire qualcosa, o meglio da fare qualcosa, lo faccia subito nella sede più appropriata e su scala europea, perché la resa dei conti non sarà incruenta. Insomma, uomini e robot fianco a fianco in perfetta armonia.

Bruxelles è la prima ad aver attivato un dibattito politico in un settore in forte espansione per dare responsabilità giuridica alle macchine.

Il Parlamento europeo ha chiesto ufficialmente alla Commissione di Bruxelles di regolamentare il settore della robotica e dell’intelligenza artificiale. L’organo legislativo ha approvato una risoluzione con 396 voti in favore, 123 voti contrari e 85 astensioni, che mira a mettere alcuni paletti in un settore in forte evoluzione, ma che rischia di porre dei problemi di carattere etico e di avere un impatto sul mondo del lavoro.

Il robot modello NS-5 comparso nel film “Io Robot”. Nella testa trova alloggio il delicato cervello positronico.

Secondo l’Europarlamento, è urgente una disciplina europea per chiarire le questioni di responsabilità, in particolare per le auto senza conducenti, e chiede un regime di assicurazione obbligatoria per garantire le vittime di eventuali incidenti. Dunque, è il momento di pensare alle macchine come dotate di un proprio status giuridico; macchine robot, naturalmente, che si apprestano a invadere il mondo produttivo e quello dei servizi, pubblici e privati, collettivi e personali. Per questa ragione il Parlamento Europeo vorrebbe presto votare quelle stesse risoluzioni che un anno fa aveva stimolato presso Bruxelles tramite la sua Commissione Giuridica. I princìpi ricordano da vicino quelli di Asimov, le norme possibili riguardano la creazione di comitati etici, responsabilità collegate alle istruzioni fornite alle macchine, l’introduzione di un reddito universale, specifiche coperture assicurative e quant’altro.

L’aspetto più importante della relazione europea riguarda il tentativo di inquadrare i robot (intesi come “macchine fisiche” dotate di un certo grado di autonomia attraverso sensori o interconnessione, capaci di adattarsi all’ambiente circostante e tendenzialmente capaci di apprendere) in un contesto di responsabilità e di doveri legali, e dunque alla possibilità di creare un nuovo

status giuridico di “persona elettronica”, che si adatti alle macchine intelligenti. Questo status giuridico sarebbe più simile a quello che oggi hanno le aziende piuttosto che a quello degli esseri umani, ma sarebbe comunque un passo eccezionale verso il riconoscimento dei robot come esseri dotati di sensi.

Nella fabbrica digitalizzata macchine, utensili e attrezzature, robot, merci e prodotti finali saranno connessi gli uni agli altri. (Igus-Robolink- 667×342).

L’ambiente industriale e dintorni
In officina l’operatore si avvicina al robot che sta lavorando sulla macchina utensile, la quale rallenta immediatamente perché il robot stesso percepisce che qualcuno si sta avvicinando. La sicurezza è il prerequisito fondamentale per l’integrazione intelligente uomo-macchina-robot. Nella fabbrica digitalizzata macchine, utensili e attrezzature, robot, merci e prodotti finali saranno connessi gli uni agli altri; gli addetti ai lavori e i robot non lavoreranno più su un componente uno dopo l’altro, ma contemporaneamente, cooperando. La fabbrica 4.0 non sarà senza persone, le quali saranno ancora necessarie per i compiti che richiedono alta specializzazione, creatività e risoluzione d’imprevisti.

Ecco, dunque, che fa capolino un nuovo quadro di norme comunitarie per disciplinare l’ascesa di robot e intelligenza artificiale in Europa, soprattutto nei suoi sviluppi più delicati come la responsabilità civile delle macchine, l’impatto sul mercato del lavoro e i risvolti etici, dalla privacy alla tutela dei dati acquisiti e trasmessi da tecnologie che invadono sempre di più la nostra vita. È quanto chiedono i deputati Ue alla Commissione europea, con una risoluzione approvata recentemente in materia di «Norme di diritto civile sulla robotica».

La relazione, firmata dalla vicepresidente della commissione giuridica ed eurodeputata socialista Mady Delvaux, insiste su alcuni pilastri: la creazione di uno status giuridico per i robot, con la prospettiva di classificare gli automi come «persone elettroniche» responsabili delle proprie azioni; una vigilanza continuativa delle conseguenze sul mercato del lavoro e gli investimenti necessari per evitare una crisi occupazionale; un codice etico per i progettisti che si occupano della realizzazione di robot e, in prospettiva, il lancio di un’Agenzia europea per la robotica e l’intelligenza artificiale che sia «incaricata di fornire le competenze tecniche, etiche e normative necessarie». Sullo sfondo ci sono le normative e/o i progetti di normativa già abbozzati da Paesi come Stati Uniti e Cina, oltre alle iniziative dei singoli Paesi Ue che preoccupano Bruxelles: la costituzione di un unico impianto regolatorio serve proprio a far sì che «l’Unione e i suoi Stati membri mantengano il controllo sulle norme regolamentari da impostare e non siano costretti ad adottare e subire norme stabilite da altri».

La signora Mady Delvaux vede nei robot quattro sfide che il governo politico dell’Europa Unita deve affrontare al più presto: la personalità giuridica dei robot, la responsabilità per eventuali danni, le possibili dipendenze emotive degli esseri umani rispetto ai robot con una intelligenza ad apprendimento autonomo, e infine il nesso robotizzazione-disoccupazione umana. Tutte questioni di straordinaria novità, partendo dalla definizione europea comune di robot autonomi intelligenti e delle loro subcategorie. Una tassonomia tecnologica che porta a individuare diversi livelli etico-legali. L’industria meccanica è oggi un gran contenitore di energie inespresse, qualificate, ma sottoutilizzate; impiegare queste forze e trasferire la tradizione meccanica italiana nel lavoro dei robot sarà la carta vincente. Allora evviva Industria 4.0, ma non parlerei di rivalutazione delle macchine per controllare costi e produttività, semmai di giusta collocazione di robot collaborativi tra le risorse umane.

Essendo “persone elettroniche”, anche i robot hanno una responsabilità civile e penale.

Una personalità virtuale
Si potrebbero dotare i robot di una personalità virtuale? Una cosa simile avviene ora per le aziende, ma non è una questione che si risolverà dall’oggi al domani. Ciò di cui abbiamo bisogno ora è creare un quadro giuridico per i robot che sono attualmente sul mercato o lo saranno nei prossimi 10 o 15 anni. Sulla responsabilità dei danni (una macchina potrebbe per qualche ragione violare le leggi della robotica mettendo a rischio o addirittura danneggiando un essere umano) ci si divide tra proprietario, costruttore, progettista e programmatore, e ogni figura prevede una propria categoria di difesa (consumatori, liberi professionisti, accademici, aziende, sindacati). Anche in questo caso, il gruppo di lavoro della Commissione Giuridica su robot e dintorni (che ha tenuto l’ultima riunione lo scorso autunno) ritiene ci siano due correnti di pensiero, accomunate da una sola certezza: almeno per i grandi robot l’Europa pensa a una copertura assicurativa obbligatoria.

Secondo il principio della responsabilità oggettiva, a rispondere dovrebbe essere il produttore, perché è nella posizione migliore per limitare i danni. Poi starà al produttore rivalersi contro i suoi fornitori. L’altra opzione è fare dei test di valutazione del rischio, prima della messa in funzionamento di un robot; le eventuali responsabilità per condotte sbagliate sarebbero in questo caso condivise da tutti i soggetti in campo.

C’è spazio anche per una sorta di relazione emotiva tra umano e robot. Mady Delvaux propone un Codice che protegga le persone dal diventare «emotivamente dipendenti da un robot». Si può innescare un bisogno fisico di supporto, ma non bisogna mai pensare che un robot possa amarti o essere triste assieme a te.

Il Parlamento europeo ha chiesto ufficialmente alla Commissione di Bruxelles di regolamentare il settore della robotica e dell’intelligenza artificiale.

La responsabilità civile dei robot
Essendo persone elettroniche, pure i robot hanno una responsabilità civile e penale; il primo nodo che i deputati chiedono di sciogliere è quello dell’inquadramento giuridico delle macchine intelligenti, con una particolare attenzione al mondo dei trasporti. Il presupposto è che, nell’epoca delle auto che si guidano da sole e delle macchine capaci di decidere in autonomia, i danni causati dai robot non possono più ridursi a incidenti «tecnici». Sul breve periodo, i deputati chiedono tre tutele: 1) l’istituzione di un regime assicuratore obbligatorio, dove si imponga a produttori e proprietari di robot di sottoscrivere una copertura per i danni provocati dai propri robot; 2) la creazione di un fondo di risarcimento per la riparazione dei danni stessi; 3) l’immatricolazione dei robot, con l’iscrizione in un registro specifico dell’Unione. Sul lungo periodo, si torna a parlare del riconoscimento dello status giuridico dei robot: i robot autonomi più sofisticati devono essere considerati «persone elettroniche responsabili di risarcire qualsiasi danno da loro causato, nonché eventualmente il riconoscimento della personalità elettronica dei robot che prendono decisioni autonome o che interagiscono in modo indipendente con terzi». L’obiettivo è definire con maggior chiarezza le responsabilità delle macchine e di chi le ha progettate, in sede civile e penale.

Conclusione
Prendere la parola sulla questione della salute e della sicurezza nel lavoro non è un compito facile, soprattutto perché c’è sempre poca chiarezza sui problemi della protezione e sulle linee da affrontare. La politica italiana sulla sicurezza è ancora un po’ vaga mentre la politica europea è impostata entro binari più concreti. Le risorse umane dovranno concentrarsi sulla creazione di valore aggiunto, sulle messe a punto, sulle personalizzazioni e sulla gestione della qualità; ma lavorare con i robot richiede attenzione alla sicurezza, per evitare danni dovuti a movimenti bruschi e rigidi. Torna in auge, quindi, la robotica flessibile, basata su dispositivi adattativi ed elastici, perché il robot deve essere un buon servitore e mai un cattivo padrone.

È evidente che questo scenario, che in nord Europa sta già incontrando la sensibilità di economisti e politici, si scontri con gli interessi del capitale, che non “ragiona” in termini di sicurezza sociale. L’introduzione dei robot o altri marchingegni nelle industrie meccaniche deve essere preceduta da attività di miglioramento del livello prestazionale dei tre elementi in gioco, che compongono il sistema produttivo: uomini, robot e macchine.

L’umanità si trova ora sulla soglia di un’era nella quale robot, androidi e altre manifestazioni dell’intelligenza artificiale sembrano sul punto di lanciare una quinta rivoluzione industriale, suscettibile di toccare tutti gli strati sociali, rendendo imprescindibile che la legislazione ne consideri tutte le implicazioni. A tutto ciò fa ora espresso riferimento la Risoluzione approvata dal Parlamento Europeo il 12 gennaio scorso, con raccomandazioni alla Commissione europea concernenti norme di diritto civile sulla robotica.

I nove comandamenti
1-Creazione di un “registro”per gli smart robot;
2-predisposizione di un codice etico-deontologico degli ingegneri robotici (Carta sulla robotica);
3-creazione di un’Agenzia europea per la robotica e l’intelligenza artificiale;
4-interventi in materia di proprietà intellettuale che proteggano e promuovano l’innovazione;
5-sviluppo di standard per la tutela della privacy (umana) “fin dalla progettazione (privacy by design) e per impostazione predefinita (privacy by default), di consenso informato e di crittografia”;
6-valutazione di un possibile obbligo di informativa societaria sulla portata e sulla proporzione del contributo della robotica e dell’intelligenza artificiale ai risultati economici di una società, ai fini delle imposte e dei contributi previdenziali;
7-sul tema della responsabilità per il danno causato “da robot sempre più autonomi”, introduzione di un “regime di assicurazione obbligatorio”, come già avviene, per esempio, con le automobili a carico del produttore;
8-la costituzione di un fondo di risarcimento, che garantisca il risarcimento quando il danno causato dal robot non è assicurato (tipo il fondo vittime della strada);
9-l’istituzione di uno status giuridico specifico per i robot, di modo che almeno i robot autonomi più sofisticati possano essere considerati come “persone elettroniche con diritti e obblighi specifici, compreso quello di risarcire qualsiasi danno da loro causato”.

Lascia un commento

Please enter your comment!
Please enter your name here