Come regolamentare l’intelligenza artificiale in Europa?

Opportunità ma anche minaccia di ordine etico e legale. Questo, in breve, il paradosso alla base delle riflessioni della Commissione Affari legali del Parlamento Europeo: “L’intelligenza artificiale ci offre opportunità ma il suo utilizzo solleva questioni etiche e legali”.

Secondo Axel Voss del Partito Popolare Europeo, relatore della proposta “Regime di responsabilità civile per l’intelligenza artificiale”: “Sebbene il quadro giuridico europeo esistente riguardi la maggior parte degli scenari, le nuove tecnologie basate sull’uso dell’intelligenza artificiale ci espongono a questioni ancora irrisolte. Nel caso di un malfunzionamento dell’intelligenza artificiale è, ad esempio, difficile separare la condotta negligente e quella non negligente. Chi è responsabile se un robot autonomo colpisce un passante o se un robot medico commette un errore in sala operatoria? Il Parlamento vuole proporre un meccanismo che copra l’intero spettro dei rischi e i possibili danni causati dall’uso dell’intelligenza artificiale.

LEGGI ANCHE:  Mercati e servizi digitali: il parere dei Garanti della privacy europei.

Per l’eurodeputato del PPE la materia dovrebbe essere regolamentata dall’Unione e non dai singoli Stati membri: ” Credo fermamente che solo l’Unione europea dovrebbe regolare le tecnologie digitali, perché i dati non si fermano certo al confine. Se l’UE vuole continuare a guidare la trasformazione digitale, dobbiamo agire uniti e in maniera decisa. Dobbiamo smettere di usare direttive e lavorare solo sui regolamenti per armonizzare davvero il mercato digitale. Molti dossier della precedente legislazione (come la direttiva sul copyright, sui contenuti digitali o sui media audiovisivi) porteranno a 27 leggi nazionali con le relative interpretazioni, anche se sono basate sulle stesse regole. Questa situazione non può continuare”.

L’intelligenza artificiale deve essere regolamentata anche per il deputato Ibán García del Blanco, del gruppo dei Socialisti e democratici, relatore della proposta “Quadro degli aspetti etici dell’intelligenza artificiale, della robotica e delle tecnologie correlate”: “Come ogni altra tecnologia, l’intelligenza artificiale ha dei rischi. Chiaramente non possiamo permettere che la nostra vita privata venga violata o che gli algoritmi vengano usati per discriminare le persone. Ma ci sono anche opportunità per rendere le nostre società più giuste e più sostenibili dal punto di vista sociale e ambientale, grazie a sistemi di verifica e controllo pubblico. L’intelligenza artificiale porterà anche cambiamenti sostanziali nel mercato del lavoro e nella società nel suo insieme. Si tratta di una sfida per le autorità pubbliche, quella di riorganizzare il lavoro e assicurarsi che i benefici non restino nelle mani di pochi. Nessuno deve restare indietro”.

LEGGI ANCHE:  Agricoltura, diminuiscono le prospettive per i giovani agricoltori.

“Per assicurare che sia la società nel suo insieme a beneficiare dei progressi tecnologici bisogna stabilire un quadro normativo che definisca quali principi etici debbano essere presi in considerazione nella concezione, sviluppo, applicazione e funzionamento dell’intelligenza artificiale, dall’accesso ai dati allo stretto controllo dei risultati. Il nostro obiettivo è quello di proteggere l’interesse pubblico e creare fiducia nei cittadini. Allo stesso tempo, vogliamo creare un quadro normativo certo, che crei le giuste condizioni per le aziende sul mercato e renda l’intelligenza artificiale in Europa, e coloro che la producono, riconoscibile come sicura e degna di fiducia in tutto il mondo. Vogliamo un’intelligenza artificiale con una prospettiva umana”.

LEGGI ANCHE:  Tom Vandendriessche: "Distorsione del mercato a causa del monopolio di Facebook".

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *