Robot, Questione di Etica

0
169
Gustavo A. Casañ

Ci sono molte domande alle quali scienziati, psicologi e sociologi stanno cercando risposte: i robot, sempre più simili agli uomini, devono rispondere a questioni di etica? E nel biodiritto, quanto impatta il progresso scientifico nel campo dell’intelligenza artificiale?

di Elio Nello Meucci

Fu Galileo per primo a capire quanto la meccanica possa essere uno strumento efficace: una scienza esatta per la quale i risultati del progresso tecnologico, per quanto apparentemente ‘magici’, sono animati soltanto da solidi principi. Oggi siamo sempre più vicini a un’intelligenza artificiale (AI) in grado di assumere iniziative, portare avanti uno scopo e fornire soluzioni in ambito lavorativo, medico e sociale. Galileo non poteva certo immaginare quanto il progresso avrebbe invaso la sfera umana, fino al punto da far nascere tra gli scienziati e la società civile comitati di bioetica e di neuroscienze per evitare derive alla ‘Blade Runner‘. Queste due parti del biodiritto sono state riviste nella sostanza, per far fronte alla rivoluzione tecnologica. I cambiamenti vogliono porre l’uomo al centro di tale progresso e i robot come soggetti terzi; regolati, per necessità di garanzie di sicurezza, da una bioetica ad-hoc.

«Che ne è del diritto mentre la tecnica s’impossessa del nascere e morire umano?». La domanda posta da Natalino Irti, avvocato e membro dell’Accademia dei Lincei, nel libro ‘Il diritto nell’età della tecnica‘, conduce direttamente al cuore del problema. Il giurista che tratta questioni di biodiritto non può fare a meno di confrontarsi con il sociologo o con il filosofo e con tutti gli esperti di altre discipline che potrebbero interagire con lui per una migliore soluzione del problema di volta in volta affrontato. Il biodiritto, infatti, è materia necessariamente interdisciplinare e, come tale, coinvolge esperienze e perizie diverse; e nell’imminente futuro dovrà tener conto anche di materie come l’intelligenza artificiale. I computer e gli automi, sono sempre più intelligenti, ma più accresce la loro capacità ‘cognitiva’ più cresce la necessità di garanzie sul loro comportamento. Varcare confini non ancora scoperti del mondo dell’AI, sarà il passo successivo verso il futuro, ma che può anche nascondere un pericolo reale.

Il concetto di confine penetra in diversi vocaboli della lingua italiana, per i romani terminus era la pietra o la linea di confine. I temi del biodiritto obbligano, più di altre, a un’opera di ricerca continua di confini che definiscano i limiti di dove spingere la ricerca, contestualmente, nella capacità di saperli superare quando ci si trova di fronte a materie complesse come l’AI. Oggi, come agli inizi del ‘900, sembra di vivere in un momento ideale per sviluppare nuove idee a supporto dell’uomo, e ovviamente i timori di un utilizzo sbagliato corrono parallele al progresso.

Le nuove tecnologie applicate alla robotica sono sempre più performanti per raggiungere un obiettivo. Ciò porterà inevitabilmente queste ‘intelligenze’ a trovarsi, alla fine, a dover prendere una decisione dove i confini sono molto labili. L’esempio più semplice sono le macchine autoguidate: cosa accadrebbe se per raggiungere un luogo, in quell’orario stabilito, l’automobile decidesse di investire i pedoni, magari perché riconosce solo quella come direzione corretta? O per evitarli si schiantasse contro un muro?

Molti scienziati, coadiuvati da sociologi ed economisti, si sono riuniti nel 2014 per stabilire delle regole e per orientarsi nel campo dell’intelligenza artificiale. Future of Life Institute, questo il nome del ‘patto’ firmato da molti esperti tra i quali Elon Musk e Stephen Hawking, ha dato il via a una serie d’incontri per confrontarsi con questi temi. Nel 2017, ad Asilomar (California), si è arrivati a una carta comune (Asilomar AI Principles) che stabilisce il principio fondante che: l’AI deve essere ‘benefica’ e ‘non priva di controllo’. La questione etica su quest’ultima definizione impatta con lo sviluppo tecnologico stesso; infatti, il machine learning identifica un software in grado di modificare il proprio comportamento in conformità a ciò che impara. È qui che l’uomo deve intervenire, secondo gli accordi stipulati, per limitare l’autodeterminazione dell’AI. Molte aziende importanti si stanno dotando di comitati etici, formati da giuristi, sociologi e scienziati per interpretare al meglio questi punti del biodiritto. Un esempio è la Deep Mind (Microsoft) che in collaborazione con Facebook, Amazon, IBM, ha fondato una società di ricerca sui sistemi di AI dotata appunto di un comitato per l’interpretazione della bioetica applicata ai robot. Anche perché «Quella delle macchine non sembra essere una marcia trionfale alla conquista del Pianeta», spiega Douglas Heaven, «il passato e il presente della robotica sono, anzi, costellati da ‘piccole difficoltà quotidiane’ che i robot faticano a superare. Per capire qual è il futuro degli automi con intelligenza artificiale, dobbiamo seguirli proprio in queste difficoltà». 

http://www.agid.gov.it/notizie/2018/03/16/intelligenza-artificiale-opportunita-sfide-cittadini-pa-agid-presenta-il-libro

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui