Stampa

 

Il sistema di intelligenza artificiale che governa l’autopilota (che corrisponde al livello 5, dunque il massimo livello di autonomia, tanto che non è previsto nemmeno il volante dell’auto), ha appena rilevato un grave guasto all’impianto frenante. Se non viene effettuata alcuna manovra gli occupanti dell’auto avranno la peggio. Impossibile evitare lo scontro ad alta velocità con il TIR che si è fermato improvvisamente poco più avanti. Il software, però, intravede una possibile via d’uscita. Potrebbe far sterzare l’auto sul marciapiede, proprio nel punto in cui sta passando una giovane mamma che accompagna i suoi due bambini a scuola, evitando così l’impatto. Secondo voi per quale scelta dovrebbe optare il software che governa l’autopilota? Importante: prima di rispondere, provate a immedesimarvi nei diversi ruoli. In primis, in uno degli attori coinvolti nello scontro: gli occupanti dell’auto, la mamma, i bambini. Dopodiché, mettetevi nei panni di un legislatore, di uno sviluppatore di software di intelligenza artificiale, di un produttore di auto, di un assicuratore, di un ingegnere che progetta strade e marciapiedi, ecc. Con grande onestà e al di là di una risposta scontata e di getto, chi vi scrive non sa esattamente cosa rispondere. Ha invece perfettamente chiaro che sarà sempre più centrale, soprattutto nel mondo della Difesa, la definizione dei criteri in base ai quali i sistemi di intelligenza artificiale dovranno decidere. Le Autonomous Weapons, i mezzi militari Unmanned (droni, blindati, sommergibili, ecc.), i robotic soldier, saranno (presto o tardi) governati dall’intelligenza artificiale. La risposta è talmente complessa che il MIT (Massachusetts Institute of Technology, considerata la migliore università del mondo in molte classifiche di settore per il 2018) ha avviato nel 2016 un progetto di ricerca che ha finora coinvolto 2,3 milioni di persone di 233 paesi del mondo. Il progetto Moral Machine presenta 13 diversi scenari di incidenti, tutti caratterizzati dall’inevitabile morte di una delle persone coinvolte. Chi partecipa al sondaggio deve scegliere tra giovani/vecchi, uomini/animali, poveri/ricchi, ecc. chi può sopravvivere o avere la peggio, a seconda delle circostanze. I primi risultati, frutto di circa 50 milioni di risposte, sono state pubblicati sull’ultimissimo numero di Nature. Emerge immediatamente che i principi morali sono diversi a seconda del Paese a cui appartiene chi ha partecipato al sondaggio. Ragionando a livello globale si riscontrano infatti solo poche, generali convergenze: risparmiare gli uomini rispetto agli animali, salvare più vite piuttosto che poche, preservare i bambini invece che gli adulti (prevalenza questa, meno marcata in Cina, Giappone e Arabia Saudita). Per il resto, invece, le preferenze soggettive che orientano decisioni etiche di questo tipo sono molto diverse, poiché condizionate da variabili culturali, economiche, sociali, religiose, ecc. Ad esempio, i Paesi governati da istituzioni consolidate (come la Finlandia e il Giappone) sono tendenzialmente più propensi a sacrificare un pedone che attraversa irregolarmente la strada. Lo stesso (imprudente) pedone avrebbe invece vita più lunga in Nigeria e in Pakistan. Sfumature culturali che condizioneranno certamente chi sta costruendo i progetti di auto a guida autonoma. E che dovrebbero influenzare anche la comunità internazionale chiamata a legiferare sull’utilizzo e sul comportamento dei sistemi militari autonomi. Il drone militare (del valore di decine di milioni di dollari) in avaria, quale scelta dovrà fare? Schiantarsi contro una montagna deserta o tentare di non distruggersi completamente atterrando in un ampio prato dove stanno giocando decine di bambini?

Fonte: https://www.analisidifesa.it

 


 

Categoria principale: Articoli
Categoria: Informatica
Visite: 41