Person of interest

La giovane Maedeh, studentessa di Teheran dal futuro brillante…

Maedeh Salafzoon* è una tredicenne di Teheran, figlia di un professore di letteratura e di un’impiegata che lavora presso l’ambasciata cinese.
Maedeh ha dimostrato di possedere un’intelligenza brillante e, oltre a ottenere eccellenti risultati in matematica, si diletta anche di elettronica: ha fatto scalpore la sua vittoria in un concorso per studentesse in cui ha realizzato un piccolo contatore geiger utilizzando una lampada a neon e, soprattutto, senza usare alcool, una notizia che è stata riportata anche sulla stampa nazionale.
Oltre alla propria lingua, conosce l’inglese, l’arabo e il cinese e si è anche aggiudicata una borsa di studio dell’ambasciata cinese per partecipare a un corso a distanza tenuto da professori della Zhejiang University.

Dalla sigla della serie TV “Person of interest”

Tomorrowatch: la pace predittiva

La Tomorrowatch* è una piccola startup di Jaffa, che sviluppa per il governo israeliano il programma #ĀrônHabbərît*, un complesso sistema di intelligenza artificiale focalizzato sull’analisi predittiva basata su fonti OSINT. Secondo le analisi elaborate da #ĀrônHabbərît, la giovane Maedeh Salafzoon è stata segnalata come minaccia strategica per la pace mondiale, con una probabilità del 77,7%.

Un martedì come tanti altri, Hani Salih*, un cittadino Yemenita che si trovava in Iran per motivi di lavoro, perde il controllo della propria auto e si schianta contro la vetrina di un negozio di abbigliamento di Teheran. Nell’impatto, uno dei tanti incidenti che avvengono in tutte le strade del mondo, ha perso la vita la giovane Maedeh che proprio in quel momento si trovava di fronte al negozio.

Nessuno saprà mai cosa avrebbe fatto del proprio futuro quella ragazza, ma una cosa è certa: Maedeh Salafzoon non costituirà mai più una “minaccia per la pace”.

Catturata la spia che mette a rischio la pace nel mondo

Secondo la Reuters, Yehudi Heifetz*, un dipendente della Tomorrowatch, è stato arrestato dalla polizia del Regno Unito, mentre tentava di imbarcarsi su un aereo diretto a Caracas. L’accusa sostiene che il whistleblower abbia trasmesso a un network internazionale di giornalisti indipendenti, 80.000 documenti classificati che dimostrano come la dirigenza della Tomorrowatch e i vertici del governo israeliano siano consapevoli che gli algoritmi alla base del programma #ĀrônHabbərît risentano di bias legati a nazionalità, etnia e religione.

Tra i dati che contribuiscono all’elaborazione dei criteri stabiliti dall’intelligenza artificiale, vi sarebbero addirittura dati genetici, rilevati attraverso l’accesso preferenziale al database della YourDNA*, il laboratorio che per pochi dollari offre ai cittadini di tutto il mondo la mappatura completa del proprio DNA.

Sembra che le “segnalazioni” di #ĀrônHabbərît abbiano determinato una trentina di omicidi mirati fatti passare per morti accidentali.

*Questa storia e tutti i nomi riportati sono inventati. Ma…

Questa storia è del tutto inventata e i nomi degli attori fin qui riportati sono di nostra invenzione, ma questo è esattamente quello che potrebbe succedere se i programmi di sviluppo dell’Intelligenza Artificiale a scopo militare da parte delle potenze mondiali subissero un’accelerazione incontrollata.

“Questo è un rapporto scioccante e spaventoso che potrebbe portare alla proliferazione di armi AI che prendono decisioni su chi uccidere”, ha detto il prof. Noel Sharkey, portavoce della Campaign To Stop Killer Robots.

L’articolo di Leo Kelion sul sito BBC

Proprio in questi giorni si è parlato delle richieste a Stati Uniti e relativi alleati perché si oppongano al divieto globale dei sistemi d’arma autonomi alimentati dall’intelligenza artificiale: gli USA rischierebbero di perdere un vantaggio competitivo rispetto ad altre potenze come Cina e Russia che “probabilmente” stanno già elaborando le proprie tecnologie.

Sistemi d’arma governati da un’intelligenza artificiale costituiscono un gigantesco problema etico: la velocità con cui le AI possono prendere una decisione tattica è naturalmente maggiore di quella con cui una catena di comando “umana” potrebbe elaborare la stessa decisione. Tuttavia, lo scopo di una catena di comando è anche quello di determinare la responsabilità.

Di chi è la responsabilità di una scelta operata da un’intelligenza artificiale? Dello staff di sviluppatori? Dei funzionari addetti al controllo? Dei politici che ne deliberano l’impiego? Dei cittadini che non si sono opposti a questa devoluzione di responsabilità? O la responsabilità è direttamente imputabile all’intelligenza artificiale, quasi fosse un soggetto pensante? E in tal caso, riusciremmo a capire se e quando e come ha sbagliato? E quali sarebbero le conseguenze?

E, soprattutto, quanto tutto ciò determinerebbe una riduzione del libero arbitrio dell’uomo?