I pericoli dell’Intelligenza Artificiale: 6 fenomeni da tenere d’occhio nel 2019
Limitazione delle libertà personali, discriminazione, manipolazione dell’opinione pubblica: ecco i rischi che l'intelligenza artificiale porta con sé.
L'AI ci fa divertire con i videogiochi, ci semplifica la vita con gli assistenti vocali e collabora alla ricerca scientifica. Ma quali sono gli effetti collaterali?
Il 2018 è stato l’anno dell’AI, l'Intelligenza Artificiale. L’AI ha dimostrato tutto il suo potenziale nei più diversi ambiti della scienza e della tecnologia: dall’analisi del dati alla lotta al terrorismo, dalla ricerca medica alle missioni spaziali; big data e supercomputer promettono di rivoluzionare la nostra vita.
C'è però un "piccolo" problema... La potenza dei sistemi di Artificial Intelligence, se male indirizzata, potrebbe diventare molto pericolosa.
E non stiamo parlando del rischio di robot killer che si aggirano per le nostre città sparando a chiunque, ma di "cattivi usi", più sottili e altrettanto pericolosi, di applicazioni già oggi esistenti.
INCIDENTI SENZA CONDUCENTE. Il ciclista investito e ucciso lo scorso marzo negli Stati Uniti da una delle auto senza conducente di Uber ha riaperto il dibattito sull’effettiva maturità di questa tecnologia.
Il sistema di guida della vettura non è infatti riuscito a identificare e classificare correttamente come “persona in bicicletta” la vittima: potrebbe averla scambiata per un sacchetto di plastica svolazzante e quindi averla consapevolmente travolta.
Un errore di programmazione dunque, che avrebbe potuto essere evitato con relativa facilità. Ma chi verifica l’effettiva sicurezza dei sistemi di guida autonoma? Chi si deve prendere la responsabilità di dare la patente ai robot? Dal punto di vista normativo la confusione è ancora tanta.
E l’intenzione dell’Highway Traffic Safety Administration, l'equivalente a stelle e strisce del nostro Ministero dei Trasporti, di ammorbidire le regole esistenti in materia, solleva più di qualche dubbio.
INFLUENZATI DAL BOT. Lo scandalo Cambridge Analytica, scoppiato a marzo 2018, ha invece evidenziato l’effettiva capacità dei social media di pilotare la coscienza politica delle persone dando maggiore risalto a certe notizie e a certe fonti di informazione a discapito di altre.
Lo stesso Mark Zuckerberg, durante un’audizione di fronte al Senato degli Stati Uniti, ha promesso al mondo la realizzazione di sistemi di intelligenza artificiale in grado di bloccare sul nascere la diffusione delle fake news, sia in formato testuale che video. Facebook dovrebbe cominciare la sperimentazione di questa tecnologia già dai prossimi mesi, in occasione delle tornate elettorali che si terranno in Nigeria e in Sud Africa.
AI PER LA PACE. Un altro caso è quello che ha visto protagonisti, lo scorso anno, alcuni ricercatori e impiegati di Google. Questi erano venuti a conoscenza della circostanza che la grande G avrebbe messo, con il Project Maven (questo il nome in codice del progetto), le sue tecnologie a disposizione del Pentagono per classificare e riconoscere immagini catturate da droni. In particolare il timore era che sistemi di Intelligenza Artificiale di casa Google potessero essere impiegati per fornire indicazioni a droni killer o per identificare bersagli da assegnare ad armi autonome.
Google ha accolto l’obiezione di coscienza dei suoi dipendenti e ha redatto e condiviso un codice etico per l’Intelligenza Artificiale, nel quale si impegna a non realizzare sistemi o software che utilizzino l’AI per arrecare danno all’uomo. Insomma, una moderna rilettura delle tre leggi della robotica di Asimov.
Ma il Pentagono sembra lasciarsi condizionare da questo dietrofront e, interessato com'è a raggiungere i suoi obiettivi, investirà anche nel 2019 somme ingenti per lo sviluppo di armi basate sull’Intelligenza Artificiale.
La parola ora passa alle Nazioni Unite, che nel corso dei prossimi mesi hanno in agenda diversi incontri sul tema, con l’obiettivo finale di una messa al bando definitiva e anticipata su questi sistemi d’arma.
IL GRANDE FRATELLO È TRA NOI. Che dire poi di quanto sta accadendo in Cina? Il Paese asiatico ha ammesso, nel corso del 2018, di aver realizzato il più vasto e capillare sistema di sorveglianza al mondo. Centinaia di migliaia di telecamere sparse per tutto il paese e un potentissimo software di riconoscimento facciale in grado di identificare praticamente chiunque: malviventi, ricercati, ma anche comuni cittadini, dissidenti politici o avversari del potere costituito.
Le associazioni per la tutela dei diritti umani mettono in guardia contro questa tecnologia, che già oggi permette di riconoscere i volti di tutti noi sui social network, di seguire i nostri spostamenti, di controllare le nostre frequentazioni. Secondo gli esperti del MIT nel corso dei prossimi mesi il riconoscimento facciale si spingerà ancora oltre e assisteremo alla comparsa di sistemi in grado di identificare le nostre emozioni davanti allo schermo, davanti a una vetrina o a uno scaffale del supermercato.
Ma si può sperare che vedremo anche le prime regolamentazioni legali sull’utilizzo di questi sistemi così invasivi.
Scritto e pubblicato sul sito: Focus.it
Commenti
Posta un commento