Digitalizzazione: intelligenza artificiale quo vadis ?

Una panoramica sugli sviluppi dell’intelligenza artificiale, dai chatbot alle macchine in grado di apprendere, fino agli inquietanti scenari degli utilizzi a scopo bellico

Di

Nel quarto articolo sulla digitalizzazione (leggi qui) ho dato una corta panoramica sull’intelligenza artificiale.

Considerato che si tratta della tecnologia più controversa e che lascia molti perplessi, condivido alcuni aspetti tra i meno noti.

Attualmente siamo confrontati con la narrow AI un’intelligenza non cognitiva che si “limita” ad eseguire dei compiti precisi (per esempio la guida autonoma)[1] . Alcuni sistemi imparano, accedendo ed elaborando dei dati in base ad algoritmi. Sulla base degli stessi sono poi in grado di formulare delle risposte in modo autonomo. Un esempio sono i chatbot, gli assistenti che troviamo su diversi siti e che possono rispondere alle nostre domande, oppure i sistemi di riconoscimento vocale.

E fino qui niente di speciale.

I ricercatori si stanno però concentrando sulla strong AI o general AI (AGI)[2]. Una forma di AI cognitiva il cui sviluppo è basato sull’integrazione di reti neuronali artificiali[3] e un tipo di machine learning, il deep learning[4], che prende come modello l’architettura del nostro cervello [5]. L’idea è quella di sviluppare un’intelligenza con dei valori comportamenti simili ai nostri. Lo scopo è quello di facilitare la nostra futura coesistenza con l’ AI.

Sì, avete letto bene, e no, non è fantascienza.

Una cosa è certa, per il momento si tratta (fortunatamente) di ricerca e probabilmente ci vorrà ancora del tempo.

Elon Musk (CEO di Tesla eSpace X) insieme a ricercatori esperti di AI fà parte di Future of Life (anche lo scomparso Stephen Hawking ne era membro), un’organizzazione che si occupa in modo critico di temi caldi quali AI, energia nucleare, cambiamenti climatici ecc [6].

Questa organizzazione mette in guardia da uno sviluppo deviato di AI. Date un’occhiata alla tabella riprodotta a lato che riassume alcuni aspetti per farvi un’idea.

Sempre Musk è anche cofondatore di OpenAI [7] , una società non profit per lo sviluppo di un’AGI sicura. Musk è convinto che sia necessaria un’interfaccia tra il nostro cervello e i sistemi AI in modo da poterla controllare[8]. Così ha fondato la startup Neuralink[9] con lo scopo di realizzare questo progetto.

Altri ricercatori mettono in dubbio questa soluzione in quanto un sistema AGI potrebbe prendere il controllo di questa interfaccia e manipolarci a sua volta [10].

Roba da Aasimov.

Altre personalità, tra cui Bill Gate e Zuckerberg, relativizzano l’allarmismo di Musk. Da una parte non dobbiamo ritenere AGI uno sviluppo imminente, dall’altra parte questa tecnologia ci aiuterà a migliorare ampliando le nostre capacità sensoriali e mentali[11].

Certo che, se affermato da dei CEO (o ex CEO) di ditte direttamente coinvolte in progetti AI, un qualche dubbio viene: convenienza o ottimismo oltranzista?

Tornando ai pessimisti, può sembrare strano che persone coinvolte nello sviluppo di una tecnologia mettano in guardia dalla stessa. Lo scopo è raggiungere uno sviluppo etico di AGI in armonia con l’umanità[12].

In parole povere, prevenire è meglio di guarire.

Ma perchè tutto questo allarmismo ? Bene, guardate questo video (http://autonomousweapons.org/slaughterbots/) girato da alcuni ricercatori AI [13] nel quale viene simulato il lancio di un piccolo drone: lo slaughterbot, nome simile a chatbot, peccato che slaughter significhi “massacro”.

E se il slaughterbot è solo una “finzione” (forse), questo sviluppo della ditta Kalashnikov per contro non lo è (https://newatlas.com/kalashnikov-ai-weapon-terminator-conundrum/50576/). Si tratta di un robot da combattimento autonomo.

Diverse NGO’s si sono unite nella campagna Stop Killer Robot (https://www.stopkillerrobots.org/act/) per cercare di arginare questo sviluppo deleterio. Anche Amnesty International si è già attivata su questo argomento (https://www.amnesty.org/en/documents/act30/1401/2015/en/).

I primi segnali d’allarme ci sono, quindi. Sulla capacità dell’umanità di capire che questa volta potremmo farci molto male mi permetto di avere dei dubbi.

L’unico fatto sicuro oggi è che la narrow AI prenderà sempre più piede, mentre la competizione nello sviluppo di AGI è già iniziato. Il tutto accompagnato da indifferenza, entusiasmo tecnologico e il miraggio di guadagni mirabolanti.

Dove ci porterà credo che non lo sappia nessuno.

AI myths

  1. https://futureoflife.org/background/benefits-risks-of-artificial-intelligence/
  2. https://en.wikipedia.org/wiki/Artificial_general_intelligence
  3. https://it.wikipedia.org/wiki/Rete_neurale_artificiale
  4. https://en.wikipedia.org/wiki/Deep_learning
  5. https://futureoflife.org/2017/10/23/understanding-agi-an-interview-with-hiroshi-yamakawa/
  6. https://futureoflife.org/team/
  7. https://www.openai.com/
  8. https://www.cnbc.com/2017/02/13/elon-musk-humans-merge-machines-cyborg-artificial-intelligence-robots.html
  9. https://www.neuralink.com/
  10. http://www.newsweek.com/artificial-intelligence-hijack-brain-computer-interface-control-decisions-ai-705511
  11. https://www.cnbc.com/2017/09/25/bill-gates-disagrees-with-elon-musk-we-shouldnt-panic-about-a-i.html)
  12. https://futureoflife.org/2017/11/09/developing-ethical-priorities-neurotechnologies-ai/
  13. https://www.theguardian.com/science/2017/nov/13/ban-on-killer-robots-urgently-needed-say-scientists

Ti potrebbero interessare: