L’utilizzo dell’“AI” migliorerà veramente le condizioni di vita umane? Quali saranno i confini effettivi dell’utilizzo dell’“AI”?
Si arriverà ad impiantare neuroni artificiali in un cervello biologico, per poi assegnare un premio Nobel ad una “AI”?
- L’intelligenza artificiale per migliorare le condizioni di vita umane
- Il ruolo dei neuroni artificiali nelle reti neurali del futuro
- Nel 2036 premio Nobel ad una “AI disruptive” nel campo sanitario
- Implicazioni morali dell’assegnazione del Nobel ad una “AI”
Nel nuovo scenario globale ormai il concetto di “Artificial Intelligence” è diventato di uso comune, per cui si puó declinare in piú ambiti sempre al servizio del miglioramento della qualitá della vita umana. Seguendo tale binario l’impiego degli algoritmi di AI diventa pervasivo ed insostituibile per migliorare e rendere più efficienti i processi sia pubblici che privati nella vita quotidiana. Le applicazioni dell’AI stanno assumendo il ruolo di assistente dell’uomo, fino ad eguagliarlo in alcuni ambiti. Il processo sta diventando sempre piú veloce, per cui già su alcune riviste come ad esempio l’Economist [Ref.2] scrivono proiezioni future, che immaginano che nel 2036 il premio Nobel sarà conferito ad una “AI” come ad esempio “YULIA”, che sarà una discendente di “Siri” ed “Alexa”, questo scenario porterá a rivalutare tutta la metodologia di acquisizione del patrimonio del sapere compresi i meccanismi di apprendimento umano, in quanto la macchina diventerà, con alcuni limiti normativi, un surrogato sostitutivo dell’uomo.
L’intelligenza artificiale per migliorare le condizioni di vita umane
Attualmente si sta pensando di impiegare l’AI negli ambiti più diversi, ad esempio per salvare il patrimonio artistico architettonico, per controllare da remoto le grandi strutture, per agire nel campo biomedico a livello sia di prevenzione e sia di operatività chirurgica di precisione, per il controllo del territorio come ad esempio l’ispezione di ponti o viadotti tramite dei sensori, senza dimenticare la valenza strategica nel campo della Difesa nei diversi contesti operativi Terra, Mare, Aria, Spazio e Cyber. Nel 2017 i potenti dicevano che chi fosse diventato leader nel settore dell’AI avrebbe da lì a poco dominato il mondo. Stanno introducendo le tecniche di AI, che comprendono il “Machine Learning” ed il “Deep learning”, nella vita di tutti i giorni tramite gli smartphone e gli accessori legati all’Internet of Things (IoT), invadendo anche le nostre case tramite le Smart TV e gli assistenti vocali tipo Google home. L’argomento principale da discutere in merito ai device di derivazione IoT è legato al ruolo umano rispetto a queste macchine, ossia se l’uomo sia un supervisore della macchina sulla quale può prendere la decisione finale, oppure il sistema sia autonomo rispetto alla decisione dell’uomo e quindi eseguirà una sua decisione secondo gli algoritmi, tramite cui è stato programmato. In realtà sarà sempre l’uomo, che imposta i processi e programma la macchina, anche se lo farà andando a sviluppare algoritmi che auto apprendono, anche se l’AI si struttura secondo un proprio percorso di apprendimento, che sarà condizionato dalle esperienze, che colleziona la macchina stessa, per cui l’algoritmo si forgia secondo le condizioni al contorno, fino ad arrivare ad una sua identità, data dall’autoapprendimento [Ref.1].
In ambito sanitario la collezione di dati statistici riportati dal campo permette ad un algoritmo di deep learning di arrivare ad un livello sostanziale di competenza medica tale da poter sia diagnosticare le patologie, ma anche elaborare cure per eventuali minacce di tipo biologico, come i virus di nuova generazione. In questi ambiti particolari di ricerca legati all’epidemiologia ed alla virologia, gli studi su base statistica con un’immensa mole di dati sono i cardini per arrivare alla soluzione, che può essere la cura oppure la prevenzione tramite i vaccini.
In tale contesto la macchina dotata di AI può diventare antagonista dei medici e dei ricercatori, ma allo stesso tempo potrebbe essere anche un valido collaboratore ed alleato per sconfiggere le minacce biologiche.
Il ruolo dei neuroni artificiali nelle reti neurali del futuro
Le reti neurali artificiali sono modelli matematici composti da neuroni artificiali, che si ispirano al funzionamento dei neuroni di un cervello biologico. Un neurone riceve stimoli da altri neuroni, li integra e si eccita trasmettendo il suo potenziale sotto forma di impulso elettrico ad altri neuroni. Si può considerare una rete neurale come una scatola nera, con degli input, degli strati intermedi che elaborano gli input, e degli output che escono fuori dopo l’elaborazione. La rete neurale è composta da nodi detti neuroni, collegati in strati successivi mediante connessioni pesate, ossia si tratta di valori numerici moltiplicati per il singolo valore del neurone collegato. Il neurone singolo somma i valori pesati di tutti i neuroni ad esso collegati e aggiunge un valore di “bias” cognitivo o di conferma, per poi trasmettere il risultato allo strato successivo, lungo un percorso che va dai neuroni di input ai neuroni di output [Ref. 13].
Le reti neurali si possono utilizzare per simulazioni finanziarie, per il riconoscimento di immagini e del parlato, per le simulazioni biologiche e del meteo, per delle diagnosi mediche, delle analisi di dati, dei controlli di qualità, ed in tutti quei campi, che hanno l’esigenza di avere di grandi capacità di analisi e di calcolo, per poter gestire grandi flussi di dati con un elevato numero di variabili [Ref. 9, 10, 11, 12].
Utilizzando le reti neurali bisogna tener conto dei loro limiti, in quanto l’elaborazione avviene negli strati nascosti (HIDDEN LAYERS), per cui non è possibile sapere esattamente come le reti siano giunte ad un risultato, che può essere anche impreciso e approssimativo. Bisogna tener conto del periodo più o meno lungo di apprendimento, che dipende dalla complessità dei problemi, evitando o semplificando i problemi, che alle volte presentano una quantità eccessiva di variabili. Le reti neurali più recenti adottano neuroni a cambiamento di fase, avvicinandosi quasi al funzionamento dei neuroni naturali.
Questi neuroni utilizzano materiali, che assumono contemporaneamente uno stato amorfo non strutturato ed uno cristallino, e man mano che acquisiscono dati si strutturano. Tali neuroni sono particolarmente adatti per il riconoscimento di immagini e per evidenziare anomalie e diversità in grandi flussi di dati. Affinché questo processo risulti performante è necessario “addestrare le reti neurali”, ossia fare in modo che apprendano come comportarsi nel momento, in cui andrà risolto un problema ingegneristico, come per esempio il riconoscimento di un essere umano dall’analisi delle immagini, attraverso per esempio la tecnologia del riconoscimento facciale [Ref.14].
Il tema dell’apprendimento invece è collegato al Machine Learning, ossia algoritmi che utilizzano metodi matematico-computazionali per apprendere informazioni dall’esperienza, quindi in modo automatico, metodico ed adattivo.
I principali modelli di apprendimento in uso oggi sono di quattro tipi, apprendimento supervisionato (Supervesed Learning), apprendimento non supervisionato (Unsupervesed Learning), apprendimento per rinforzo, apprendimento semi-supervisionato.
Con l’apprendimento supervisionato (Supervised Learning), all’algoritmo vengono forniti sia set di dati come input sia le informazioni relative ai risultati desiderati, con l’obiettivo che la rete identifichi una regola generale, che possa collegare i dati in ingresso con quelli in uscita; ossia vengono forniti degli esempi di input e di output in modo che il sistema impari il nesso tra loro e ne estrapoli una regola riutilizzabile per altri compiti simili.
Nell’apprendimento non supervisionato (Unsupervised Learning), al sistema vengono forniti solo set di dati senza alcuna indicazione del risultato desiderato. Lo scopo di questo secondo metodo di apprendimento è poter “risalire” a schemi e modelli nascosti, ossia identificare negli input una struttura logica, senza che questi siano preventivamente catalogati [Ref. 4, 5, 6, 7, 8].
L’apprendimento per rinforzo è il caso, in cui il sistema deve interagire con un ambiente dinamico, che gli consente di avere i dati di input, per poter raggiungere un obiettivo, al raggiungimento del quale riceve una ricompensa, imparando anche dagli errori, che sono identificati medianti “punizioni”. Il comportamento e le prestazioni del sistema sono determinati da una routine di apprendimento basata su ricompensa e punizione.
L’ultimo tipo di apprendimento semi-supervisionato è un modello “ibrido” dove al computer viene fornito un set di dati incompleti per l’allenamento/apprendimento; alcuni di questi input sono “dotati” dei rispettivi esempi di output, come nell’apprendimento supervisionato, altri invece ne sono privi, come nell’apprendimento non supervisionato. L’obiettivo, di fondo, è sempre lo stesso: identificare regole e funzioni per la risoluzione dei problemi, nonché modelli e strutture di dati utili a raggiungere determinati obiettivi. [Ref. 15, 16].
Quindi le reti neurali del futuro saranno delle palestre di apprendimento per sviluppare nel migliore dei modi la sfera del cognitivo, sia essa costituita da neuroni biologici che artificiali impiantati nel cervello umano.
Attualmente nel 2024 Elon Reeve Musk ha già iniziato la sperimentazione, impiantando un microchip in un cervello umano con una grave malattia degenerativa. Inoltre Musk renderà aperta Grok, la sua intelligenza artificiale
dopo aver subito una causa per OpenAI, in cui era accusato di utilizzarla a scopo di lucro [Ref. 17].
Assegnazione del premio Nobel nel 2036 ad una “AI disruptive” nel campo sanitario
Quando ci sarà il giro di boa sullo studio del cervello umano, ossia ci sarà un chip ottico che imita i percorsi di apprendimento del cervello, ossia andranno a buon fine le sperimentazioni di Elon Musk, allora avverrà quello che non avremmo mai voluto che avvenisse, ossia il tanto ambito premio Nobel sarà assegnato ad un algoritmo di “AI” [Ref.2].
Nel 2021, l’anno in cui si è usciti dalla temibile pandemia da Covid, è stato premiato con il Nobel un fisico italiano Giorgio Parisi, proprio per i suoi studi relativi ai sistemi complessi svolti all’Università Sapienza di Roma, attualmente nel futuro sembra delinearsi una macabra ombra, che porterà a sostituire i percorsi logici umani con gli algoritmi, sviluppati in funzione del “machine learning” e del “deep learning”. Potrebbe sembrare fantascienza ma invece è solo la proiezione prospettica dello sviluppo della tecnologia legata all’”AI”, che alacremente si sta portando avanti in questi anni. I sistemi di “AI” processano infinite moli di dati per poter arrivare nel più breve tempo possibile alla soluzione del problema, che può essere la lotta ad un virus, ad una malattia batterica o la realizzazione di un nuovo vaccino o un nuovo antibiotico, per cui si strutturano le capacità di ragionamento per costruire ipotesi verificabili, che sarebbero vulnerabilità accessorie. Attualmente anche le più strutturate e complesse “AI” sono utilizzate solamente in aree molto specializzate come la realizzazione dei farmaci, dove grandi quantità di dati statistici sono associati a metriche di successo ben definite. Per cui in realtà le “AI” non scoprono nulla, ma realizzano delle interpolazioni algebriche, che permettono di giungere a dei risultati tangibili, che affondano le proprie fondamenta su dati manipolati statisticamente sempre dalla mente umana.
Implicazioni morali dell’assegnazione del Nobel ad una “AI”
Eticamente la macchina non si può sostituire all’uomo e rimane sempre uno strumento per arrivare più velocemente e nel modo migliore all’obiettivo, però il momento in cui nel 2036, come profetizza l’Economist [Ref. 2], sarà un algoritmo di “AI”” a raggiungere il riconoscimento umanamente più ambito nel campo della ricerca scientifica, che è il Nobel, questo momento sarà il punto di non ritorno a livello etico per poter discriminare un androide da un umano e segnerà l’inizio di un’era, in cui il materiale biologico sarà integrato con materiale elettronico e si forgeranno nuovi individui dotati di potenzialità intellettive e fisiche migliori e più performanti, in quanto tutto sarà plasmabile ed integrabile [Ref.3]. Si affronteranno i nuovi concetti legati all’identità di una “AI”, che ha una sua ragione di esistere come entità, alla quale è possibile assegnare un premio o un’onorificenza, come si è sempre fatto con gli uomini o le donne di nascita biologica. Sicuramente come auspica l’Economist tale scenario creerebbe una tensione sociale di livello notevole, perché andrebbe a sovvertire i postulati dell’etica umana, che abbracciano trasversalmente anche le religioni monoteiste, a cui si affidano tanti popoli. Una “AI” di nome “YULIA” sarebbe la pietra dello scandalo, che sovvertirebbe tutti gli equilibri sociali a livello globale, andando a sovvertire un ordine millenario, in cui i filosofi già al tempo degli antichi greci diedero il concetto di anima e respiro (ψυχή e θυμός) racchiusa in un corpo, in seguito San Agostino aveva consolidato il concetto dell’IO pensante, come identità personale, in cui ognuno astrattamente si identifica, dal quale discende la famosa frase “Cogito Ergo Sum” di Cartesio. Partendo da questa famosa frase cartesiana sembrerebbe che anche una rete neurale, dotata di un suo ragionamento insito, avrebbe il diritto di esistere e di avere una propria identità legale, oppure la stessa rete neurale sarebbe semplicemente uno strumento di matrice statistico-stocastica per trattare infinite moli di dati, che consentirebbero ad esempio di arrivare più velocemente a soluzioni mediche, a cui altrimenti non si potrebbe nemmeno pensare? Solo con il tempo si risponderà a tale quesito etico e morale. In ogni caso oggi si sta cercando di applicare all’ “AI” una normativa legislativa, che sia saggia e matura, rispettando sempre le singole identità.
Ref.:
- Ella Maru Studio and Yoon Seok Kim/Jia Liu, Deisseroth/Bao laboratories, Stanford University
- https://www.economist.com/what-if/2021/07/03/what-if-an-ai-wins-the-nobel-prize-for-medicine
- Un’occhiata alle carte di Dio, gli interrogativi che la scienza moderna pone all’uomo, autore: Gian Carlo Ghirardi, editore: il Saggiatore
- https://www.ansa.it/canale_scienza_tecnica/notizie/biotech/2020/04/16/neuroni-con-la-corazza-contro-sclerosi-multipla-e-autismo-_6b2d7274-f3ff-42e5-a26f-1b1181500e1a.html
- https://www.positizie.it/2020/05/26/ottenuti-i-primi-neuroni-con-la-corazza-un-futuro-possibile-aiuto-contro-autismo-e-sclerosi-multipla/
- https://www.lescienze.it/news/2019/05/09/news/rete_neurale_artificiale_simula_neuroni-4400644/
- https://www.nature.com/articles/s41593-018-0295-x
- https://www.newence.com/2019/01/16/i-neuroni-degli-individui-con-autismo-si-sviluppano-piu-lentamente/
- Mirror neurons and cognitive and motoric functions L. Fogassi Gior Neuropsich Età Evol 2008;28:329-350
- Iacoboni M, Woods RP, Brass M, Bekkering H, Mazziotta JC, Rizzolatti G. Cortical mechanisms of human imitation. Science. 1999 Dec 24;286(5449):2526-8. doi: 10.1126/science.286.5449.2526. PMID: 10617472.
- Molnar-Szakacs I, Wang MJ, Laugeson EA, Overy K, Wu WL, Piggot J. Autism, emotion recognition and the mirror neuron system: the case of music. Mcgill J Med. 2009 Nov 16;12(2):87. PMID: 21264050; PMCID: PMC2997252
- Renzo M., Bianchi di Castelbianco F., Petrillo M., Racinaro L., Donaera F., Rea M., “The emotional contagion in children with Autism Spectrum Disorder”, Austin Journal of Autism & Related Disabilities, 2016, 2, 2:1020, pp. 1-7
- http://www.umbertosantucci.it/atlante/reti-neurali/
- https://www.ai4business.it/intelligenza-artificiale/deep-learning/reti-neurali/
- https://commons.wikimedia.org/wiki/File:Proximity_labeling_proteomics_of_mitochondrial_outer_membrane.png
- https://neurotray.com/how-neuroscience-can-influence-architecture/
- https://www.ansa.it/canale_tecnologia/notizie/future_tech/2024/03/11/elon-musk-rendera-aperta-grok-la-sua-intelligenza-artificiale_65da51b6-692c-465e-b8df-aa80a02e8d8f.html
Articolo di Cinzia Crostarosa | Centro Studi Europeo | Member of the Steering Committee | Engineer at Larimart S.p.A. – Leonardo Company