Esplorando l’impatto dell’intelligenza artificiale nella didattica

"Tra opportunità e rischio”, l'incontro svoltosi all’IIS “N. Green - Falcone e Borsellino” di Corigliano (CS). La relazione di Gallo. 

Affido a Parola di Vita il testo della relazione che ho presentato nell’ambito del Convegno intitolato “Esplorando l’impatto dell’intelligenza artificiale nella didattica. Tra opportunità e rischio”, svoltosi all’IIS “N. Green – Falcone e Borsellino” di Corigliano (CS) il 13 aprile scorso.

  

“Chissà come si divertivano”.

Il lavoro etico nel tempo della scuola digitale  

 

Il titolo di questo Convegno è assai felice, nella misura in cui il verbo esplorare evoca l’idea (perlomeno questa è la mia percezione) che si tratti proprio di una sorta di ispezione di un qualcosa di sconosciuto, quasi di misterioso. L’esplorazione dà la sensazione di trovarsi impegnati in una prima colonizzazione di un certo spazio (come quando parliamo dell’esplorazione dello spazio). A ben vedere è quello che intendiamo fare noi, nella misura in cui l’esplorazione del rapporto tra IA e didattica è in un qualche modo l’esplorazione di uno spazio concettuale sconosciuto. Mi piace quindi pensare che il nostro compito sia oggi quello di avanzare soltanto alcune ipotesi di riflessione su di un argomento per certi versi ignoto e sul quale è difficile fare delle inferenze precise a lungo termine.

Quando parliamo di IA abbiamo quindi bisogno di una necessaria umiltà e una consapevole e moderata sicurezza. La prima virtù, quella dell’umiltà, è necessaria per evitare di trasformarci in una specie di indovini. Lo scenario si muove e cambia così velocemente che è impossibile fare previsioni sicure e la navigazione a vista diventa la strada più prudente. Inoltre l’umiltà è preziosa perché si tratta di una virtù che ci tutela dalla tentazione di voler dire l’ultima parola su di un argomento che, per essere realmente compreso, ha davvero bisogno di una contaminazione di saperi e di un approccio interdisciplinare. Ciò che quindi noi possiamo dire sull’IA è sempre fisiologicamente parziale e ha bisogno quindi di arricchirsi unendosi ad altre prospettive parziali in dialogo costante e arricchimento reciproco. L’altra virtù, invece, è altrettanto necessaria perché quel poco che in effetti possiamo dire, nell’ambito del contributo che effettivamente possiamo apportare, dobbiamo dirlo con una certa sicurezza, abbandonando quella soggezione che soltanto certi argomenti – e l’IA è uno di quelli – riescono ad incutere. Ovviamente è inutile precisare che con sicurezza non intendo un atteggiamento di fiera superbia, ma una sana saldezza nel voler veramente apportare un certo tipo di contributo che riteniamo utile per il bene comune, pronti a correggere la nostra rotta qualora gli esperti con i quali ci confrontiamo, nel rispetto dello spirito interdisciplinare al quale accennavo, ci mostrino aspetti e problemi dei quali non avevamo alcuna contezza.

Alla luce di tutto ciò io vorrei mantenermi nell’ambito che mi è proprio, quello filosofico, e limitarmi a proporre a tutti voi pochissime idee afferenti alla tripartizione in cui solitamente si suddivide concettualmente la ricerca sull’IA in ambito educativo (AIED Artificial Intelligence in Education)[1]:

 

  1. 1.     Educare con l’IA;

  2. 2.     Educare all’IA;

  3. 3.     Educare l’IA;   

 

Per quanto concerne il primo ambito, quello dell’educazione con l’IA, c’è da dire che è difficile ad oggi immaginare come potrebbe essere fra molto tempo lo scenario scolastico con un massiccio consolidamento dell’uso dell’IA in classe. C’è chi pensa che l’IA, implementata da robot (non è ancora chiaro quanti per ogni classe) possa aiutare l’insegnante nella gestione della classe, nel monitoraggio dell’attenzione dei studenti o a dirimere, durante compiti ed esercitazioni, questioni specifiche come la sorveglianza, il chiarimento delle tracce da svolgere, l’esecuzione di complessi calcoli (qualora ciò sia autorizzato) o altre cose del genere.

È possibile che i robot possano, in tempo reale, visionare le verifiche degli studenti, correggerle e fornire un feedback immediato (magari agli studenti e alle famiglie allo stesso tempo) oppure è possibile fantasticare e immaginare che per ogni studente ci sia una sorta di tutor che, grazie a speciali autorizzazioni, registri l’andamento scolastico, gli apprendimenti, la condotta, lo sviluppo di varie skills, le scelte relazionali, le infrazioni e i comportamenti problema e attribuisca un punteggio a tutto ciò e produca poi un resoconto dettagliato – magari corredato da videoregistrazioni – alla famiglia e agli insegnanti.

Queste potrebbero apparire fantasticherie, eppure la possibilità di un simile sviluppo non è affatto contraddittoria o impossibile. Già oggi, infatti, si parla di ITS (Intelligent Tutoring System) per indicare tutti quei programmi informatici in grado di erogare servizi, informazioni, direttive come se fossero reali insegnanti.  C’è di più: è noto che Scuolalab, ha messo a punto una serie di innovazioni altamente tecnologiche nel campo della didattica e dell’apprendimento che hanno portato le scuole italiane aderenti a vivere delle anticipazioni futurologiche non indifferenti. Dai laboratori virtuali Stemlab fino al robot scolastico Classmate progettato insieme a studiosi del Dipartimento di Scienze Sociali dell’Università Federico II di Napoli ed esperti Ed-Tech. Quest’ultimo è un edudroide con un ventaglio enorme di possibilità che già molte scuole italiane stanno sperimentando nelle loro classi[2].  

In un futuro ancor più lontano si potrebbe immaginare che la stessa idea di scuola venga meno, grazie all’implementazione di biotecnologie nel sistema nervoso centrale che, disponendo di inimmaginabili capacità di calcolo e memoria nonostante le ridotte dimensioni, potranno creare, bypassando anni di studio e tirocinio, quelle competenze che ad oggi sono ancora affidate all’insegnamento tradizionale. Questo è uno scenario transumanista certamente più fantasioso rispetto al primo, ma comunque anch’esso non contraddittorio considerate le premesse del nostro tempo (il pensiero corre subito a Neuralink di Elon Musk[3]). Che tutto ciò non appartenga alla futurologia ma alle possibilità reali di un futuro lontano è dimostrato da quanto sta accadendo in ambito inclusivo. Il connubio tra robotica sociale e autismo, ad esempio, è sempre più forte. Paola Pennisi e Giovanni Pioggia alcuni anni fa presentarono, in occasione dell’XI Convegno annuale dell’Associazione Italiana di Scienze Cognitive l’ipotesi di utilizzo di un robot sociale prodotto dalla Hanson Robokind (TX, USA): modello Zeno R25[4]. Si tratta di un robot alto 56 cm, dotato di capelli in stile eroe dei cartoni animati e un viso come quello di un bambino, costituito da un materiale denominato Frubber (flesh rubber, cioè “carne di gomma”). Il viso è in grado di simulare microespressioni facciali (quelle realizzate dalla contrazione dei muscoli zigomatico maggiore, depressore del labbro inferiore, l’orbicolare della bocca, delle palpebre, ecc.). Questi progetti nascono dal fatto che uno dei sintomi più eclatanti dei disturbi dello spettro dell’autismo è proprio quello dell’incapacità di riconoscere le emozioni alla base delle espressioni facciali e pertanto la specifica programmazione di questi robot sociali potrebbe diventare una grande risorsa per la didattica inclusiva della scuola primaria.

Non entro nel merito di questo complesso discorso, ma ancora una volta mi limito a ribadire che questi studi, sebbene siano ancora in uno stadio iniziale, ci consentono di prospettare, seppure in modo inevitabilmente vago, ciò che potrebbe essere la scuola fra alcuni decenni. Se ad un simile robot umanoide fosse implementata una rete neurale potente e se le capacità di riconoscimento delle espressioni umane fosse notevolmente migliorato, così come la sua stessa capacità espressiva artificiale, e se fosse poi implementato un sistema di IA generativa capace di simulare dialoghi ed espressioni umane e se poi in memoria fossero caricati grandi quantità di dati relativi alla didattica inclusiva, alla neuropsichiatria, alle metodologie di gestione dei comportamenti problema, e se infine questo robot fosse dato di una sorta di personalità giuridica che lo autorizzasse a prendersi cura di un essere umano con disabilità, la figura dell’insegnante di sostegno verrebbe meno?

I costi di una simile produzione in massa sarebbero sicuramente esorbitanti, ma sicuramente tutto ciò determinerebbe poi un azzeramento delle assunzioni di insegnanti umani, causando una reale estinzione di questa figura professionale. Il lavoro consisterebbe soltanto nel continuo aggiornamento delle conoscenze inclusive di questi robot umanoidi (e quindi verrebbero meno corsi di formazione e di specializzazione).

Tutto ciò, come anticipavo prima, potrebbe estendersi anche alla didattica disciplinare nel modo in cui, ad esempio, profetizzò Isaac Asimov nel racconto che ha dato il titolo a questo mio intervento “Chissà come si divertivano”. Nel 1951 il grande divulgatore e visionario (nel senso più positivo del termine) ha immaginato proprio uno scenario come quello al quale ho accennato sopra. Tommy, uno dei protagonisti del racconto, trova in soffitta un vecchio libro nel quale sono descritte le caratteristiche della scuola del XX secolo (il racconto è ambientato nel maggio del 2157). Lui e Margie, la sorella, scoprono così che nel vecchio modello di scuola non esisteva affatto un insegnante elettronico ma i ragazzi dovevano recarsi in speciali edifici – le scuole – dove addirittura l’apprendimento avveniva in gruppo. Nel 2157 la scuola difatti non esisteva più. L’insegnante elettronico – uno per ogni studente – era ormai parte della casa e i ragazzi non avevano più necessità di riunirsi a scuola e apprendere da un umano. L’insegnante robot aveva un teleschermo dove venivano proiettate le lezioni e poi disponeva di una fessura dove inserire i compiti – scritti peraltro in un codice perforato che lei aveva appreso all’età di sei anni – che poi venivano valutati «ad una velocità spaventosa». I due ragazzi cominciano quindi a discutere su quel vecchio modello di scuola e Margie, con un certo scetticismo, mette in dubbio il fatto che un maestro umano potesse saperne quanto un robot. Inoltre è interessante lo sbigottimento di Margie che proprio non riesce a contemplare l’idea che un uomo, l’insegnante, potesse far lezione un gruppo di studenti riuniti in una classe (peraltro con libri di carta![5]) e quindi chiede a Tommy su quale criterio potesse regolarsi un essere umano per insegnare ad un gruppo di studenti gli stessi argomenti allo stesso tempo. La risposta di Tommy è prevedibile, almeno per noi: l’età. Ma ancor più interessante è la risposta di Margie: «Ma la mia mamma dice che un insegnante dev’essere regolato perché si adatti alla mente di uno scolaro o di una scolara, e che ogni bambino deve essere istruito in modo diverso». Quando Margie venne chiamata dalla mamma per cominciare la lezione (l’aula era soltanto una stanza attigua alla sua cameretta) l’insegnante elettronico era già attivo pronto per la lezione di aritmetica. Nell’istante stesso in cui il robot stava mostrando sul suo teleschermo i contenuti della lezione Margie, assorta nei suoi pensieri, immaginava i ragazzi dei tempi passati, «a come dovevano amare la scuola», e poi tra sé e sé pensò: «Chissà come si divertivano». Ebbene, il testo di Asimov come al solito porta alle estreme conseguenze alcune premesse del nostro tempo. Tanti sono gli aspetti sui quali potremmo riflettere: la solitudine di questo tipo di apprendimento, la trasmissione asettica di informazioni durante le lezioni, i criteri di valutazione, la diversa forma di costruzione della conoscenza (con il totale abbandono del libro cartaceo). Eppure, la ristrettezza del tempo mi pone di fronte la necessità di far riferimento soltanto a quello che, a mio modo di vedere, è l’aspetto più inquietante di questo scenario futurologico appena descritto: l’assenza totale di relazione.

Evidentemente in questa sede non posso parlare degli studi di psicologia evolutiva e di psicanalisi riferiti alla crescita sociale che avviene in ambito scolastico, eppure però è abbastanza evidente che un forma di apprendimento come quella descritta da Asimov, sebbene possa arricchirsi di una conoscenza del maestro elettronico che, sotto il profilo quantitativo, è impossibile che un essere umano riesca ad erogare, mette in crisi il concetto stesso di relazione didattica.

Con quest’ultima espressione, infatti, non si ci riferisce alla connessione tra due cervelli – o tra un computer e un cervello – ma alla condivisione umana tra due persone impegnate in un percorso di insegnamento-apprendimento che non soltanto è circolare (dall’insegnante va allo studente, per poi ritornare all’insegnante) ma che si basa anche su aspetti emotivi, sentimentali ed empatici  che danno un volto a quell’insegnamento e non lo confinano ad una mera trasmissione di informazioni. «Chissà come si divertivano» è infatti un’espressione nostalgica, carica di un sentimento quasi angoscioso che mi ha profondamente colpito. Aggiungo soltanto che si tratta di un’espressione che fa riferimento ad una dimensione umana (che si declina in una miriade di sfumature diverse) verticale – tra insegnante e studente – e orizzontale – tra gli studenti – che una robotizzazione totale della didattica rischierebbe inesorabilmente di perdere.

Il design concettuale, per usare una felice espressione di Luciano Floridi, al quale è chiamata la filosofia del nostro tempo dovrà quindi incentrarsi sull’idea, oggi imprescindibile, di una tutela della centralità dell’essere umano nell’ambito dei percorsi educativi. Al netto degli studi pubblicati, dei confronti con colleghi e dai risultati di ricerche, convegni e seminari sull’argomento dell’AIED, possiamo dire il ruolo che oggi l’IA ha all’interno delle nostre classi è davvero lontano dagli scenari ai quali ho fatto riferimento. Oggi l’IA è utilizzata dagli studenti spesso come strumento immediato per impostare temi, svolgere ricerche e risolvere problemi matematici. Noi insegnanti, con colpe educative delle quali non abbiamo ancora reale percezione, ci limitiamo a segnalare frettolosamente che abbiamo scoperto che quel tema, per lo stile, l’insolita lunghezza e le informazioni che contiene non è di “proprietà” intellettuale di quello studente che solitamente è così svogliato da chiedere, prima del compito, «quanto lungo dovrà essere il tema», indicando con l’indice il rigo verso cui spera, sforzo, di arrivare. Ad oggi, quindi, l’utilizzo dell’IA è davvero parassitario, assimilabile in qualche modo a quello che accadeva – e continua ad accadere – durante i compiti in classe: lo studente meno bravo copia dallo studente più bravo (che è in questo caso è un sistema di IA generativo).

Educare all’IA  non vuol dire vietare agli studenti questi usi sporadici – e illeciti – ma significa innanzitutto informarli su quello che è lo stato di avanzamento attuale di queste tecnologia, sulla loro natura e sul ruolo che essi dovranno avere in quanto cittadini del futuro quando, fuori dalla scuola, si ritroveranno a vivere, ad agire e a scegliere in un modo sicuramente più popolato di tecnologie intelligenti rispetto a quello attuale. Un mondo, quello futuro, che si può immaginare decisamente diverso da quello attuale sotto il profilo della pervasività dell’IA. Un mondo in cui, con ogni probabilità, l’IA non sarà soltanto quella realizzata da chatbot in grado di rispondere, in modo quasi umano, a certi tipi di domande, ma sarà ‘incarnata’ da robot con cui avremo sempre più a che fare, condividendo con essi spazi di lavoro e ludico-ricreativi. Quindi, il lavoro etico dovrà calibrarsi su di un doppio piano:

 

1)    Per la maggioranza della popolazione studentesca (vale a dire per tutti coloro che saranno gli utilizzatori delle tecnologie intelligenti di domani) sarà sufficiente un lavoro consapevolmente informativo, volto ad esaminare la reale natura dell’IA, i rischi e i vantaggi implicati dal suo sempre più massiccio utilizzo (e su questo mi sono soffermato lungamente durante la lezione tenuta nell’Aula Magna dell’ITG il 25 marzo scorso[6]).

2)    Il problema urgente, invece, è sul piano della programmazione delle tecnologie intelligenti che saranno poi impiegate in campo didattico-educativo. C’è una parte della popolazione studentesca – sicuramente una minoranza – che è interessata alla programmazione. Uno studente della mia classe, che sicuramente non è noto in consiglio per la sua voglia di studiare, si è procurato un libro di programmazione informatica di 519 pagine e ogni giorno mi mostra con entusiasmo gli avanzamenti delle sue letture (e con fierezza mi fa vedere gli spostamenti in avanti del segnalibro che usa). Tengo a precisare soltanto che le pagine 3 pagine di storia o un brano leggermente più lungo di antologia sono spesso vissute da lui come una terribile condanna. Un giorno questi studenti saranno non soltanto i fruitori ma i creatori di sistemi intelligenti e su di essi la scuola dovrà realizzare un lavoro etico più incisivo. Sarà importante quindi incentivare da un lato il loro entusiasmo, ma dall’altro sarà essenziale infondere in loro conoscenze, concetti e valori relativi all’essere umano, alla sua dignità e alla sua irriducibile centralità.

Più in particolare esistono dei principi etici che ho ritrovato in una lucida riflessione di Paolo Benanti (Homo sapiens o Machina sapiens: conflitto o collaborazione?[7]) ai quali, in conclusione di questo mio intervento, vorrei soltanto accennare. In realtà non si tratta di veri e propri principi etici, quanto piuttosto di direttive per una equilibrata e sicura coesistenza tra macchine ed esseri umani. Ecco le direttive di programmazione individuate da Benanti:

 

3)    Intuizione: «In un ambiente misto uomo-robot le AI devono essere in grado di intuire cosa gli uomini vogliono fare e adattarsi alle loro intenzioni cooperando. Solo in un ambiente di lavoro in cui le macchine sapranno capire l’uomo e assecondare il suo agire potremo veder rispettato l’ingegno e la duttilità umana. La macchina si deve adattare all’uomo e alla sua unicità e non viceversa».

4)    Intelligibilità: «Se vogliamo garantire un ambiente di lavoro misto in cui l’uomo possa coesistere con la macchina il modo di compiere le azioni della macchina dovrà essere intellegibile. Dovremmo far sì che la persona che condivide con la macchina lo spazio di lavoro possa sempre essere in grado di intuire qual è l’azione che la macchina sta per compiere. Questa caratteristica è necessaria, tra l’altro, per permettere all’uomo di coesistere in sicurezza con la macchina non esponendosi mai a eventuali situazioni dannose. Non è l’ottimizzazione dell’agito della macchina la più importante finalità che deve caratterizzare i suoi algoritmi ma il rispetto dell’uomo».

5)    Adattabilità: « La macchina deve adattarsi alla personalità con cui interagisce. L’uomo non è solo un essere razionale ma anche un essere emotivo e l’agire della macchina deve essere in grado di valutare e rispettare questa unica e peculiare caratteristica del suo partner di lavoro. La dignità della persona è espressa anche dalla sua unicità. Saper valorizzare e non mortificare questa unicità di natura razionale-emotiva è una caratteristica chiave per una coesistenza che non sia un detrimento della parte umana». 

6)    Adeguatezza degli obiettivi:« Se il robot vuole interagire con la persona in una maniera che sia conveniente e rispettosa della sua dignità deve poter aggiustare i suoi fini guardando la persona e cercando di capire qual è l’obiettivo adeguato in quella situazione. Si pensi a una situazione in cui un lavoratore e un robot cooperino nella realizzazione di un artefatto. Il robot non può avere come unica policy l’assolutezza del suo obiettivo come se fosse la cosa più importante e assoluta ma deve saper adeguare il suo agire in funzione dell’agire e dell’obiettivo che ha la persona che con lui coopera. In altri termini si tratta di acquisire, ci si perdoni il termine, una sorta di umiltà artificiale che, tornando all’esempio del robot aspirapolvere, consenta alla macchina di comprendere se deve aspirare tutta la polvere possibile o in questo momento aspirare solo un po’ di polvere e poi tornare a compiere questa funzione più tardi perché sono sorte altre priorità nelle persone che in quel momento sono nella stanza». 

Mi si perdonerà l’eccessiva lunghezza delle citazioni, ma il confronto diretto con il pensiero di Benanti mi è sembrato particolarmente proficuo per il tema del mio intervento. Ebbene, queste direzioni individuate dal consigliere di Sua Santità per l’intelligenza artificiale e l’etica delle tecnologie sono proprio quelle che, in un futuro più o meno lontano dovranno sicuramente guidare la ricerca e la programmazione della robotica intelligente che, con una certa plausibilità, comincerà a frequentare le nostri classi. Tuttavia non sarà sufficiente l’enorme conoscenza nozionistica o la capacità di generare discorsi simili a quelli umani a determinare la buona coesistenza, nell’ambiente educativo, di macchine ed esseri umani. Sarà importante che la delega alle macchine di alcuni compiti didatticamente rilevanti non pregiudichi la centralità dell’essere umano nell’ambito della relazione educativa. Essa deve e dovrà sempre essere preservata e mantenuta come l’elemento centrale che motiva, sostiene e gestisce la crescita umana e culturale. La tecnologia, però, adeguatamente programmata può però aggiungere un prezioso contributo, qualora venga intesa come supporto alla didattica umana. Sarà quindi importante riuscire ad infondere nei programmatori di domani un rispetto profondo per la natura umana oltre che una robusta conoscenza di alcuni principi antropologici ai quali guardare costantemente in fase di programmazione.

Tenendo salda la centralità dell’essere umano nel ruolo di insegnante la robotica intelligente potrà sicuramente avere un’importante ruolo di supporto nel monitoraggio della situazione della classe durante la spiegazione. Il robot umanoide potrebbe in qualche modo tenere sotto controllo parametri e segnali che, ovviamente, la limitata attenzione dell’insegnante non riuscirebbe a considerare. Ancora i robot potrebbero osservare i segnali precoci che precedono i comportamenti problema (come la misurazione indiretta dell’alterazione di alcuni parametri fisiologici) e avvertire l’insegnante quando la situazione è sul punto critico di rottura. Oppure potrebbero aiutare a gestire la sorveglianza della classe al cambio dell’ora. I robot potrebbero contenere un profilo completo per ogni studente e segnalare all’insegnante (magari con un resoconto in differita, dopo l’orario lavorativo) l’andamento dell’attenzione e dell’interesse dimostrato dagli studenti. In questo modo l’insegnante avrebbe a disposizione dati più precisi per correggere la strutturazione e la retorica delle sue lezioni. Elaborando i diversi dati in entrata il robot potrebbe fornire al docente ipotesi di personalizzazione dei percorsi di studio che, qualora fossero autorizzati dall’insegnante umano, potrebbero essere condotti dai vari studenti. I robot poi si occuperebbero di gestire e guidare tali percorsi di approfondimento o di recupero segnalando al docente – secondo quanto abbiamo visto nelle direttive di Benanti – quelle variabili o quei dilemmi che soltanto l’essere umano può dirimere. Infine i robot potrebbero (e questo già ClassMate è in grado di farlo) dare la possibilità a studenti ammalati o impossibilitati a presenziare a scuola di interagire in tempo reale con la classe. Lo studente, collegato tramite il suo smartphone o il suo pc al robot potrebbe avere sullo schermo del suo device la possibilità di osservare la classe, parlare con i compagni e interagire con il professore come se fosse in classe. Ancora ClassMate è in grado già da ora di ripetere agli studenti che si sono assentati le lezioni che difatti hanno perso, riuscendo farlo con una capacità multimediale ad oggi effettivamente impossibile da eguagliare per gli esseri umani (che solitamente si limitano a ‘passare gli appunti’, spesso lacunosi).

Questi sono soltanto alcune delle competenze che i robot sociali sono effettivamente in grado di realizzare in ambiente scolastico, sebbene io sia consapevole che una rassegna completa degli effettivi vantaggi della robotica scolastica superi di gran lunga ciò che io, per motivi di tempo, mi sono limitato soltanto a segnalare. Ma ogni vantaggio a cui ho fatto riferimento, per quanto avveniristico e rivoluzionario, dovrà sempre mantenersi nell’ambito di una solida centralità antropologica posta a garanzia del principio secondo il quale l’educazione, in quanto relazione significativa, dovrà sempre realizzarsi primariamente tra esseri umani. 

 

[1] Sul punto si veda C. Panciroli, P. C. Rivoltella, Pedagogia algoritmica. Per una riflessione educativa sull’Intelligenza Artificiale, Scholé (Morcelliana), Brescia, 2023.

[2] https://www.scuolab.com/prodotti/classmate/

[3] https://www.rainews.it/articoli/2024/02/musk-il-paziente-a-cui-e-stato-impiantato-il-chip-neuralink-muove-un-mouse-col-pensiero-12f8927a-0ce3-4e18-b04f-0759681d4322.html#:~:text=Neuralink%20%C3%A8%20la%20start%2Dup,Lo%20scopo%20%C3%A8%20principalmente%20medico

[4] P. Pennisi, G. Pioggia, Robotica sociale e cognizione: tecnologia e autismo in NEA-SCIENCE – Giornale Italiano di neuroscienze, psicologia e riabilitazione, – Anno 1 – Vol. 5, pp. 281-285.

[5] Sulle trasformazioni digitali del libro di testo invito il lettore a leggere il libro di G. Roncaglia, L’età della frammentazione. Cultura del libro e scuola digitale, Laterza, Roma-Bari, 2020.

[6] Ho pubblicato la mia relazione ed ora è disponibile a questo link:

https://www.ilmondonuovo.club/dove-siamo-dove-andremo-chi-comanda/

[7] chrome-extension://efaidnbmnnnibpcajpcglclefindmkaj/https://www.cortiledeigentili.com/wp-content/uploads/2018/01/Intervento-prof.Benanti-.pdf