Tutto è iniziato in aula. Quando Generazione AI ha fatto tappa al Liceo Classico T. Campanella, il confronto con gli studenti è andato ben oltre gli algoritmi e i deepfake. Si è parlato di libertà, responsabilità, controllo, linguaggio. Si è parlato dell’uomo davanti alla macchina.
Il dibattito è proseguito anche nei giorni successivi, durante il podcast scolastico Classico Ma Non Troppo, dove il dialogo si è allargato anche a etica, diritto, potere. Una studentessa della classe IVG, Miryam Fatima Pontillo, ha scelto di mettere per iscritto le sue riflessioni, partendo da un lavoro già maturato nei mesi precedenti,
Ne è nato un saggio che attraversa Platone, Vico, Hobbes, Pirandello e Orazio per interrogare il rapporto tra etica e intelligenza artificiale nell’era “onlife”, quella dimensione in cui vita digitale e vita reale non sono più separabili.
È il segno che le nuove generazioni stanno imparando a interrogare il presente con strumenti critici adeguati alla complessità del tempo che viviamo. Ed è, in fondo, l’obiettivo del progetto Generazione AI. Che poi è l’obiettivo del progetto Generazione AI.
Dall’idea alla macchina: intelligenza artificiale, etica e ragione nell’era “onlife”
di Miryam Fatima Pontillo
L’etica costituisce una delle dimensioni più originarie e persistenti dell’esperienza umana. Ancora prima di essere teorizzata dalla filosofia, essa si è manifestata come interrogazione radicale sul bene e sul male, sul giusto e sull’ingiusto, sul lecito e sull’illecito, accompagnando l’uomo sin dai tempi antichi. L’essere umano, in quanto dotato di ragione e di autocoscienza, non può sottrarsi alle domande di senso: Che cosa devo fare? Cosa è giusto e cosa è sbagliato? Chi determina questa dicotomia? Chi o cosa causa il bene e il male? Chi risponde delle conseguenze delle azioni?
L’etica è sempre stata un organismo concettuale dinamico, capace di reinterpretare i propri principi alla luce delle nuove condizioni storiche. Si può richiamare la teoria dei corsi e ricorsi storici di Giambattista Vico, secondo cui la storia dell’umanità attraversa fasi cicliche di sviluppo, crisi e rigenerazione e ogni epoca è chiamata a riformulare i propri paradigmi interpretativi e normativi. Se il Novecento ha imposto una riflessione etica sulla potenza distruttiva della tecnica (dalle armi nucleari alla manipolazione genetica), il XXI secolo è segnato da una nuova frontiera: la capacità di costruire sistemi artificiali che incidono direttamente sui processi decisionali, cognitivi e relazionali. Tuttavia, senza una cornice condivisa, l’innovazione tecnica rischia di trasformarsi in mera espansione di potenza priva di orientamento. La questione dell’intelligenza artificiale rappresenta uno dei più attuali ed emblematici esempi: oggi l’uomo non si limita a produrre strumenti che amplificano la propria forza o velocità, ma crea dispositivi che simulano (e in taluni ambiti superano) le sue capacità analitiche e decisionali.
La chiave filosofica
L’intelligenza artificiale può essere interpretata, in chiave filosofica, come una delle espressioni più compiute della traduzione del reale in forma intellegibile. Secondo la concezione di Platone, ogni realtà sensibile trova il proprio fondamento in un ordine sovrasensibile, che ne costituisce il paradigma. Per questo, l’AI nasce anzitutto come idea: architettura logica concepita nella dimensione astratta del pensiero. Solo successivamente si incarna nel mondo sensibile, diventando struttura operativa e infrastruttura materiale. Essa diventa una forma di “anima delle macchine”, un principio organizzatore e direttivo che conferisce unità funzionale a un corpo meccanico. L’hardware, privo di software, rimane materia inerte; è l’algoritmo (costruzione ideale) a renderlo capace di operare, apprendere e, spesso, decidere.
La teoria del linguaggio di Hobbes
Tuttavia, questa “anima artificiale” non è autosufficiente in quanto è programmata dall’essere umano e, proprio per questo, assorbe inevitabilmente le sue categorie interpretative, i suoi bias cognitivi, le sue priorità e i suoi criteri. Quando questi sistemi interagiscono tra loro e con gli esseri umani, essi sviluppano un proprio linguaggio operativo. Questo fenomeno può essere accostato alla teoria del linguaggio di Thomas Hobbes, per il quale il linguaggio nasce come strumento artificiale volto a stabilizzare i significati e a rendere possibile il contratto sociale. Per Hobbes, se non ci fossero convenzioni linguistiche condivise, l’umanità rimarrebbe nello stato di natura, dominato dal bellum omnium contra omnes.
L’uomo, quindi, riesce a comprendere (prima) e parlare (poi) il linguaggio che, lui stesso, ha programmato nella macchina? Per dare una prima risposta a questa domanda, possiamo servirci di una celebre citazione riportata da Pirandello nei Quaderni di Serafino Gubbio Operatore: “Ma che cosa farà poi l’uomo quando tutte le macchinette gireranno da sé, questo, caro signore, è ancora da vedere”. In questa frase si condensa la riduzione dell’uomo a prolungamento meccanico dello strumento. Serafino, simbolo dell’uomo contemporaneo, non agisce più come soggetto pensante, ma come “ingranaggio” di un dispositivo tecnico che impone tempi, ritmi e modalità dell’azione.
AI come strumento di guerra informativa
Proprio a causa della subordinazione dell’uomo alla macchina, l’intelligenza artificiale è divenuta anche strumento di guerra informativa, di sorveglianza e di repressione. I sistemi d’arma autonomi, dotati di capacità di riconoscimento del bersaglio e di attivazione indipendente, rappresentano una nuova rivoluzione rispetto agli armamenti del passato. Il rischio risiede sia nell’errore tecnico (nella confusione tra un obiettivo militare e un civile), sia nella progressiva deresponsabilizzazione degli attori umani, che possono rifugiarsi dietro l’opacità algoritmica. Risultano particolarmente significative le parole dell’attivista iraniana Pegah Moshir Pour, intervistata dall’avvocato Riccardo Tripepi all’AI Festival di Milano per la rivista Byte.Legali di cui è direttore, che ha denunciato l’uso delle tecnologie digitali da parte del regime iraniano come strumento di controllo e propaganda. Secondo la sua testimonianza, il regime utilizza sistematicamente il controllo di Internet per imporre un vero e proprio “buio informativo” per oscurare le comunicazioni, così da impedire che le violazioni dei diritti umani vengano documentate e diffuse. Le persone ferite o uccise non vengono registrate ufficialmente; molte spariscono senza lasciare traccia; perfino le operazioni sanitarie vengono condotte manualmente per evitare documentazioni digitali che potrebbero costituire prova, creando un vero e proprio blackout nell’informazione.
A questo punto, sorgono altre domande: chi risponde delle azioni dell’AI? Essa, di fronte alla legge, è considerata oggetto o soggetto? L’intelligenza artificiale è ontologicamente neutra; ma è proprio questa neutralità ad amplificare la responsabilità umana. Essa non si deve considerare come un destino ineluttabile né come una minaccia, ma come una costruzione umana che deve essere governata in modo etico e consapevole da tutti gli attori coinvolti: legislatori, sviluppatori, imprese, istituzioni e cittadini. L’AI non può essere lasciata alla sola logica dell’efficienza; anche la scuola, che nel 2026 è pienamente immersa in un ecosistema digitale, assume un ruolo decisivo nello sviluppo del pensiero critico e della coscienza digitale dei cittadini del domani.
La dimensione “onlife”
La vera risposta a tale questione apparentemente irrisolta, si può tradurre nell’ideale latino dell’aurea mediocritas, formulato dal poeta Orazio e ancora oggi molto attuale, il quale insegna che la perfezione non risiede né nell’eccesso né nel difetto, ma nell’equilibrio: la sfida contemporanea consiste nell’imparare a convivere con l’AI in modo moderato nella dimensione “onlife”, dove vita online e offline si intrecciano. In questo spazio ibrido, l’uomo non deve dissolversi nell’algoritmo, ma imparare a volgerlo positivamente dalla propria parte, orientando la propria ragione al bene comune.




