“Sereni davanti al boia”

Il titolo di questo post è il titolo di un articolo che sto leggendo proprio in questo momento e che è dedicato alle ultime lettere dei condannati a morte. Non voglio discutere le loro parole: piuttosto, vorrei riflettere sul fatto che nessun computer potrebbe scriverle. Il programma che ha appena spostato in alto, e di parecchio, la fruibilità della “intelligenza artificiale” a livello popolare, ChatGPT non potrebbe scrivere un testo del genere. O meglio, potrebbe mettere in file le parole, la “hyle” del discorso, ma non potrebbe ricrearne la “morfè”, ossia la loro unità di senso. L’aspetto performativo del discorso è del tutto assente da un programma, per l’ovvia ragione che dietro le parole messe in fila da una macchina non c’è nessuna vera “decisione” e quindi nessuna vera “presa di posizione” nell’essere. Cosa che invece dovevano fare per forza i condannati a morte: sotto tortura le parole chiave, “si” o “no”, diventano trigger di fatti e mutamenti di stati dell’essere. Il computer invece può far apparire sullo schermo delle lettere, ma non può modificare nulla nello stato dell’essere.

Potrebbe essere quindi che la comparsa di questi programmi in grado di simulare alcuni aspetti del discorso umano abbiano come risultato inaspettato (ma importante) quello di farci riscoprire il senso della dimensione spirituale della esistenza che chiamiamo umana. In altre parole: le macchine possono “conoscere” se conoscere significa costruire enunciati  descrittivi della realtà; vorrà dire che nella nostra definizione di ciò che è “umano” dovremo depennare questo aspetto, tutto qui. Non significa affatto che sia sorta un vero “competitor” al titolo di “persona”.

Il passaggio che ho appena descritto potrebbe inserirsi in un quadro più ampio per la antropologia del XXI secolo, che potrebbe essere costretta a procedere via remotions attraverso il confronto con modelli teorici di “altra umanità”:

il cyborg

lo zombie

l’animale

l’angelo (questo vale per il medioevo cristiano)

Lascia un commento