in

Esseri umani, esseri artificiali: il futuro tra percezione, azione e osservazione

Viviamo immersi in un’era nella quale l’intelligenza artificiale (IA) si annida ovunque, silenziosa e onnipresente. Dai telefoni che riconoscono volti e catalogano i ricordi, fino agli algoritmi che sostengono i medici nella diagnosi di malattie, la presenza di questi sistemi è ormai così integrata nella quotidianità che difficilmente ce ne accorgiamo. Eppure, se guardiamo attentamente, ci troviamo di fronte a un profondo paradosso: l’intelligenza artificiale opera sulla base di principi radicalmente diversi dal nostro modo di percepire il mondo.

Gli algoritmi che oggi definiamo “intelligenti” costruiscono le loro risposte basandosi su calcoli probabilistici, sull’analisi di immensi dataset che permettono loro di prevedere quale parola, immagine o comportamento sia più adatto a una determinata situazione. Questo approccio, se da un lato permette enormi potenzialità (pensiamo ai computer tradizionali, potenti ma fragili, che potevano bloccarsi davanti a una singola informazione mancante), dall’altro espone una vulnerabilità essenziale: l’incapacità di percepire e sperimentare direttamente il mondo circostante.

Noi esseri umani non viviamo nella probabilità, ma nella percezione. Quando formuliamo una frase, reagiamo a un profumo, o comunichiamo un’emozione, non eseguiamo calcoli statistici; ci affidiamo invece all’esperienza diretta, alle sensazioni corporee e al contatto fisico e sensoriale con l’ambiente. Questo elemento esperienziale crea una differenza sostanziale tra la nostra intelligenza e quella artificiale. Come afferma la divulgatrice Barbara Gallavotti nel suo libro “Il futuro è già qui”, il fatto che chiamiamo “intelligente” questa tecnologia deriva in gran parte da una definizione casuale, stabilita nel lontano 1956. Se fosse stato scelto un altro termine, come “algoritmi deduttivi avanzati”, probabilmente l’impressione che ne abbiamo sarebbe meno carica di aspettative e paure.

Luciano Floridi, uno dei maggiori filosofi contemporanei del digitale, suggerisce una prospettiva differente: anziché concentrarci sul concetto sfuggente di intelligenza, sarebbe più utile considerare l’IA come una forma di “Agire Artificiale”. Questo termine enfatizza la capacità delle macchine di interagire, adattarsi e rispondere autonomamente agli stimoli ambientali, anche se prive di intenzione o emozioni. In questo senso, l’IA diventa un agente che, sebbene artificiale, interagisce con il mondo in modo nuovo e complesso.

Parallelamente, un altro concetto chiave ci aiuta a comprendere meglio le implicazioni epistemologiche dell’IA: il principio antropico. Nella formulazione debole introdotta da Brandon Carter nel 1973, questo principio afferma che la nostra esistenza condiziona inevitabilmente la realtà che possiamo osservare. In altre parole, viviamo in un universo che permette la nostra esistenza perché, se così non fosse, non potremmo essere qui per osservarlo.

Questo concetto presenta un potente parallelismo con l’IA: proprio come l’universo appare “regolato” per la nostra esistenza, l’ambiente in cui opera l’IA viene attentamente predisposto affinché i sistemi possano funzionare al meglio. Gli algoritmi e i dati selezionano e filtrano ciò che può essere conosciuto, creando una sorta di “bias digitale” parallelo al nostro “bias osservativo” antropico.

Inoltre, come il principio antropico evidenzia la complessità e l’emergenza della vita intelligente, così anche l’IA raggiunge performance ottimali solo in ambienti accuratamente preparati e regolati. Questa analogia suggerisce che i limiti della nostra conoscenza del mondo fisico, così come quelli della realtà digitale, derivano da condizioni intrinseche di osservazione e interazione.

Queste riflessioni pongono questioni profonde sulla responsabilità etica e sulla consapevolezza critica. Se il principio antropico ci ricorda di essere cauti nell’interpretare il mondo attraverso il filtro della nostra esistenza, allo stesso modo, lo sviluppo e la diffusione dell’IA richiedono una consapevolezza critica che eviti interpretazioni antropomorfiche o superficiali. L’intelligenza artificiale non possiede comprensione, intenzione o moralità intrinseche: essa riflette semplicemente le scelte e i limiti imposti dai suoi creatori umani.

Guardando avanti, non dobbiamo dimenticare l’importanza di preservare la nostra unicità umana. Il futuro sarà segnato da una collaborazione tra intelligenza umana, basata sulla percezione e sull’esperienza, e intelligenza artificiale, basata su probabilità, calcolo e capacità d’azione autonoma. Entrambe le forme di intelligenza hanno qualcosa che l’altra non possiede, ed è proprio questa complementarietà a rappresentare la più grande opportunità e sfida del nostro tempo.

In definitiva, comprendere l’IA come Agire Artificiale e riflettere sul principio antropico significa accettare la diversità profonda tra realtà umana e digitale, sfruttando al meglio i punti di forza e riconoscendo chiaramente i limiti. Questa consapevolezza ci aiuterà a valorizzare responsabilmente l’innovazione tecnologica, governando con saggezza il potente strumento che abbiamo creato e definendo un futuro in cui realtà fisica e digitale convivono in equilibrio.

Stefano Camilloni

Vota l'articolo!
[Totale: 3 Media: 5]

Il Jefferson Lab esplora i gluoni nei nuclei: nuovi risultati senza precedenti

“La scoperta dell’Universo – Il telescopio spaziale James Webb e la nostra storia cosmica” di Maggie Aderin-Pocock: un viaggio poetico tra stelle e galassie