Mentre una bugia fa il giro del mondo la verità si sta ancora allacciando le scarpe.
Recitava così un vecchio adagio, oggi più vero che mai anche grazie alla velocità di propagazione dell’informazione garantita dal web. Ecco perché la notizia del 14enne che si sarebbe tolto la vita in Florida in seguito a una relazione con una chat di Intelligenza Artificiale va presa con le pinze. Che cosa si celava davvero dietro quel gesto estremo? Quanto la voglia di sensazionalismo ha semplificato una situazione ben più complessa? Interrogativi legittimi che aprono il fronte a una serie di riflessioni. La prima: le notizie andrebbero sempre approfondite e verificate. Stando al New York Times, emerge che l’adolescente soffrisse già di un disturbo relazionale. Pertanto l’interazione con l’Intelligenza Artificiale non sarebbe la causa del suo gesto, ma, al limite, l’elemento che ha amplificato il suo senso di solitudine. E c’è una differenza, non sottile, in questo contesto perché la sensazione è che “personalizzare” e “criminalizzare” l’IA stia diventando se non proprio una moda un costume diffuso del sistema informativo. Il che ci porta a una seconda riflessione: il nostro timore di ciò che non conosciamo, le resistenze dovute al pregiudizio e una preoccupazione tutt’altro che latente nei confronti del progresso, che, nello specifico ha le sembianze (virtuali) dell’Intelligenza Artificiale. Giusto diffidare e non accogliere acriticamente e a braccia aperte ogni novità, in fin dei conti la paura è uno dei meccanismi che contribuiscono da sempre alla nostra sopravvivenza, ma da qua a dipingere costantemente e sistematicamente l’intelligenza artificiale come qualcosa di pericoloso ce ne corre. Come è già accaduto in passato con altre forme di innovazione anche con l’intelligenza artificiale siamo di fronte a un game changer dal potenziale enorme rispetto al quale abbiamo due alternative: cavalcarla o subirla. C’è infine un aspetto ancora più inquietante in questa storia confezionata così bene dal sistema informativo da sembrare uscita dalla penna di uno sceneggiatore (ogni riferimento al film Her in cui Joaquin Phoenix si innamora di una voce governata dall’Intelligenza Artificiale è tutt’altro che casuale) ed è un aspetto che ci impone qualche considerazione sul nostro rapporto con la tecnologia che, IA o meno, si fa sempre più pervasivo; al punto che spesso è difficile scindere il mondo immateriale da quello materiale, così come è difficile staccarsi da un legame simbiotico con i device che hanno, sempre più spesso, degli effetti sulla nostra salute mentale: dipendenza digitale, burnout, fomo (Fear Of Missing Out)… tutte patologie contemporanee figlie di un rapporto squilibrato con la tecnologia. In questo contesto, però, la ricerca del capro espiatorio sembra solo un esercizio deresponsabilizzante, che ci allontana dal fuoco del problema illudendoci che il problema sia il mezzo e non l’uso che se ne fa. Come se criminalizzassimo le automobili per gli incidenti stradali anziché individuare il responsabile in chi guida, ora imprudente, ora distratto, ora al cellulare, ora in stato di alterazione. Ebbene, quando puntiamo il dito contro l’Intelligenza Artificiale stiamo facendo più o meno la stessa cosa. Mentre dovremmo piuttosto provare a comprenderla, valutarne il grande potenziale, regolamentarne l’uso e, possibilmente, controllarla. Il tutto bilanciando il nostro rapporto con la tecnologia, perché dell’innovazione non si può essere schiavi (neppure schiavi d’amore) ma non si può pensare neppure di fuggire dal progresso che, in barba alle leggi della fisica, viaggia nella nostra stessa direzione e al tempo stesso non fa che sbatterci addosso. Da qualche parte c’è un equilibrio che possiamo raggiungere e ci sono mezzi che possono aiutarci a trovarlo. Magari partendo da una sana forma di digital detox, la disintossicazione di cui tutti, più o meno, iniziamo ad aver bisogno.
© RIPRODUZIONE RISERVATA
© RIPRODUZIONE RISERVATA
Risparmio e investimenti, ogni venerdì
Iscriviti e ricevi le notizie via email