Più che di ChatGPT, dovremmo avere paura di noi stessi

Vengono al pettine i nodi del modello industriale di Big Tech, basato sulla commercializzazione indiscriminata e a tutti i costi di prodotti immaturi per generare utili e profitti il prima possibile, scaricando sulla società conseguenze ed effetti non solo economici ma, e sopratutto, sociali e culturali di Andrea Monti – inizialmente pubblicato su Strategikon – un blog di Italian Tech

L’allarme di Elon Musk e di un gruppo di altri esperti sui “pericoli di ChatGPT” accusato di essere un pericolo per l’umanità che non sarebbe pronta, sostengono costoro, ad una rivoluzione del genere è tanto fuorviante quanto concettualmente sbagliato. Parte dal presupposto inespresso che ChatGPT sia un “interlocutore” e non uno strumento, che si “comporti” senza regole e che debba essere sottoposto a “regole etiche”. Questa è l’ennesima iterazione del malinteso che si manifesta fin dai tempi dei primi computer, sulla base del quale ci si ostina, contro ogni evidenza, ad attribuire una qualche forma di “soggettività” a un software soltanto perché funziona, apparentemente, in modo intelligente.

ChatGPT non è un “individuo”, non “sfugge” al controllo di nessuno ed è chiarissimo quello che è in grado di fare: allarga la base degli ignoranti che hanno accesso a informazioni che non sono in grado di comprendere e utilizzare. Inoltre, non è la società a doversi adattare alla tecnologia ma il contrario. Dunque, se un marchingegno funziona male va aggiustato, invece di costringere chi lo usa ad adattarsi al difetto. Infine, non può essere l’etica lo strumento per regolare l’uso di una tecnologia perché in un mondo democratico lo Stato non impone un sistema di valori, e la morale individuale rimane, appunto, un fatto privato. Dal che deriva l’inaccettabilità che un singolo soggetto (a maggior ragione un’azienda) possa pretendere di dettare delle regole valide per tutti.

Ciononostante, il fascino dell’illusione di essere entrati nel Baron Frankenstein Social Club —quello dei fabbricanti di creature che si ribellano al proprio padrone— è troppo forte per resistervi. Se a questo si aggiunge la beata condizione del futurologo —non vivere abbastanza per essere smentito— e, perché no, anche un po’ di comprensibile ricerca di visibilità sui media non stupisce che il bersaglio delle critiche sia un software “intelligente” invece di chi lo usa.

Più che una pericolosità intrinseca, infatti, software come ChatGPT stanno portando nuovamente allo scoperto un tratto abbastanza diffuso del comportamento umano ai nostri tempi che già si era manifestato agli albori della diffusione dell’elettronica di consumo: il disinteresse per il miglioramento personale e la spregiudicata venerazione dell’apparenza in nome della quale basta sembrare capace di sapere (fare) qualcosa e non di esserlo veramente.

Avevo, credo, quattordici anni quando acquistai per il mio ZX Spectrum un software che gestiva la rappresentazione grafica di funzioni matematiche. Inizialmente lo utilizzavo come verifica della correttezza dei calcoli, ma poi prevalse la tentazione di usarlo direttamente per fare i compiti. Alla prima verifica, ovviamente affrontata senza l’aiuto del programma, il voto non proprio soddisfacente mi mise di fronte alla cruda realtà: la disponibilità di uno strumento non sostituisce la necessità di studiare. In altri termini, va bene utilizzare un programma che svolge funzioni complesse, ma è fondamentale conservare la consapevolezza di quello che si sta facendo.

È ovvio che ricerche scientifiche e applicazioni tecnologiche non possono fare a meno di potenza di calcolo e programmi. È impensabile che in nome della diffidenza verso le macchine si continuino a fare i conti con carta e penna (che, pure, macchine sono). Questo non giustifica, tuttavia, staccare il cervello e prendere per oro colato tutto quello che viene prodotto da un software.

Il passaggio dall’uso dei motori di ricerca a quello delle AI generative e l’invarianza delle questioni sono l’evidenza empirica della correttezza di questo ragionamento.

Chi c’era quando Altavista prometteva meraviglie, è stato testimone della sua sostituzione da parte di Google ed ha assistito al proliferare dei motori di ricerca specializzati, ricorderà le perplessità innescate dall’accesso a contenuti non verificati, a notizie diffuse da non-professionisti dell’informazione, all’alterazione deliberata dei risultati con tecniche di SEO. Erano già chiari all’epoca, dunque, il rischio di disinformazione e il fatto che fosse necessario valutare attendibilità e utilità dei risultati forniti da un motore di ricerca prima di organizzarli per formulare delle conclusioni.

Oggi tecnologie come quelle di ChatGPT pongono problemi analoghi e dunque non nuovi. Rendono superflua la fase di ricerca, selezione e organizzazione del materiale informativo, producono direttamente il risultato finale, cioè l’elaborazione strutturata di un ragionamento attorno ad un determinato tema. Per ora, tuttavia, si occupano essenzialmente di rielaborare e non di valutare l’attendibilità delle fonti e dei risultati. Dunque, a volte danno l’impressione di dare risposte “a caso”, ma non è questo il punto.

Moltissime persone, quelle che possiedono una conoscenza “nativa” del proprio settore, lavoreranno senz’altro meglio grazie a tecnologie come ChatGPT che, già da ora, riescono a mettere un po’ di ordine fra le informazioni alle quali hanno accesso e che, probabilmente, saranno istruite a farlo sempre meglio.

Molte altre perderanno il posto di lavoro. Non sono più maniscalchi, cocchieri e stallieri ridotti sul lastrico dal motore a vapore e poi da quello a scoppio, ma grafici, illustratori, produttori di contenuti. Anche gli “intellettuali” scoprono di non essere troppo diversi dai “proletari” e che pure loro possono essere vittime della modernità. Si chiama progresso ed è un dio sanguinario che vuole sacrifici umani e sociali per dispensare i propri favori.

Poi c’è una vastissima platea di ignoranti e analfabeti funzionali che sia nel privato, sia sul lavoro, utilizzano (e subiscono i risultati di) questi strumenti in totale inconsapevolezza.

Se, come dicono i “futurologi”, da qui arrivano le “preoccupazioni” sulle “conseguenze sociali” di ChatGPT, allora fuori da ogni ipocrisia egualitaria, dovremmo smettere di lamentarci dell’AI generativa, invocandone semplicisticamente la (temporanea) sospensione dell’utilizzo per dare il tempo alla società di metabolizzarla. Dovremmo, invece, chiederci molto “disturbantemente” se non sia il caso di impedire del tutto l’accesso a una tecnologia del genere a chi non sa come usarla.

Il sapere e le sue applicazioni non sono per tutti e dovrebbero essere accessibili solo a chi ha sviluppato le conoscenze adatte per maneggiarle in (ragionevole) sicurezza. Quindi, come il programma per lo studio delle funzioni matematiche dei tempi del liceo, strumenti come ChatGPT dovrebbero essere disponibili solo a chi ne ha bisogno. Ma se si restringe la base degli utenti, ci si potrebbe domandare, “chi paga” per lo sviluppo del prodotto? ChatGPT non è un prodotto finito. “Funzionicchia” e per arrivare ad una maturità che lo stabilizzi sono necessari ancora tempo e addestramento —cioè investimenti economici e finanziari.

La domanda è più che legittima. Probabilmente, se ChatGPT fosse stato destinato a rimanere un oggetto per addetti ai lavori o non fornisse una ragionevole aspettativa di guadagno si sarebbe sviluppato molto più lentamente o dopo un po’ sarebbe stato accantonato, come è accaduto per NFT e metaverso, già “scaricati” i primi da Meta e il secondo da Disney dopo la prima fase di ubriacatura futuristica.

Queste considerazioni evidenziano ancora una volta le conseguenze negative del modello industriale di Big Tech basato sulla commercializzazione indiscriminata e a tutti i costi di prodotti immaturi per generare utili e profitti il prima possibile, scaricando sulla società conseguenze ed effetti non solo economici ma —e sopratutto— sociali e culturali.

Dunque, se allarme deve essere lanciato, non dovrebbe riguardare l’uso di ChatGPT da parte di perditempo, di  “professionisti” improvvisati che millantano conoscenze che non hanno, o di chi risparmia sull’uso di “creativi”. Piuttosto, le preoccupazioni dovrebbero riguardare chi rende disponibili sul mercato tecnologie immature, chi, non riconoscendo valore alla conoscenza, le sfrutta spregiudicatamente e, più di tutto, chi vive praticando il capitalismo dell’apparenza.

Forse, Pitagora non aveva tutti i torti quando decise di tenere per sé e per i propri discepoli la conoscenza delle matematiche e, forse, per ridurre le conseguenze dell’uso distorto di AI generative sarebbe necessario incrementare la diffusione, fra le persone, di cultura e spirito critico, invece di continuare a lavorare per trasformarle nell’equivalente degli abitanti del mondo di Matrix.

Possibly Related Posts: