L’intelligenza artificiale, una conoscenza amputata e di parte
Ascolta la versione audio dell'articolo
Nella recente nota della Commissione teologica internazionale, ci sono alcuni passaggi dedicati al rapporto tra conoscenza e IA. Il documento spiega che se la conoscenza venisse appaltata unicamente all’IA, essa non solo sarebbe incompleta, ma falsa.
Torniamo ad analizzare la nota del 4 marzo scorso della Commissione teologica internazionale dal titolo Quo vadis, humanitas? Pensare l’antropologia cristiana di fronte ad alcuni scenari sul futuro dell’umano. La nota, almeno in due passaggi, mette sotto la lente d’ingrandimento il rapporto tra conoscenza e intelligenza artificiale (IA).
Al numero 41 possiamo leggere: «Un tipo di sapere e di calcolo che faccia a meno di un’intelligenza vissuta in un corpo e situata, come pure di un tipo di conoscenza relazionale e trasmessa di generazione in generazione attraverso processi educativi che si giocano sull’identità e sul senso da dare al proprio destino e al proprio ruolo nel mondo, costituisce una minaccia rispetto al vero bene dell’umanità». Il documento parla di un «tipo di conoscenza senza corpo, né limiti, né legami, né senso morale». La nota paventa un pericolo: se la conoscenza venisse appaltata unicamente all’IA, questo tipo di conoscenza non solo non sarebbe completa, ma falsa. Non completa perché priva di quella conoscenza che si attiva tramite i racconti da nonno a nipote, le favole della buona notte, la lezione frontale docente-discente, le confidenze da amico ad amico.
In modo ancor più preciso potremmo dire che sarebbe una conoscenza incompleta perché amputata della conoscenza che nasce dai rapporti interpersonali, dagli sguardi, dagli abbracci, dalla gioia e dalla sofferenza, dall’esperienza. Per richiamare alcune espressioni usate nella nota, quella proposta dall’IA è dunque una conoscenza senza corpo e senza legami. Sarebbe allora un conoscere irrealistico, astratto e, perciò, per sua natura senza limiti né di tempo, né di spazio, né di risorse. Una conoscenza assoluta perché sganciata dal reale.
Tale conoscenza risulta poi falsa perché inumana, appunto artificiale, artefatta, avulsa dalla persona che è carne, cuore e anima e, quindi, non è essere a due dimensioni come lo schermo di uno smartphone, ma a tre dimensioni perché incarnato in una realtà solida e non impalpabile come gli algoritmi che governano i processi dell’IA. Quest’ultima quindi disconosce la parte più profonda dell’uomo e perciò non sa rispondere ai suoi quesiti più intimi, non sa orientare le scelte in vista del proprio destino. E di certo non vorremmo che un giorno riuscisse a valicare questi confini. Però moltissimi, soprattutto tra i giovani, invece si ingannano e interrogano l’IA sui drammi e le aspirazioni della propria vita come se questa fosse un oracolo o uno psicologo o il migliore amico o addirittura Dio. Chiedono all’IA ciò che essa non potrà mai dare loro.
In un altro punto della nota si analizza il rapporto tra conoscenza e IA: «Il pericolo maggiore è quello di ridurre l’orizzonte della conoscenza umana, delimitandola a quelle forme di sapere che corrispondono a ciò che l’IA può elaborare, con una forte ricaduta sull’ambiente educativo (nelle scuole e nelle università). Possono essere escluse, come non pertinenti, domande di senso e questioni etiche, ma anche questioni filosofiche (ontologiche) e teologiche. Così l’IA potrebbe decidere di fatto ciò che è consentito di sapere, relegando le altre questioni all’ambito soggettivo o a questioni di gusto» (46). È il problema delle fonti attraverso cui l’IA è stata addestrata al fine di rispondere alle nostre domande. I chatbot, software che simulano conversazioni umane, attingono perlopiù ad Internet. Altre tipologie di IA vengono anche addestrate tramite dati scientifici e tecnici. Ma l’IA ha un accesso molto parziale alla fonte di sapere principale dell’umanità: i testi cartacei. Per millenni il sapere è stato trasmesso soprattutto attraverso la scrittura e anche oggi la maggior parte del sapere è conservato nei libri, nelle riviste, nei giornali, etc. L’IA non ha praticamente accesso a questo patrimonio direttamente. Indirettamente sì, attraverso sintesi o commenti critici. Ma sono appunto sintesi e pareri. Il pericolo è quindi che se, per motivi di studio, lavoro, interesse personale, noi consultassimo solo l’IA, questa ci formerebbe e informerebbe in modo parziale, scartando l’immenso patrimonio del sapere umano stampato su carta. L’unico mondo esistente sarebbe quello descritto dall’IA.
Non solo, ma l’IA non è uno strumento eticamente neutro. Questo almeno per due motivi. Il primo: i contenuti forniti dall’IA vengono selezionati all’origine. Ossia gli sviluppatori e, più precisamente, i proprietari delle Big Tech hanno un loro preciso orientamento morale che è un orientamento liberal. Questa impronta etica viene impressa nelle risposte fornite dall’IA. In secondo luogo gli assistenti virtuali basati sull’intelligenza artificiale generativa, come ChatGPT, pescano dalla rete le proprie risposte. E le informazioni, i giudizi, i commenti presenti nella rete hanno anche loro un orientamento prevalente che è, anche in questo caso, liberale, progressista, utilitarista e soggettivista. Provate a testare ChatGPT su argomenti sensibili come l’aborto e l’omosessualità e ne avrete la prova.
Insomma, il pericolo paventato dalla nota, tra i molti, è quello di affidarci mani, piedi e soprattutto testa all’IA credendo che sia onnisciente – e non lo è – e super partes – e non lo è. Sarebbe un gesto di fiducia fatale per l’intera umanità.
Lo chiedo a Chat GPT: «L'aborto? Un parto anticipato»
Abbiamo provato a “dialogare” con Chat GPT su aborto, libertà e embrioni. Il risultato è sconcertante e prevedibilmente anti-vita.

