Al giorno d’oggi si sente spesso parlare di “AI” (Artificial intelligence) e spesso se ne parla in modo dispregiativo
perché si pensa che “i robot prenderanno il posto degli uomini”. Coloro che affermano ciò sono magari gli stessi
che a casa hanno “Alexa”, che sul telefono hanno il riconoscimento facciale, che utilizzano “siri” (o “Cortana”)
perché li aiuta a saltare alcuni passaggi come quello di cercare in rubrica il nome della persona che vorrebbero
telefonare (è più facile e comodo dire “Siri, chiama Sara”). Oppure sono gli stessi che si meravigliano quando
navigando in rete appaiono davanti ai loro occhi offerte e annunci di prodotti che – guarda caso! – proprio in
quel momento volevano acquistare. Il problema di fondo è che molti non si rendono conto che ormai siamo
circondati da sistemi creati dall’intelligenza artificiale: ciò è, da un lato, positivo; dall’altro, invece, può
rappresentare un pericolo (che va oltre la “pigrizia” che lo sviluppo tecnologico potrebbe indubbiamente
portare).
Il pericolo è che l’IA prenderà il posto dell’uomo? Assolutamente no. È solo un falso (e inutile) allarmismo.
L’intelligenza artificiale non potrà mai superare quella dell’uomo, perché è stata creata da esso. Essere più
veloce nel fare dei calcoli o riassumere un testo non vuol dire essere più intelligenti; un elemento A non può
creare un elemento B più intelligente di esso. Affermare il contrario significherebbe ragionare per assurdo; però,
forse, farlo ci aiuta a comprendere meglio. Ecco, ragioniamo per assurdo: può mai essere una macchina più
intelligente di chi l’ha creata? E per riprendere le parole di Del Tredici (un giovane programmatore di sistemi AI),
intervistato su “La Repubblica”: “per frenare questi sistemi bisogna, semplicemente, staccare la spina”. Può
sembrare una cosa banale, ma pensandoci bene non lo è poi così tanto.
Dunque, della prima ipotesi, ovvero quella secondo cui l’uomo verrà “distrutto” dall’AI, è stata dimostrata
l’infondatezza.
Resta da argomentare su quella, più diffusa, secondo cui queste macchine prenderanno il posto degli uomini in
ambito lavorativo. Bisogna considerare il fatto che a questi sistemi manca una cosa, fondamentale, che solo gli
uomini possono avere: le (vere) emozioni. Ad esempio, noi sappiamo che questi Chatbot (ad esempio ChatGPT)
sono in grado di realizzare testi organici e corretti dal punto di vista grammaticale tramite dei “semplici” prompt
che, comunque, devono essere forniti dall’uomo: ne deriva la preoccupazione che i giornalisti, nei prossimi anni,
con il miglioramento delle prestazioni di questi Chatbot (dal momento che ad oggi hanno bisogno della
supervisione dell’uomo a causa di non rare “allucinazioni” di cui questi sistemi si rendono protagonisti) possano
essere sostituiti proprio da questi ultimi. Sono, difatti, tanti i possibili utilizzi di questi sistemi in ambito
giornalistico; alcuni esempi sono stati riportati da Luca Contalbo (AI expert) durante un suo intervento
avvenuto il 7 novembre 2023 in uno degli incontri organizzati dall’associazione FEM per il corso di “Digital
journalism”: essi possono essere utilizzati per automatizzare la produzione di notizie, per il controllo e la
verifica delle stesse, per le inchieste giornalistiche, per la moderazione dei commenti, per sfruttare i contenuti
degli archivi, ottimizzare l’uso delle immagini, per l’analisi dei dati, per identificare e mitigare i rischi di “bias”
e, come detto precedentemente, per realizzare testi organici e corretti grammaticalmente. A questo proposito,
Del Tredici faceva una riflessione importante: il sistema genera un testo in base ai dati e i comandi che gli
vengono forniti, ma ciò che rende un articolo giornalistico “completo” sono le riflessioni dell’autore, che solo
l’essere umano ha la facoltà di sviluppare, perché solo l’essere umano ha “l’esigenza di dire”. Dunque, fin
quando i sistemi IA non avranno sviluppato questo altro aspetto (e dubito che questo avverrà un giorno),
fondamentale in ogni attività, non solo quella giornalistica, c’è poco di cui preoccuparsi: possono agevolare e
velocizzare la realizzazione di un articolo o di un’inchiesta, ma c’è sempre bisogno dello “zampino” umano, del
timbro che solo l’essere umano può inserire. Qual è allora l’aspetto negativo di cui si parlava prima? Il vero
problema va ricercato in una delle molteplici funzioni di questi sistemi, in particolare quelli di Deep Learning (o
“apprendimento approfondito”): essi sono in grado di raccogliere e analizzare una grande mole di dati (i
cosiddetti “Big Data”), che, detto in parole povere, permettono di tracciare le nostre abitudini molto
dettagliatamente. Questi dati provengono principalmente dai numerosi siti web che visitiamo ogni giorno (nel
momento in cui “accettiamo i cookies”) e dalle applicazioni che sono installate sul nostro telefono (nel momento
in cui acconsentiamo all’accesso alla fotocamera, al microfono, ai contatti…). Ad esempio, quando entriamo su
Netflix, tra le varie categorie che ci appaiono c’è quella intitolata “film che potrebbero piacerti”: quei
suggerimenti nascono da una serie di dati che noi forniamo alla piattaforma nel momento in cui, ad esempio,
scegliamo di vedere un film romantico piuttosto che uno d’azione: nei successivi accessi alla piattaforma,
quest’ultima ci proporrà, tra i film consigliati, principalmente film romantici. Lo stesso meccanismo si innesca nel
momento in cui vediamo apparire annunci di prodotti che proprio in quel momento avevamo intenzione di
acquistare. È praticamente impossibile sfuggire a ciò: anche nell’ipotesi assurda, al giorno d’oggi, in cui non si
utilizzi nessun dispositivo elettronico, siamo soggetti a questo “tracciamento” ( o più precisamente “profilazione
utente” nel linguaggio del marketing) anche nel momento in cui mettiamo piede in un negozio: quasi tutte le
attività commerciali, ad oggi, sono dotate di sensori che rilevano il numero di persone che entrano ed escono dal
negozio ogni giorno e sono dotati di sistemi in grado di scoprire quali sono i prodotti più acquistati in un certo
intervallo di tempo; tutto ciò, ovviamente, non serve per farsi i fatti “altrui”, ma per attuare delle strategie di
marketing. Esempio: se “sperimentalmente” scopro che tendenzialmente il mio supermercato vende bibite
alcoliche maggiormente di venerdì sera, allora sarò orientato ad applicare delle offerte su quei prodotti in modo
da attirare più persone e vendere in maggiori quantità quei prodotti. Se, da una parte, tutto ciò rappresenta un
vantaggio ai fini commerciali, allo stesso tempo ci rende spaventosamente tracciabili (non è solo un fatto di
geolocalizzazione, ma anche di registrazione delle attività che ognuno di noi compie ogni giorno). Proprio
riguardo a questa problematica, lo scorso 9 dicembre è stato approvato “L’IA act Europeo”, per la cui
“progettazione” si sono riuniti il Parlamento e i governi dei vari Stati Europei: è un “provvedimento” che si basa
su libertà e trasparenza al fine di garantire la NON violazione di alcuni diritti fondamentali. Sono stati, difatti,
banditi alcuni sistemi ritenuti ad “alto rischio” come ad esempio il riconoscimento biometrico, a cui è autorizzata
solo la polizia nel caso di reati gravi o situazioni di emergenza. Sono, inoltre, stati fissati dei “provvedimenti” ad
altri sistemi ritenuti in qualche modo rischiosi (i “General Purpose AI”) come ChatGPT: uno di questi è quello di
fornire al parlamento tutte le informazioni riguardo ai materiali utilizzati per la realizzazione dei sistemi e degli
algoritmi che ci sono dietro. Dunque, questo deve essere un ulteriore motivo per non essere scettici riguardo
allo sviluppo dei sistemi AI e al progresso che da esso può scaturire. Tutto è nelle mani dell’uomo: sarà
sicuramente necessario un cambiamento, ma non tale da “invertire i ruoli” e arrivare, come dice anche Luciano
Floridi, al punto in cui gli uomini dovranno adattarsi alle tecnologie che loro stessi hanno creato; ‘è il contenuto
che deve adattarsi al contenitore, non il contrario.
Alessandro Del Regno