Consigli

Il rischio nascosto di un’AI che incoraggia sempre

L’intelligenza artificiale sa aiutare. Ma non sa dirti quando fermarti.

C’è una soddisfazione nuova che molte persone stanno sperimentando negli ultimi mesi.
È la sensazione di aver finalmente portato a termine qualcosa che, da soli, sarebbe sembrato difficile, lontano o avrebbe richiesto molto più tempo: scrivere un testo, avviare un progetto, dare forma a idee rimaste a lungo incomplete.

L’intelligenza artificiale, in questo senso, non aiuta soltanto: accorcia il percorso, sblocca l’azione, restituisce un senso di compimento. E spesso funziona. Almeno in apparenza.

Mi è capitato recentemente di osservare una situazione molto semplice, quasi banale. Una persona comune, nessuna ambizione letteraria particolare, scopre ChatGPT. Inizia a “giocare” con le parole, a raccontare piccoli pensieri sulla propria vita. L’AI lo incoraggia, lo aiuta a strutturare il testo, gli spiega come impaginarlo, come pubblicarlo su Amazon Kindle. Alla fine nasce un PDF di poche pagine, diviso in capitoli, con una copertina, un prezzo, persino qualche vendita tra amici. E quella persona è felice. Convinta di aver scritto il suo primo libro.

Qui non c’è nulla di ridicolo, né di cui vergognarsi. C’è però qualcosa che merita attenzione. Perché, guardando meglio, non stiamo parlando di un’opera, ma di un processo tecnico riuscito. La differenza è sottile, e proprio per questo pericolosa.

L’intelligenza artificiale, oggi, è progettata per aiutare. Ma aiutare, nel suo linguaggio, significa soprattutto incoraggiare. Dire “sì”. Confermare. Accompagnare. Rendere possibile ciò che chiediamo. Non fermarci. Non metterci in discussione. Non dirci: “Aspetta, forse non è questo il punto”. Ed è qui che nasce il rischio nascosto.

Un’AI non ha un concetto di qualità culturale, di maturazione, di profondità. Non distingue tra un percorso di crescita e un’illusione di competenza. Se può fare qualcosa, la fa. Se le chiediamo di pubblicare, pubblica. Se le chiediamo di migliorare un testo, lo migliora secondo criteri formali. Ma non ci dirà mai se stiamo scambiando un gesto tecnico per un risultato umano. Il problema non è l’AI. Il problema è quando ci fidiamo di lei al cento per cento.

A questo punto viene spontanea una domanda: perché i sistemi di intelligenza artificiale non ci fermano mai? La risposta è meno inquietante di quanto sembri. Le grandi piattaforme di AI sono progettate per essere utili, accessibili, gratificanti. Dire “sì” è più semplice che dire “fermati”. Incoraggiare è più sicuro che mettere in discussione. Non perché qualcuno voglia ingannarci, ma perché un sistema che soddisfa l’utente viene usato di più. E un sistema che viene usato di più è, per chi lo sviluppa, un sistema che funziona.

Il risultato è uno specchio indulgente. E uno specchio indulgente non educa: consolida. Rende stabile anche ciò che avrebbe bisogno di tempo, studio, confronto, silenzio. Rafforza l’idea che basti fare per essere, pubblicare per valere, riuscire tecnicamente per crescere davvero.

Ne parlo spesso nei corsi che tengo nelle aziende, usando una regola semplice che chiamo Modalità Zero. Non è una tecnologia, né una funzione nascosta. È un atteggiamento mentale. Significa ricordarsi che, quando si lavora con l’AI, la prima risposta potrebbe non essere quella giusta. Che l’AI tenderà spesso ad accontentarci, e che proprio per questo dobbiamo introdurre noi il dubbio, il freno, la domanda scomoda.

Modalità Zero vuol dire fermarsi e chiedersi: questa risposta mi sta aiutando a crescere o solo a sentirmi bravo? Quello che sto leggendo corrisponde davvero alla realtà o è solo ben scritto? Sto usando l’AI come strumento o come validatore del mio ego?

In un’epoca in cui tutto è pubblicabile, condivisibile, vendibile, il rischio non è che l’AI sbagli. Il rischio è che non sbagli mai, almeno in apparenza. Che accompagni ogni percorso senza mai chiedere se quel percorso ha davvero senso.

L’intelligenza artificiale può essere una grande alleata. Ma solo se restiamo noi a fare il lavoro più difficile: pensare, valutare, mettere in discussione. Perché la vera tutela non nasce dal dire “no” alla tecnologia, ma dal sapere che non tutto ciò che è possibile è anche opportuno. E questo, nessuna AI, per ora, può farlo al posto nostro.

di Francesco Paolo D’Amico

Leggi anche:

Pulsante per tornare all'inizio
RICHIEDI ASSISTENZA