
Dimensione del testo: A Reducir tamaño de fuente. A Restablecer tamaño de fuente A Aumentar tamaño de fuente.
Nel mio lavoro mi capita spesso di osservare come le persone usano l’intelligenza artificiale nei momenti di incertezza. Non parlo dell’AI “da ufficio”, quella che ti riscrive una mail o ti mette ordine in una lista. Parlo dell’AI quando la domanda non è più comoda, ma urgente. Quando serve capire in fretta. Quando serve sentirsi meno soli.
E qui c’è un dato che vale più di mille opinioni: secondo dati dichiarati da OpenAI, ogni settimana su ChatGPT arrivano centinaia di milioni di richieste legate a salute e benessere. Decine di milioni di persone lo consultano ogni giorno per temi sanitari. Non è una moda di nicchia. È un comportamento già entrato nella routine di massa.
Questo ci dice una cosa semplice: l’AI non viene più interrogata solo per “fare cose”, ma per sentirsi più tranquilli. Per capire una frase ambigua, un termine medico, un valore fuori scala. Non è una richiesta tecnica. È una richiesta emotiva.
E quando l’oggetto della domanda è la salute, il peso di questa richiesta cambia completamente. Non stiamo cercando solo una spiegazione. Stiamo cercando rassicurazione.
Qui entra in gioco un cambiamento silenzioso ma profondo: stiamo trasformando l’AI da strumento a interlocutore emotivo. Le chiediamo non solo cosa significa qualcosa, ma se dobbiamo preoccuparci. Se va tutto bene. Se possiamo stare tranquilli.
E quando una tecnologia inizia a rispondere a questo bisogno, non possiamo limitarci a chiederci se “funziona”. Dobbiamo chiederci che tipo di rapporto stiamo costruendo con lei. È umano. È comprensibile. Ed è anche uno dei gesti più delicati che possiamo fare con un’intelligenza artificiale.
Dentro questo scenario si inserisce ChatGPT Health, la nuova funzione presentata da OpenAI: un’area dedicata all’uso sanitario, pensata per aiutare le persone a capire documenti, organizzare informazioni di benessere e prepararsi meglio a una visita medica. L’idea dichiarata è chiara: supportare, non sostituire la relazione clinica.
OpenAI dichiara che i dati inseriti nelle funzioni Health vengono separati dagli altri e non utilizzati per il training dei modelli. È una garanzia importante sul piano tecnico. Ma resta un punto più sottile: cosa succede nella testa dell’utente quando quella separazione rimane invisibile e la risposta arriva comunque, fluida, rassicurante, convincente.
Il punto, per me, non è se questo strumento sia utile. È più scomodo: cosa succede quando iniziamo ad affidare la nostra salute a un’interfaccia che risponde sempre, comunque, e spesso con un tono che trasmette sicurezza.
Perché la salute non è un’informazione qualsiasi. Non è come chiedere il significato di una parola o un consiglio per un viaggio. È il punto in cui vulnerabilità, paura e bisogno di rassicurazione si incontrano. Ed è anche il tipo di dato che, per legge, viene considerato “speciale”, da trattare con una cura diversa.
In Europa il GDPR considera la salute una “categoria particolare di dato”. Tradotto: non è un’informazione qualunque e meriterebbe il massimo livello di protezione, anche quando entra in piattaforme pensate per la massa e usate con leggerezza quotidiana.
Eppure, nella pratica quotidiana, questo confine si sta sfumando.
Sempre più persone parlano con l’AI come se fosse il primo interlocutore quando l’ansia sale: “È grave?”, “Devo preoccuparmi?”, “Secondo te è normale?”. Non perché siano ingenue, ma perché è comodo, immediato, sempre disponibile. Non giudica. Non ti mette in attesa. Non ti fa sentire inadeguato.
Il problema non è che l’AI risponda.
Il problema è cosa succede dentro di noi quando lo fa.
Una risposta ben scritta, rassicurante, fluida, può darci un senso di controllo che non sempre è reale. Il cervello tende a confondere chiarezza con verità, tono calmo con competenza, sicurezza con affidabilità. È un meccanismo potentissimo, soprattutto quando siamo in ansia.
E sulla salute siamo quasi sempre in ansia.
C’è un punto che andrebbe detto più spesso, senza moralismi: anche se una piattaforma scrive “non faccio diagnosi”, l’effetto psicologico può essere comunque quello di una diagnosi percepita. Non è una questione tecnica. È una questione umana.
Se una risposta mi fa sentire tranquillo, io mi comporterò come se fosse vera.
Se mi spaventa, mi comporterò come se fosse un allarme.
Questo vale molto più di qualsiasi disclaimer.
Poi c’è un altro livello, ancora più silenzioso: la normalizzazione. Quando iniziamo a caricare referti, sintomi, terapie, storie cliniche dentro una chat come se fossero messaggi qualsiasi, stiamo cambiando il nostro concetto di intimità informativa. Non ce ne accorgiamo, ma lo stiamo facendo per abitudine. Un po’ alla volta.
Dietro la formula “dato sensibile” c’è una realtà concreta: informazioni che possono avere conseguenze reali sulla vita delle persone, sul lavoro, sull’accesso ai servizi, sulla reputazione. Ma nella vita quotidiana queste parole pesano poco. Quello che pesa è la comodità.
Ed è qui che, secondo me, dobbiamo fermarci un attimo. Senza demonizzare nulla, ma senza nemmeno far finta che non stia succedendo niente.
ChatGPT Health nasce da un bisogno reale: la sanità è frammentata, i documenti sono complessi, le persone sono spesso lasciate sole con informazioni che non sanno interpretare. Avere uno strumento che aiuta a capire meglio può essere un’opportunità enorme.
Ma c’è una differenza sottile tra “aiutarmi a capire” e “prendere il posto del mio processo decisionale”.
Il primo è sano.
Il secondo è pericoloso.
Il confine non lo decide la tecnologia. Lo decidiamo noi, con l’uso che ne facciamo.
Se uso l’AI per preparare domande da fare al medico, sto usando bene lo strumento.
Se la uso per decidere al posto mio, sto spostando una responsabilità che non dovrebbe spostarsi.
La tecnologia può aiutarci a capire meglio.
Ma non deve diventare il posto dove scarichiamo la nostra responsabilità di capire.
E forse, quando si parla di salute, questo vale più che in qualsiasi altro ambito.




