Medico star sui social, milioni di follower per un finto dottore IA

I pericoli dell’affidarsi ad un camice bianco che diffonde rimedi infondati sfruttando l’illusione dell’autorevolezza sanitaria. Attenti a John Valentine

C’è un uomo sui social che, pur indossando un camice bianco e dispensando consigli seguiti da milioni di utenti, non ha mai frequentato una università. La maggior parte dei suoi follower è convinto sia un medico in carne e ossa, ma il suo parlare con tono calmo e professionale è dato esclusivamente dalla programmazione John Valentine, questo il nome del finto dottore, spiega con sicurezza come “rafforzare l’immunità”, come prevenire infezioni, come depurare l’organismo, ma lo fa senza cognizione di causa. Nonostante ciò i suoi video circolano su Instagram, TikTok, X, Threads, Facebook e YouTube, conquistando milioni di visualizzazioni e migliaia di commenti di ringraziamento.

Valentine non risulta iscritto ad alcun ordine professionale. Non esistono pubblicazioni scientifiche a suo nome. E non perché le verifiche sono state effettuate in modo approssimativo, ma semplicemente perché non esiste. È un avatar generato con intelligenza artificiale, costruito con strumenti di sintesi vocale e modellazione facciale avanzata.

Il profilo Instagram @healthylifesage, registrato a Cipro, ha superato in pochi mesi il milione di follower. I contenuti appaiono coerenti, ordinati, ripetitivi nella forma ma studiati nel ritmo. Il camice è sempre presente. Lo sfondo richiama uno studio medico. L’effetto è studiato nei dettagli. Il risultato è potente: l’algoritmo premia l’engagement, gli utenti percepiscono autorevolezza. Il problema non è solo l’inganno identitario. Il nodo riguarda la disinformazione sanitaria diffusa con sembianze professionali.

Il pediluvio con acqua ossigenata

Tra i video più condivisi compare una promessa semplice e suggestiva: un pediluvio con perossido di idrogeno, dieci minuti per tre volte a settimana, sarebbe in grado di “resettare il sistema immunitario” ed eliminare infezioni croniche. Il linguaggio è diretto, quasi confidenziale. L’avatar invita a provare. Parla di energia rinnovata, di difese che si riattivano, di un rimedio economico ignorato dalla medicina convenzionale. Il messaggio intercetta una leva potente: la ricerca di soluzioni facili e domestiche a problemi complessi.

Sul piano clinico, però, la narrazione non regge. Il perossido di idrogeno è un disinfettante topico utilizzato per la pulizia di piccole ferite. Non esistono evidenze che dimostrino effetti sistemici sull’immunità attraverso applicazioni cutanee. Applicazioni ripetute possono alterare il film idrolipidico, irritare la cute, favorire microlesioni. In concentrazioni elevate il composto esercita un’azione ossidante e potenzialmente corrosiva.

L’idea che un pediluvio possa influire su infezioni croniche o sul sistema immunitario nel suo complesso non trova riscontro nella letteratura scientifica.

Quando il rischio diventa concreto

La disinformazione sanitaria non si limita all’inesattezza teorica. Produce conseguenze pratiche. L’uso frequente di H₂O₂ può compromettere la barriera cutanea. La convinzione di aver “disinfettato l’organismo” può generare falsa sicurezza. Il ritardo nel ricorso a valutazioni mediche può aggravare condizioni reali. Nei video dell’avatar queste precisazioni non compaiono. Non vengono citate controindicazioni, non vengono indicate concentrazioni sicure, non viene suggerito alcun confronto con un professionista sanitario. Il racconto resta lineare, rassicurante, privo di complessità. Il contenuto però si adatta alla logica dei social: pochi secondi, una promessa chiara, un beneficio immediato.

L’allarme della Canadian Medical Association

Il caso è stato approfondito dal programma investigativo australiano Indicator e rilanciato da diverse testate internazionali. La presidente della Canadian Medical Association, Margot Burnell, ha definito le affermazioni dell’avatar «fuorvianti e inquietanti».

La salute pubblica, evidenzia Burnell, si fonda su evidenze validate, non su suggestioni digitali. Quando un contenuto generato artificialmente si presenta come consulenza medica, il rischio non riguarda solo l’errore informativo ma la fiducia nel sistema sanitario. Inchieste giornalistiche hanno individuato oltre cento video analoghi diffusi su TikTok e Instagram, con decine di account collegati. In alcuni casi la voce sintetica riproduce timbri riconoscibili, aumentando la percezione di autenticità.

Affiliazioni e monetizzazione della paura

Dietro molti di questi profili si intravede un meccanismo economico strutturato. Link in affiliazione Amazon. Promozione di integratori. Suggerimenti di prodotti “naturali”. Ogni acquisto genera commissioni.

Si costruisce autorevolezza, si intercetta una preoccupazione, si propone una soluzione commerciale. La leva psicologica è potente. Paura delle infezioni, ansia per il sistema immunitario, desiderio di controllo sul proprio benessere. L’algoritmo amplifica i contenuti che suscitano reazioni emotive intense. I video dell’avatar rispondono perfettamente a questa logica.

Un ulteriore elemento critico riguarda l’etichettatura dei contenuti generati da AI. Le policy delle piattaforme prevedono la segnalazione dei deepfake. In molti casi l’indicazione non compare in modo evidente. Il risultato è un flusso continuo di contenuti sanitari artificiali che si presentano come reali.

Piattaforme, controlli e limiti tecnologici

Meta e TikTok dichiarano interventi su segnalazione. I numeri sulle rimozioni vengono diffusi periodicamente. Tuttavia la produzione di contenuti generati da AI cresce con rapidità. Gli strumenti di sintesi vocale e video diventano più sofisticati. La sincronizzazione labiale migliora. I volti digitali risultano sempre più credibili. Distinguere un medico reale da un avatar richiede competenze specifiche.

Nel primo trimestre 2025 TikTok ha comunicato la rimozione della maggior parte dei contenuti sanitari violativi individuati. Nel frattempo nuovi profili emergono, spesso con struttura grafica simile e narrativa replicata.

Perché funzionano i medici deepfake

Vedere un camice bianco è di per sé rassicurante, anche la terminologia tecnica utilizzata e il tono hanno poi un peso notevole nel convincere chi guarda i video. Tutto è stato ideato per dare fiducia. L’utente medio valuta l’autenticità attraverso segnali visivi e sonori. Se questi appaiono coerenti, la credibilità aumenta.

Come difendersi dalla disinformazione sanitaria IA

In questo scenario la prima difesa resta il pensiero critico informato. Un consiglio sanitario diffuso via social dovrebbe essere verificato su fonti istituzionali, linee guida ufficiali o tramite un medico abilitato. Promesse eccessivamente rapide e universali meritano la giusta prudenza.

La medicina richiede valutazione personalizzata, anamnesi, responsabilità professionale. Nessun video di pochi secondi può sostituire una consulenza clinica. L’emergere di avatar medici impone una riflessione normativa sulla responsabilità delle piattaforme e sulla trasparenza dell’uso dell’intelligenza artificiale in ambito sanitario.

A cura di Roberto Zonca

Correlati