Ansa VERIFIED - I video deepfake rappresentano un problema per medicina e sanita'?

Il termine "deepfake" indica video, immagini o audio generati o manipolati mediante tecniche di intelligenza artificiale, per far sembrare che una persona reale dica o faccia qualcosa che in realta' non ha fatto. Nel contesto sanitario rappresentano un pericolo sotto diversi punti di vista. Per i pazienti, la principale minaccia e' la disinformazione, mentre per i medici c'e' il rischio di furto d'identita': qualche secondo di video reale basta a replicarne voce e volto per creare contenuti falsi che ne ledono la credibilita'. A livello europeo, il Regolamento sull'intelligenza artificiale (AI Act) stabilisce un primo quadro giuridico. In Italia, la legge 132/2025 ha introdotto un reato specifico, e il Garante per la protezione dei dati personali ha pubblicato un vademecum su come difendersi. La prima difesa e' l'attenzione: verificare la fonte, controllare se il professionista citato appartiene a un ente sanitario riconoscibile e diffidare da messaggi che promettono risultati miracolosi.

Riproduzione riservata © Messaggero Veneto