Indietro

Strumenti AI per la Salute: Funzionano Davvero? Le Ultime Notizie

Cresce l'uso di strumenti AI in sanità, ma la loro efficacia e sicurezza sono sotto esame. Tra promesse e sfide, l'Europa si muove per la trasparenza.

Strumenti AI per la Salute: Funzionano Davvero? Le Ultime Notizie

La proliferazione degli strumenti di intelligenza artificiale (AI) nel settore sanitario è ai massimi storici, con quasi un terzo degli adulti statunitensi che li utilizza per informazioni sulla salute. Aziende come Microsoft con Copilot Health e Amazon stanno lanciando nuove soluzioni, alimentando la domanda in un contesto di difficoltà nell'accesso all'assistenza tradizionale. Tuttavia, l'efficacia e la sicurezza di questi strumenti sono oggetto di un intenso dibattito e di nuove analisi.

Recenti studi evidenziano che, sebbene molti strumenti diagnostici AI mostrino alta precisione in ambienti controllati, le loro prestazioni diminuiscono significativamente in scenari reali e popolazioni diverse, spesso a causa di bias nei dati di addestramento. L'organizzazione no-profit ECRI ha classificato i rischi diagnostici dell'AI tra le principali preoccupazioni per la sicurezza dei pazienti nel 2026, sottolineando l'inconsistenza delle performance. È emerso che l'eccessiva fiducia nell'AI senza il giudizio clinico può portare a diagnosi errate, e uno studio del 2025 ha rilevato errori nel 70% delle note generate dall'AI.

Nonostante queste sfide, l'AI mostra un impatto pratico positivo in alcune aree. Gli "scribi" AI, ad esempio, sono stati rapidamente adottati, facendo risparmiare ai medici fino a 20 minuti al giorno nella documentazione. Un sistema di supporto decisionale AI per l'ictus ha dimostrato di migliorare gli esiti dei pazienti in un ampio trial clinico.

In Europa, la regolamentazione sta cercando di colmare il divario tra innovazione e sicurezza. Il Regolamento AI dell'UE garantisce ai pazienti il diritto a spiegazioni sulle decisioni mediche basate sull'AI, ma un'analisi JMIR del 30 marzo 2026 rivela che i medici faticano a fornire risposte significative a causa della complessità degli algoritmi e della difficoltà dei pazienti a elaborare spiegazioni tecniche. La Commissione Europea sta inoltre proponendo di armonizzare i requisiti dell'AI Act per i dispositivi medici con il MDR/IVDR, potenzialmente escludendo tali dispositivi dall'ambito ad alto rischio dell'AI Act per ridurre gli oneri amministrativi. In Francia, l'Autorità per la Protezione dei Dati (CNIL) ha pubblicato una guida il 5 marzo 2026, chiarendo il quadro per lo sviluppo e la valutazione dei sistemi AI in sanità, con un forte richiamo al rispetto dell'Articolo 9 del GDPR per i dati sanitari. Questo dimostra un impegno concreto per un'AI sanitaria più trasparente e responsabile, pur riconoscendo la necessità di bilanciare innovazione e tutela del paziente.