Questa mossa mira a rendere l’intelligenza artificiale uno strumento utile per pazienti e strutture sanitarie, semplificando la burocrazia e affrontando le delicate questioni di privacy e sicurezza dei dati

[In pillole] La sintesi per chi va di fretta:
Anthropic ha lanciato negli Stati Uniti Claude for Healthcare, una serie di strumenti di intelligenza artificiale per il settore medico. La piattaforma si collega alle cartelle cliniche per aiutare i pazienti a capire i propri dati e supporta le strutture sanitarie nell'ottimizzazione dei processi burocratici, ponendosi in competizione con OpenAI e sollevando questioni sulla privacy.
Un assistente per velocizzare la burocrazia
Il sistema sviluppato da Anthropic è in grado di interfacciarsi con enormi banche dati istituzionali, come il Coverage Database dei Centers for Medicare & Medicaid Services (CMS) e la Classificazione Internazionale delle Malattie (ICD-10), che è lo standard globale per la codifica delle diagnosi.
In termini più semplici, questo significa che Claude può essere usato per verificare rapidamente se una determinata procedura medica è coperta da un piano assicurativo, supportare il processo di autorizzazione preventiva – un passaggio spesso necessario negli Stati Uniti – e persino assistere nella preparazione dei ricorsi.
Secondo quanto comunicato da Anthropic, l’applicazione di queste tecnologie potrebbe ridurre drasticamente i tempi di attesa per le autorizzazioni preventive, che oggi rappresentano una delle principali fonti di ritardo e frustrazione nel sistema sanitario statunitense.
Accelerare questo processo significa permettere ai pazienti di accedere più rapidamente a cure determinanti per la loro salute.
Inoltre, l’intelligenza artificiale può essere impiegata per coordinare meglio l’assistenza, analizzando e smistando grandi volumi di messaggi che i pazienti inviano tramite i portali online delle strutture sanitarie, identificando i casi che richiedono un intervento immediato.
L’obiettivo è chiaro: automatizzare e ottimizzare processi che oggi richiedono un notevole dispendio di tempo e risorse umane.
Ma come è possibile garantire che un’intelligenza artificiale possa accedere a informazioni così delicate e personali come una cartella clinica, senza compromettere la privacy e la sicurezza dei pazienti?
La questione è centrale, e la soluzione proposta da Anthropic si basa su un’architettura tecnica e una partnership specifica.
La gestione dei dati e il problema della privacy
Il collegamento tra i dati sanitari degli utenti e l’intelligenza artificiale di Claude non è diretto. A fare da ponte c’è HealthEx, un’azienda specializzata nell’integrazione di cartelle cliniche elettroniche, diventata il primo partner ufficiale di Anthropic per questa iniziativa. L’infrastruttura si appoggia al TEFCA, un framework federale statunitense per l’interoperabilità sicura dei dati sanitari. La vera innovazione, però, risiede in un protocollo specifico utilizzato da HealthEx, chiamato Model Context Protocol (MCP).
A differenza di un approccio che prevederebbe l’accesso dell’IA all’intera cartella clinica di un paziente, il protocollo MCP funziona in modo molto più selettivo. Quando un utente pone una domanda a Claude, il sistema recupera solo le porzioni di dati strettamente necessarie per formulare quella specifica risposta.
Priyanka Agarwal, CEO di HealthEx, ha spiegato che questo permette alle persone di “portare le proprie cartelle cliniche in una conversazione con Claude” per ottenere risposte “basate sulla propria storia sanitaria personale”, senza condividere più informazioni del necessario. Per contesti così regolamentati, molte organizzazioni sanitarie potrebbero ritenere preferibile orientarsi verso lo sviluppo di intelligenza artificiale su misura, così da mantenere una sovranità totale sugli algoritmi e sulla gestione dei flussi informativi più sensibili.
Anthropic ha inoltre sottolineato che i dati sanitari collegati tramite HealthEx non vengono conservati nella memoria a lungo termine di Claude e, soprattutto, non vengono mai utilizzati per l’addestramento dei suoi modelli di intelligenza artificiale. Gli utenti mantengono un controllo granulare su quali informazioni rendere accessibili, dalle vaccinazioni alle note cliniche, con la possibilità di revocare o modificare le autorizzazioni in qualsiasi momento.
– Leggi anche: Google vuole farci fare acquisti direttamente nelle chat e non è un’idea solo sua
Tuttavia, non tutti sono convinti che le garanzie tecniche e le dichiarazioni di intenti siano sufficienti.
La rapida implementazione di infrastrutture così complesse, che mettono in comunicazione dati estremamente sensibili con sistemi di IA, solleva interrogativi sulla loro reale robustezza di fronte a possibili vulnerabilità o attacchi informatici, come riportato da Clinical Trials Arena.
Una cautela tanto più necessaria se si considera che Anthropic non è l’unica azienda a muoversi in questa direzione, e con tale rapidità.
Una corsa a due nel settore sanitario
Pochi giorni prima dell’annuncio di Anthropic, infatti, OpenAI aveva presentato un’iniziativa molto simile: ChatGPT Health. Si tratta di un insieme di strumenti paragonabili, già in fase di adozione da parte di importanti istituzioni mediche come il Boston Children’s Hospital e il Cedars-Sinai Medical Center.
Il mercato dell’intelligenza artificiale applicata alla sanità sta assistendo a una competizione serrata tra i due principali attori del settore. Essi stanno spostando il loro approccio da modelli linguistici generici a infrastrutture specializzate e conformi alle rigide normative sanitarie, come l’HIPAA negli Stati Uniti.
Entrambe le aziende, tuttavia, si sono affrettate a mettere in chiaro un punto fondamentale: i loro sistemi di intelligenza artificiale non sono e non devono essere considerati un sostituto del parere medico professionale.
Nelle sue policy di utilizzo, Anthropic specifica che, per i casi d’uso ad alto rischio come la diagnosi medica, l’assistenza ai pazienti o la terapia, gli output generati dall’IA devono essere sempre revisionati da professionisti qualificati prima di essere utilizzati.
È un’ammissione implicita dei limiti attuali di questa tecnologia, che può ancora commettere errori.
La posta in gioco, in ambito sanitario, è troppo alta per affidarsi ciecamente a un algoritmo.
L’iniziativa di Anthropic non si ferma qui. L’azienda ha annunciato anche un’espansione dei suoi strumenti per le scienze della vita (Life Sciences), aggiungendo connettori a piattaforme scientifiche per la gestione degli studi clinici e delle operazioni normative. Questi strumenti possono, ad esempio, aiutare a redigere bozze di protocolli per trial clinici tenendo conto delle linee guida della FDA, l’ente regolatorio statunitense.
Per facilitare l’adozione di queste nuove tecnologie, Anthropic ha stretto accordi con alcune delle più grandi società di consulenza al mondo, tra cui Accenture, Deloitte e PwC. È la dimostrazione di una strategia su larga scala, che mira a integrare profondamente l’intelligenza artificiale non solo nel rapporto medico-paziente, ma nell’intera filiera della sanità e della ricerca farmaceutica.
La trasformazione è appena iniziata, e porta con sé tanto il potenziale per un sistema più efficiente e personalizzato quanto la responsabilità di gestire in modo sicuro e affidabile i dati più personali che abbiamo.



