Responsabilità medica e intelligenza artificiale: una nuova frontiera

Cosa succede se una diagnosi suggerita dagli algoritmi della cartella elettronica risulta errata e si causa un danno al paziente? Ammesso e non concesso che questi algoritmi siano progettati per supportare – ma non per dettare né eseguire – decisioni cliniche, alla fine su chi ricade la responsabilità? Ricade sul medico, sullo sviluppatore del software, sull’azienda sanitaria o su tutti?

L’avanzamento delle tecnologie nell’ambito dell’intelligenza artificiale (IA) sta rivoluzionando molte industrie, tra cui anche quella medica. L’integrazione dell’IA nei processi diagnostici, terapeutici e decisionali sta apportando benefici significativi, ma allo stesso tempo solleva importanti questioni legali ed etiche, in particolare riguardo alla responsabilità medica.

La responsabilità medica si basa sulla premessa che i professionisti sanitari siano tenuti a fornire cure adeguate, rispettando gli standard medici e comportandosi secondo il livello di diligenza e competenza richiesto dalla loro professione. Tuttavia, l’introduzione dell’IA complica questo quadro, poiché le decisioni mediche possono essere influenzate o addirittura prese in parte da algoritmi e sistemi automatizzati.

Da un lato, l’IA può migliorare la precisione delle diagnosi, ridurre gli errori umani e suggerire terapie personalizzate basate su dati enormi e complessi. Se, da un lato, questo può portare a una maggiore efficacia nei trattamenti e a una migliore gestione delle risorse sanitarie, dall’altro, se un sistema IA dovesse commettere un errore, chi ne sarebbe responsabile? Il medico che lo ha utilizzato, l’azienda che lo ha sviluppato, o l’algoritmo stesso?

La natura dell’IA, spesso basata su algoritmi di apprendimento automatico che possono adattarsi nel tempo, rende difficile stabilire di chi sia la responsabilità in caso di risultati errati. Inoltre, la complessità degli algoritmi stessi può rendere difficile comprenderne il funzionamento interno e le ragioni alla base delle decisioni prese.

Per affrontare queste sfide, è necessario un approccio equilibrato. Gli sviluppatori di IA e i professionisti medici dovrebbero lavorare insieme per creare sistemi trasparenti e spiegabili, in cui sia possibile tracciare il ragionamento dell’algoritmo. Inoltre, dovrebbe essere stabilita una chiara suddivisione delle responsabilità tra il medico e il sistema IA, definendo quando e come l’IA può essere utilizzata nelle decisioni cliniche.

Il contesto legale deve anche evolversi per tener conto di questa nuova realtà. Potrebbero essere necessarie leggi e normative specifiche per regolamentare l’uso dell’IA in campo medico e stabilire chi sia responsabile in caso di errori. Allo stesso tempo, dovrebbe esserci uno sforzo per educare i professionisti della salute sull’uso corretto e responsabile dell’IA, enfatizzando il loro ruolo di supervisione e di verifica delle decisioni dell’algoritmo.

In conclusione, l’intelligenza artificiale sta ridefinendo il modo in cui vengono prese le decisioni mediche e sta portando vantaggi considerevoli. Tuttavia, il rapporto tra responsabilità medica e IA richiede un’attenzione speciale. Bilanciare l’innovazione tecnologica con la necessità di garantire la sicurezza dei pazienti e la responsabilità professionale è una sfida che richiede la collaborazione di medici, sviluppatori e istituzioni normative.

Dalla Redazione

Lettura consigliata:
Prictor M. (2023), Where does responsibility lie? Analysing legal and regulatory responses to flawed clinical decision support systems when patients suffer harm. Med Law Rev. 2023 Feb 27;31(1):1-24.

8 GIUGNO 2023  /  DA QUALITY-ADMIN