“Intelligenza artificiale” e “demenza umana” Emergenza pubblica

1) Il concetto di intelligenza artificiale
1.1) Premessa
La speculazione è conseguenza non solo della necessità di soddisfare un reale bisogno o meglio, per dirla in termini economici, conseguente all’eccesso di domanda rispetto la limitatezza dell’offerta, ma spesso, nei momenti di spaesamento, può determinarsi dalla perdita dell’ordinaria razionalità. Così, con l’episodio pandemico, le persone si riversano immotivatamente nei supermercati, del pari, molte Aziende sanitarie acquistano apparecchiature, dotate di intelligenza artificiale, o presunta tale, del tutto inutili se non dannose. Il dolus bonus pubblicitario è sempre il medesimo: l’utilizzo del termine “intelligenza artificiale” e il falso mito, amplificato da alcuni organi di stampa, che la diagnosi di COVID- 19 sia realizzabile in 20 secondi.

2.2) Il concetto di intelligenza artificiale
Non esistendo una definizione univoca di intelligenza artificiale si fa spesso abuso di tale termine. Nell’immaginario collettivo, il termine intelligenza artificiale evoca la capacità di una apparecchiatura di sostituirsi all’uomo e di compiere attività, qualitativamente e quantitativamente, superiori all’intelligenza umana. Chiariamoci bene: l’intelligenza artificiale troverà un notevole sviluppo in futuro e in diversi campi, ma l’idea di riuscire ad avere una intelligenza artificiale “forte”, intesa come capacità dell’apparecchiatura di essere indipendente e autonoma dall’uomo, è confutata dagli stessi scienziati che si applicano seriamente allo studio della materia. Le due teorie alla base dello studio dell’intelligenza artificiale: i) quella di Leibniz1, esposta nella sua Dissertatio de arte combinatoria, in cui anticipava la possibilità di costruire una apparecchiatura in grado di risolvere non solo calcoli algebrici, ma anche di aiutare l’uomo nel suo ragionamento, successivamente sviluppata da Frege e Boole mediante l’uso di un linguaggio matematico–informatico; ii) quella presentata da Turing2, basata sulla creazione di un sistema simile alla “rete neurale” del cervello umano, in grado di apprendere e migliorarsi (machine learning), giungono alla conclusione -secondo gli stessi autori- che l’intelligenza artificiale non potrà sostituire il professionista in quanto non potrà compiere un processo decisionale indipendente ed autonomo dall’uomo. La prima teoria patisce i limiti di un sistema logico-matematico per cui un problema è risolvibile solo ed in quanto calcolabile. Il risultato è, poi, influenzato da fattori esterni deterministici, non valutabili, sicché la soluzione adattata dalla macchina intelligente, basata su un sistema matematico, potrebbe essere logica, ma non etica. La seconda teoria, acquisendo dati e comportamenti umani, si trova ad avere gli stessi limiti deduttivi tipici dell’uomo. La capacità “intellettiva” dell’apparecchiatura, infatti, non dipende solo dalla potenza dell’algoritmo, ma dall’esattezza e dalla completezza dei dati corredati, dall’addestramento ricevuto e dall’ambiente in cui opera. Alla creativa concezione dell’intelligenza artificiale “forte”3, avente capacità indipendente dall’uomo a) nelle scelte da adottare; b) nei mezzi tecnici da utilizzare; c) nella personalità e non delegabilità della prestazione, quindi, si contrappone l’intelligenza artificiale “debole” meno “immaginifica” e più concreta4. 1 Leibniz, Dissertatio de arte combinatoria, 1666, Leipzig. La “Encyclopaedia Britannica”, identifica il volume come una dissertazione completa in cui Leibniz ha formulato un modello che è l’antenato teorico di alcuni computer moderni: tutti i ragionamenti, tutte le scoperte, verbali o meno, sono riducibili a una combinazione ordinata di elementi, come numeri, parole, suoni o colori, Biografia scritta da Yvon Belaval, Brandon C. Look. 2 Turing, Computing Machinery and Intelligence, in Mind, New Series, 1950, vol. 59, n. 236, 433 ss. 3 Si vedano le Raccomandazioni alla Commissione 2015/2103INL 4 Rispetto alle Raccomandazioni della Commissione 2015/2103INL il White Paper on Artificial Inteligence – A European approach to excellence and trust, COM(2020) 65 FINAL 19.02.2020 non definisce più l’intelligenza artificiale come autonoma ed indipendente rispetto all’uomo ma come apparecchiatura che mostra un comportamento intelligente analizzando il loro ambiente e intraprendendo azioni – con un certo grado di autonomia – per raggiungere obiettivi specifici.

2.3) Sulla sterilità di una costruzione personalistica robotica
A prescindere i limiti tecnologici, la dottrina etico-romantica, la quale vorrebbe individuare all’intelligenza artificiale una sorta di “dignitas” e, conseguentemente, riconoscere una “personalità giuridica robotica”, nel caso in cui l’evoluzione tecnologica porterà l’apparecchiatura ad adottare decisioni autonome e indipendenti dall’uomo, si scontra con il diritto naturale e con la razionalità giuridica della teoria del “gruppo sociale”, poiché dette apparecchiature, tra loro interagendo, si doterebbero autonomamente di una propria “struttura sociale”. In questa ottica, quindi, non si comprende la pretesa dell’uomo di voler tracciare la personalità giuridica ad un (presunto) soggetto che, in quanto “autonomo ed indipendente dall’uomo”, è in grado di: a) prendere decisioni; b) scegliere i mezzi tecnici da utilizzare per un fine; c) eseguire la sua funzione con autonomia. Per tale motivo, ritengo sia una coincidenza fortunata che ad occuparsi di intelligenza artificiale siano stati principalmente matematici e filosofi e poco, se non in questi ultimi tempi, giuristi o legislatori. Anzi, la morbosità che sta nascendo intorno all’intelligenza artificiale rischia di incoraggiare un approccio legislativo poco coerente con la realtà, potendo favorire il lato etico-romantico piuttosto che quello teorico-empirico. D’altro canto la poca chiarezza in ordine all’inquadramento della responsabilità, soggettiva o oggettiva, nella produzione, commercializzazione, gestione e uso dell’apparecchiatura “intelligente” (dalla privacy, ai brevetti, alla proprietà del prodotto combinato etc), unita alla variabilità delle norme di riferimento in cui l’apparecchiatura “intelligente” andrà ad operare, corre il rischio di riservarci una legislazione stratificata e alluvionale che potrebbe essere più dannosa dello stesso “vuoto legislativo”5.

2) L’utilizzo dell’intelligenza artificiale in ambito ospedaliero
Forse, dovremo ammettere che in effetti: “L’intelligenza artificiale è tutto ciò che non è stato ancora fatto”6: un “fenomeno naturale” che si amplia e si restringe a seconda dell’evoluzione scientifica e tecnologica. In ogni caso, questa “nuova” tecnologia, a prescindere l’effettiva capacità “intelligenza”, va utilizzata in ambito sanitario nel pieno rispetto delle normative poste a tutela e garanzia del paziente e del personale medico. L’art. 1 della Legge 8 marzo 2017, n. 24 “Disposizioni in materia di sicurezza delle cure e della persona assistita, nonché in materia di responsabilità professionale degli esercenti le professioni sanitarie” testualmente dispone: “1. La sicurezza delle cure è parte costitutiva del diritto alla salute ed è perseguita nell’interesse dell’individuo e della collettività. 2. La sicurezza delle cure si realizza anche mediante l’insieme di tutte le attività finalizzate alla prevenzione e alla gestione del rischio connesso all’erogazione di prestazioni sanitarie e l’utilizzo appropriato delle risorse strutturali, tecnologiche e organizzative. 3. Alle attività di prevenzione del rischio messe in atto dalle strutture sanitarie e sociosanitarie, pubbliche e private, è tenuto a concorrere tutto il personale, compresi i liberi professionisti che vi operano in regime di convenzione con il Servizio sanitario nazionale”. Proprio per tali ragioni, in seguito all’emanazione della Risoluzione del Parlamento Europeo “Norme di diritto civile sulla robotica” del 16 febbraio 2017, recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL), l’autorevole Rivista Italiana di Medicina Legale e del Diritto in Campo Sanitario ha stigmatizzato la presa di posizione dell’Autorità europea evidenziando le 5 Dette preoccupazioni nel volume: Intelligenza artificiale e responsabilità, (a cura di Ugo Ruffolo), Giuffré, 2017, Parte II, p. 3. 6 La cui paternità e di volta in volta attribuita a vari scienziati e principalmente a Pamela McCorduck, Douglas Hofstadter, Larry Tesler o Mark Maloof. Sul punto è utile richiamare lo studio: Haenlein Michael; Kaplan Andreas (2019). “A Brief History of Artificial Intelligence: On the Past, Present, and Future of Artificial Intelligence California Management Review 2019, Vol. 61(4) 5– 14; doi: 10.1177 / 0008125619864925 contraddizioni di carattere giuridico, etico ed economico7. Non è questa la sede per esaminare i principii sottesi alla colpa professionale e presupposti causali definiti dagli artt. 41 e 42 c.p., tuttavia, la norma europea tralascia di individuare le conseguenze in ordine alla “colpa” professionale nell’ambito della collaborazione tra intelligenza umana e artificiale in ordine alla a) inosservanza della regola obiettiva conseguente a negligenza, imprudenza o imperizia; b) evitabilità dell’evento mediante l’osservanza della regola; c) esigibilità dell’osservanza da parte dell’agente tenendo altresì conto che, qualora sussista una cooperazione finalizzata all’esecuzione della prestazione sanitaria, come nel caso dell’équipe, il “principio di affidamento” è sempre controbilanciato dalla “posizione di garanzia” per cui il professionista deve avere riguardo l’operato del “collega”8, sia esso umano che umanoide. L’assenza di chiare linee direttive europee e la propensione a raffigurarsi una “intelligenza artificiale forte” ha portato la dottrina ad ipotizzare per il suo operatore, in caso di utilizzo dell’apparecchiatura dotata di intelligenza artificiale, una responsabilità “oggettiva” ovvero senza colpa secondo i principi definiti dagli artt. 2050, 2051 e 2052 c.c.9, con le conseguenti difficoltà probatorie per il creditore-danneggiante (ovvero il sanitario)10. In questo caso, al medico, per potersi liberare dalla predetta responsabilità non basta più dimostrare di aver seguito la propria prestazione secondo le regole dell’ars medica e dunque in modo diligente, prudente e perito in quanto la propria responsabilità è insita nell’utilizzo dell’apparecchiatura sanitaria dotata di intelligenza sanitaria.

3) Emergenza sanitaria e mantenimento degli standards qualitativi
Le regole sottese alla normativa sanitaria e alla gestione dell’emergenza sanitaria causata dal coronavirus non legittima un abbassamento degli standards qualitativi o dell’attenzione che la Direzione strategica aziendale deve attuare nell’utilizzo di strumenti “asseritamente” dotati di intelligenza artificiale soprattutto se questi siano privi, addirittura, di certificazione o nel caso vengano usati per una ingiustificata telegestione dell’esame diagnostico del coronavirus.

3.1) Sicurezza del trattamento del dato sanitario Come è noto la deroga del divieto a trattare un dato sanitario contro il volere dell’interessato scatta quando esiste uno stato di necessità. Ancorchè a seguito della pandemia esista uno stato emergenziale allo stesso tempo manca, ritengo, l’elemento oggettivo del divieto a trattare il dato sanitario. Le deroghe al trattamento necessario al divieto generale di trattare le cosiddette “categorie particolari di dati”, tra cui rientrano quelli sulla salute, sono riconducibili a motivi di interesse pubblico nel settore della sanità, quali la protezione da gravi minacce per la salute a carattere transfrontaliero o la garanzia di parametri elevati di qualità e sicurezza dell’assistenza sanitaria e dei medicinali e dei dispositivi medici, sulla base del diritto dell’Unione o degli Stati membri, che prevede misure appropriate e specifiche per tutelare i diritti e le libertà dell’interessato, in particolare il segreto professionale (es. emergenze sanitarie conseguenti a sismi e sicurezza alimentare) o per finalità di assistenza o terapia sanitaria o sociale ovvero gestione dei sistemi e servizi sanitari o sociali (di seguito “finalità di cura”) effettuati da (o sotto la responsabilità di) un professionista sanitario soggetto al 7 Macrì, Furlanetto; I robot tra mito e realtà nell’interazione con le persone, negli ambienti sociali e negli ospedali. Un approccio tra risk management e diritto, in Rivista Italiana di Medicina Legale (e del Diritto in campo sanitario), n. 3, 2017, Giuffré 8 Principio di garanzia che trova maggiore concretezza nell’equipe gerarchica rispetto a quella cosiddetta orizzontale piuttosto che tra pari rispetto a diverse branche che operano nell’esecuzione della medesima prestazione. 9 In questo modo: Intelligenza artificiale e responsabilità, (a cura di Ugo Ruffolo), Giuffré, 2017, Parte II. 10 In questo caso per potersi liberare dalla responsabilità oggettiva non basta più dimostrare al medico di aver seguito le regole dell’ars medica in modo diligente, prudente e perito in quanto la responsabilità è insita nell’utilizzo della macchina. segreto professionale o da altra persona anch’essa soggetta al medesimo obbligo di segretezza. In questo senso si era già espresso il Garante per la Protezione dei Dati Personali, nei chiarimenti sull’applicazione della disciplina per il trattamento dei dati relativi alla salute in ambito sanitario (Registro dei provvedimenti n. 55 del 7 marzo 2019), precisando che i trattamenti dei dati sanitari, in caso di interesse pubblico, devono essere comunque effettivamente “necessari” al perseguimento delle specifiche “finalità di cura” in quanto essenziali al raggiungimento di una o più finalità determinate ed esplicitamente connesse alla cura della salute. In altre parole la necessità non deve nascere da una situazione determinata dalla modalità di gestione predeterminata da un modello organizzativo ingiustificato. Nel solco di questo orientamento pare potersi ricondurre anche il D.L. 09/03/2020, n. 14 “Disposizioni urgenti per il potenziamento del Servizio sanitario nazionale in relazione all’emergenza COVID-19” il quale stabilisce che “fino al termine dello stato di emergenza deliberato dal Consiglio dei ministri in data 31 gennaio 2020, per motivi di interesse pubblico nel settore della sanità pubblica …….. nel rispetto dell’articolo 9, paragrafo 2, lettere g), h) e i), e dell’articolo 10 del Regolamento (UE) 2016/679 …… i soggetti operanti nel Servizio nazionale di protezione civile, ……… possono effettuare trattamenti, ivi inclusa la comunicazione tra loro, dei dati personali, anche relativi agli articoli 9 e 10 del regolamento (UE) 2016/679, che risultino necessari all’espletamento delle funzioni attribuitegli nell’ambito dell’emergenza determinata dal diffondersi del COVID-19. La normativa emergenziale, dunque, non intacca l’art. 13 del GDPR il quale sancisce che nell’ipotesi venga utilizzato un processo decisionale automatizzato, il paziente dovrà ricevere una adeguata informazione in ordine alla logica applicata all’apparecchiatura dotata di intelligenza artificiale, anche alla luce della Legge 22 dicembre 2017 n. 219 e dell’art. 42 della Carta Europea dei Diritti Fondamentali (“Right to a good administration”) e dagli artt. 2, 13 e 32 Costituzione e anche in conseguenza delle Raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica del 16 febbraio 2017, 2015/2103INL che escludono, in radice, la possibilità di sostituire la prestazione sanitaria con un sistema automatizzato. Anzi, in dottrina, v’è chi contesta, in modo argomentato, la legittimità delle “restrizioni” alle libertà adottate sulla stessa “quarantena” in quanto contrarie all’art. 2-15 CEDU11.

3.2) COVID-19 e dispositivi medici non conformi
Se ciò è vero, a maggio ragione, lo stato di emergenza non legittima e non giustifica il ricorso all’acquisto o all’uso di dispositivi medici che non siano certificati. Il Regolamento UE 2017/745 del Parlamento Europeo e del Consiglio del 5 aprile 2017 qualifica come dispositivo medico qualunque strumento, apparecchio, apparecchiatura, software, impianto, reagente, materiale o altro articolo, destinato dal fabbricante a essere impiegato sull’uomo, da solo o in combinazione, per una o più delle seguenti destinazioni d’uso mediche specifiche come la diagnosi, prevenzione, monitoraggio, previsione, prognosi, trattamento o attenuazione di malattie. Proprio a garanzia del diritto alla salute, il dispositivo medico deve rispondere a un complesso processo di valutazione e validazione. La Direttiva 98/34/CE prevede che i dispositivi medici prima di essere immessi in commercio, oltre a dimostrare la loro sicurezza, efficacia rispetto al fine previsto, mediante studi clinici svolti presso strutture idonee ed autorizzate a detto scopo, devono superare i controlli necessari per acquisire la certificazione CE e per essere immessi sul mercato accompagnati dalla documentazione clinica relativa anche il programma di aggiornamento del device. 11 Gian Luigi Gatta: I Diritti Fondamentali alla prova del coronavirus. Perché è necessaria una legge sulla quarantena; Sistema Penale; 2 aprile 2020; ISSN 2704-8098. L’utilizzo di apparecchiatura non conforme alle prescrizioni in materia di sicurezza e garanzia del dispositivo medico, oltre a comportare pesanti sanzioni definite dalle specifiche Direttive Europee12 concretizza il reato doloso previsto dall’art. 443 c.p. di detenzione e utilizzo di medicinali guasti o imperfetti (salvo non integrare altre fattispecie di reato). La compravendita e l’utilizzo di tali attrezzature per uso diagnostico-terapeutico può configurare, altresì, il reato di frode nell’esercizio del commercio previsto dall’art. 515; la frode in pubbliche forniture ex art. 356 c.p., l’omicidio e lesioni colpose previsti dagli artt. 589 e 590 c.p.c. aggravati dalla possibile contestazione della colpa cosciente. Il dispositivo non conforme obbliga ogni medico, quale dirigente sanitario, di segnalare alla direzione sanitaria, alla direzione dell’unità operativa di appartenenza e al paziente l’inutilizzabilità di tali dispositivi.

3.3) COVID-19 e supposta “Intelligenza Artificiale”: la presenza del medico radiologo
3.3.1) Premessa generale

L’aspettativa che l’intelligenza artificiale sia la panacea ideale per la diagnosi del COVID-19 si desume dai resoconti giornalistici in cui si valorizzano anche i brevissimi tempi di diagnosi dell’apparecchiatura intelligente pari a circa 20 secondi. Chiaramente tale affermazione, tendendo a rappresentare l’intelligenza artificiale in termini forti13, crea una illegittima aspettativa, non solo nell’opinione pubblica, ma anche in alcune strutture del Servizio Nazionale Sanitario che, dotandosene, ipotizzano la possibilità di escludere la valutazione finale del medico radiologo (profilo qualitativo) o ridurre i tempi di refertazione (profilo quantitativo). Preliminarmente occorre premettere che l’algoritmo che sottostà all’apparecchiatura è un algoritmo adattato a scriminare, sulla base di un confronto di immagini, la presenza del virus o meno. Tale algoritmo è stato da tempo sviluppato dalle maggiori case produttrici di apparecchiature per la diagnostica per immagini. L’addestramento, quindi, ha riguardato solo il modo in cui il Covid-19 si presenta. Una sorta di intelligenza artificiale ante litteram! E’ noto, che l’atto medico radiologico non si limita alla sola refertazione, ma prevede momenti di competenza dello specialista medico radiologo strettamente interdipendenti e inscindibili tra loro:
1) Valutazione della richiesta di prestazione del medico prescrivente
2) Inquadramento clinico-laboratoristico-anamnestico
3) Giustificazione dell’esame proposto
4) Informativa e raccolta del consenso all’atto medico
5) Attuazione dell’indagine, che consiste in:
a) Identificazione
b) Ottimizzazione
c) Esecuzione
d) Utilizzo (eventuale) del mezzo di contrasto
e) Documentazione iconografica
6) Interpretazione/Refertazione/Comunicazione/Discussione con il Clinico
7) Archiviazione14.

Sul punto si è espressa anche la FNOMCEO precisando che “tutte le prestazioni diagnostiche e terapeutiche dell’area radiologica devono essere condotte solo in presenza del medico specialista e sotto la sua diretta responsabilità. La sua assenza ne pregiudica 12 Direttive Europee di riferimento: a) la Direttiva 2006/42/CE cd. Direttiva Macchine; b) la Direttiva 2001/95/CE cd. Direttiva Prodotti; c) la Decisione 768/2008 CE e il Regolamento 765/2008/CE; 4) la Direttiva 1999/34/CE del Parlamento europeo e del Consiglio del 10 maggio 1999 che modifica la direttiva 85/374/CEE del Consiglio cd. prodotti difettosi; 5) il Regolamento UE 2017/745 del Parlamento Europeo e del Consiglio del 5 aprile 2017 relativo ai dispositivi medici. 13 Intesa come capacitò di eseguire una prestazione in modo autonomo e indipendente dall’uomo la prestazione diagnostica. 14 SIRM, Atto Medico Radiologico, 2007 in https://areasoci.sirm.org/download/184 l’accuratezza, la qualità e il controllo della giustificazione. La teleradiologia che priva il paziente del contatto diretto con il suo medico specialista è limitata alle sole prestazioni eseguite in regime d’urgenza e secondo i protocolli aziendali che garantiscono l’integrità, la riservatezza, il non ripudio e l’autenticità  della documentazione iconografica e del referto così richiamando l’inscindibilità dell’atto radiologico e l’appropriatezza dello stesso”15. La “refertazione da remoto” è, inoltre, in totale contrapposizione con linee guida sull’Atto Medico Radiologico della SIRM, nonché con le Linee guida per le procedure inerenti le pratiche radiologiche clinicamente sperimentate emanate dal Ministero della Salute16 e in contrasto con il D. Leg. n. 187/2000. Quanto alla “telegestione” dell’esame radiologico può essere effettuata solo nel caso di urgenza indifferibile/emergenza, sempreché detta procedura venga eseguita secondo i principi, le tecniche, le tecnologie e le modalità definite, proprio per la gestione delle urgenze, dalle Linee Guida ISTISAN 10/44. 3.3.2) Profilo qualitativo: la diagnosi da Covid-19 e la pericolosità dello screening generalizzato La tecnica utilizzata per la diagnosi, riconosciuta dalla comunità scientifica internazionale, è l’impiego della TC ad alta risoluzione del torace (High Resolution Computed Tomography) che è la metodica di elezione per la diagnosi delle patologie polmonari e per la diagnosi del Covid-19, normalmente praticata è nota ai radiologi ed ai tecnici di radiologia. Quanto poi alla diagnosi del Covid-19 non appare certo di dubbia interpretazione per il medico radiologo del Servizio Sanitario Nazionale posto che, secondo la Comunità scientifica di riferimento, individuare le lesioni, eventualmente presenti, nel parenchima polmonare risulta alla TC è assai semplice ed ogni medico radiologo già raggiunge una sensibilità del 100%17. La SIRM, come la intera comunità internazionale radiologica, tra cui l’American College of Radiology, afferma che “la TC non deve essere utilizzata per lo screening o come test di prima linea per diagnosticare Covid-19”, il Royal College of Radiologists assicura che “non esiste alcun ruolo attuale per la TC nella valutazione diagnostica di pazienti con sospetta infezione da coronavirus nel Regno Unito”, il Royal Australian and New Zealand College of Radiology che rappresenta che “la TC non dovrebbe essere utilizzata per lo screening di routine per la malattia di Covid-19” e il Canadian Association of Radiologists raccomanda “di non utilizzare la TC toracica di routine per lo screening, la diagnosi e la sorveglianza dell’infezione da Covid-19″ e, in ogni caso, la comunità scientifica sottolinea come in caso di sospetto alla TC del torace e risultato negativo del test molecolare per COVID-19, è raccomandata l’esecuzione di un secondo test molecolare, su prelievo biologico, mediante tracheoaspirazione o lavaggio bronchiolo-alveolare (BAL)18. L’eventuale procedura di screening indifferenziata determina la violazione del principio radioprotezionistico, giustificazione e ottimazione dell’esame, definito dal D. Leg. n. 187/2000 con conseguente incremento del rischio stocastico e deterministico in ordine a insorgenze tumorali sulla popolazione. Peraltro, ricorda la comunità scientifica che per nessun motivo può essere eseguito un esame TC od ecografico come screening pena la contribuzione alla diffusione del contagio. 3.3.3) Profilo quantitativo: esame e diagnosi Secondo quanto riportato da alcuni organi di stampa, la valutazione con apparecchiature dotate di intelligenza artificiale si realizzerebbe con certezza in 20 secondi, facilitando così il compito del sanitario. 15 FNOMCEO, Il nuovo medico radiologo, documento approvato il 18/10/2018 dal Comitato Centrale della FNOMCEO in https://portale.fnomceo.it 16 Ministero della Salute “Linee guida per le procedure inerenti le pratiche radiologiche clinicamente sperimentate (art. 6, decreto legislativo n. 187/2000)” in Gazzetta Ufficiale n. 261 del 9 novembre 2015 17 https://www.sirm.org/2020/03/18/18-03-20-covid-19-memorandum-hrct-pazienti-covid-19/ 18 https://www.sirm.org/2020/03/24/24-33-2020-comunicato-stampa/ Tale assunto è chiaramente una forzatura che non considera i fattori esecutivi necessari per l’esecuzione della prestazione sanitaria e si sostanzia in sensazionalismo giornalistico che sfrutta la curiosità e la impressionabilità delle persone in considerazione all’elemento innovativo: l’“intelligenza artificiale”. Quanto alla certezza della diagnosi con la strumentazione dotata di intelligenza artificiale, la comunità scientifica internazionale di radiologia e diagnostica per immagini ha evidenziato che la TAC non può fare una “diagnosi differenziale” fra una “polmonite interstiziale da Covid 19” e qualsiasi “altra polmonite interstiziale” dovuta ad altri virus, sicché la gestione dell’atto medico radiologico deve essere interamente governato dal radiologo stesso che esegue l’atto medico radiologico. Il rischio concreto è che, diversamente, proprio in ragione all’emergenza, ci si abbandonerebbe alla “scelta” diagnostica dell’apparecchiatura senza raffronti o senza un giudizio critico. I tempi relativi alla produzione della prestazione, poi, sono dettati anche dall’esigenza, non altrimenti eliminabile, di garantire che l’indagine diagnostica avvenga in completa sicurezza per gli operatori e per gli stessi utenti. Tra due prestazioni diagnostiche occorre, infatti, adottare le conseguenti procedure di sanificazione delle apparecchiature (a prescindere che il paziente sia effettivamente pazienti positivo o anche solo sospetto come tale). 4) Situazione necessitante e conseguente azione necessitata? Questi dispositivi possono costituire un ausilio al professionista sanitario sempreché vengano utilizzati in modo conforme alle normative relative allo svolgimento dell’atto medico radiologico e, pertanto, “in via sperimentale” con il contributo del Comitato Etico per la valutazione clinica. Più complicate sono, invece, le conseguenze relative l’acquisto di apparecchiature o piattaforme che siano prive di certificazione CE e i relativi applicativi utilizzano “tecnologie web-based HTML5 per cui non necessitano di alcuna installazione lato client”. Dette applicazioni tecnologiche sono chiaramente illegittime per le ragioni già precisare al precedente paragrafo

3.3) in quanto contrarie ai principi di sicurezza delle cure previsto dalla Legge n. 24/2017, al Regolamento UE 2017/745 del Parlamento Europeo e del Consiglio del 5 aprile 2017 e alla Direttiva 98/34/CE. Inoltre, la tecnologia “basata sul web”, su cui “corrono” i dati sensibili dei pazienti, oltre ad essere insicura è facilmente compromettibile. La questione potrebbe qui limitarsi, ma per completezza della trattazione e per un personale interesse riguardo la materia, si segnala al lettore che nella premessa della “Guida all’utilizzo della piattaforma” viene testualmente precisato: “La piattaforma … è integrata con sistemi di intelligenza artificiale di parti terze basati su algoritmi non certificati pertanto sono da considerarsi esclusivamente come protocollo sperimentale a disposizione del medico radiologo per una valutazione e valutazione degli stessi”. In altri termini, l’Azienda ospedaliera avrebbe comprato (si auspica il contrario) detta attrezzatura non per fini diagnostici ma per poter sperimentare19 l’apparecchiatura a spese proprie e ad esclusivo vantaggio del venditore! L’art. 1, comma 3, del D. Leg. 30 marzo 2001, n. 165 “Norme generali sull’ordinamento del lavoro alle dipendenze delle amministrazioni pubbliche” stabilisce che il Sistema Sanitario Nazionale rientra nell’ambito dell’Amministrazione Pubblica sicché l’azione amministrativa deve essere sempre diretta al perseguimento degli obiettivi di efficienza, efficacia ed economicità così come previsto e delineato dalla Legge n. 241/90 e dall’art. 97 Cost. Sul punto poi, il Consiglio di Stato sez. VI, 13.12.2019 n. 8472 ha avuto modo di precisare che il ricorso ad algoritmi informatici per l’assunzione di decisioni che riguardano la sfera 19 Anche in mancanza del prescritto comitato etico pubblica e privata si fonda sui paventati guadagni in termini di efficienza e neutralità e deve essere soggetto alle verifiche tipiche di ogni scelta. L’algoritmo come funzione amministrativa, inerente una prestazione sanitaria, deve essere sempre identificabile e certificato, diversamente argomentando si potrebbe assumere che il catasto (giusto un’amministrazione pubblica a caso) potrebbe eseguire, in futuro, misurazione a spanne! E’ proprio questa la ragioni per cui le Raccomandazioni della Commissione 2015/2103INL prevedono l’istituzione ex ante di una banca dati degli algoritmi in modo che, scientemente, ad una situazione necessitante consegue una adeguata azione necessitata. L’abuso del termine “intelligenza artificiale”, ancorché evoca capacità e tecniche straordinarie delle apparecchiature ad esse connesse, ahimè, non è ancora in grado di superare le norme del buon senso.