Tech-News

AI nella sanità: il Garante della Privacy pubblica un decalogo di regole

L’intelligenza artificiale nella sanità potrebbe portare nuovi e inaspettati progressi nel campo della medicina, ma riserva anche alcuni possibili effetti rischiosi di cui tenere conto. È su questi rischi che si concentra l’approccio del Garante delle Privacy che ha pubblicato un decalogo riguardante l’utilizzo dell’Ai negli ospedali e negli istituti per la salute. Trasparenza dei processi decisionali, decisioni automatizzate supervisionate dall’uomo, non discriminazione algoritmica: questi i tre principi cardine promossi dall’autorità italiana, diventata uno dei primi enti al mondo a sottoscrivere una serie di norme per l’intelligenza artificiale nella sanità.

Diritti per i pazienti

Il processo decisionale in campo medico, realizzato con l’intelligenza artificiale, dovrà prevedere una supervisione umana che consenta al personale sanitario di controllare, validare o smentire l’elaborazione effettuata dagli strumenti informatici. È opportuno, avverte il Garante, che il titolare del trattamento utilizzi sistemi di AI affidabili che riducano gli errori dovuti a cause tecnologiche o umane e ne verifichi periodicamente l’efficacia, mettendo in atto misure tecniche e organizzative adeguate. In pratica, se uno studio medico vuole affidarsi a prognosi e diagnosi compilate dalla nuova tecnologia, dovrà effettuare un controllo costante sulle decisioni prese. Anche se ChatGpt è stato indicato in alcune ricerche come maggiormente comprensivo dei dottori in carne e ossa, è sempre necessaria una supervisione da parte di un professionista umano.

AI e protezione dei dati e della privacy

Particolare attenzione è stata posta dal Garante all’idoneità della base giuridica per l’uso dell’intelligenza artificiale. Il trattamento di dati sulla salute attraverso tecniche di AI, effettuato per motivi di interesse pubblico in ambito sanitario, dovrà essere previsto da uno specifico quadro normativo, che individui misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi degli interessati. Ciò anche allo scopo di mitigare potenziali effetti discriminatori che un trattamento di dati inesatti o incompleti potrebbe comportare sulla salute della persona. Un sistema centralizzato nazionale che utilizzi la tecnologia determina infatti un trattamento sistematico su larga scala di dati sanitari che rientra tra quelli ad “alto rischio”, per i quali la valutazione d’impatto è obbligatoria e deve essere svolta a livello centrale per consentire un esame complessivo sull’adeguatezza e omogeneità degli accorgimenti adottati.

Garante della Privacy: il decalogo per l’intelligenza artificiale

Il testo promosso dal Garante, intitolato Decalogo per la realizzazione di servizi sanitari nazionali attraverso sistemi di intelligenza artificiale, si divide nei seguenti punti: basi giuridiche del trattamento; principi di accountability e di privacy by design e by default in base al principio della protezione dei dati fin dalla progettazione; individuazione chiara dei ruoli di titolare e responsabile del trattamento dei dati dei pazienti; principi di conoscibilità, non esclusività e non discriminazione algoritmica; valutazione d’impatto sulla protezione dei dati; qualità dei dati; integrità e riservatezza; correttezza e trasparenza; supervisione umana e ulteriori profili rispetto alla disciplina sulla protezione dei dati personali connessi alla dignità e all’identità personale. Grazie a questo decalogo, l’Italia si attesta come una delle prime nazioni al mondo che vuole provare a regolare l’ingresso dell’intelligenza artificiale nella sanità, pubblica e non solo. Un percorso necessario oggi che nemmeno i massimi esperti di AI sanno quale futuro aspetta la nuova tecnologia e a quale livello di autonomia potrà arrivare.


AI nella sanità: il Garante della Privacy pubblica un decalogo di regole - Ultima modifica: 2023-10-20T23:19:19+00:00 da Andrea Indiano

Giornalista con la passione per il cinema e le innovazioni, attento alle tematiche ambientali, ha vissuto per anni a Los Angeles da dove ha collaborato con diverse testate italiane. Ha studiato a Venezia e in Giappone, autore dei libri "Hollywood Noir" e "Settology".

Recent Posts

Spoofing, cos’è il nuovo attacco hacker

Dalle email ai call center fasulli, cresce l’uso dello spoofing per truffare utenti e aziende.…

2 ore ago

HP guida la trasformazione del futuro: AI e personalizzazione per il nuovo paradigma tecnologico

HP ridisegna il futuro del lavoro con l’AI: nuove soluzioni personalizzate migliorano la relazione con…

3 giorni ago

Zyxel Networks: la nuova serie USG FLEX H unifica cloud e on-premise

La nuova serie Zyxel USG FLEX H ridefinisce la strategia di sicurezza per PMI e…

5 giorni ago

Fortinet SMB Summit: la cybersecurity per accrescere la competitività

Il Fortinet SMB Summit raddoppia e conferma della cybersecurity per le PMI italiane. Soluzioni integrate,…

1 settimana ago

Lidar e AI si uniscono per ridurre i rischi sulle strade verso una mobilità più sicura

Gli strumenti con laser e l’intelligenza artificiale possono contribuire a diminuire il numero di incidenti…

1 settimana ago

AI: Accordo Gruppo E e Araneum Group per portare l’intelligenza artificiale italiana a un nuovo livello

Il Gruppo E stringe un accordo strategioi in ambito AI: con Araneum Group per il…

2 settimane ago

Digitalic © MMedia Srl

Via Italia 50, 20900 Monza (MB) - C.F. e Partita IVA: 03339380135

Reg. Trib. Milano n. 409 del 21/7/2011 - ROC n. 21424 del 3/8/2011