Seleziona la lingua

Italian

Down Icon

Seleziona Paese

America

Down Icon

6 linee guida sulla sicurezza dell'intelligenza artificiale per le organizzazioni sanitarie

6 linee guida sulla sicurezza dell'intelligenza artificiale per le organizzazioni sanitarie
1. Distribuire un'istanza privata di uno strumento di intelligenza artificiale

Per proteggere l'intelligenza artificiale negli ospedali, Pete Johnson, CTO del settore intelligenza artificiale di CDW , raccomanda di utilizzare una soluzione interna che consenta a medici e altro personale di sperimentare un'app di chat basata sull'intelligenza artificiale senza esporre i dati al pubblico. Le organizzazioni possono anche lavorare con un modello pubblico che garantisca le opportune tutele della privacy.

"Tutti i Big Three hyperscalerAmazon , Microsoft eGoogle – hanno nei loro accordi sulla privacy dei dati che non utilizzeranno i tuoi contenuti prompt per riaddestrare i modelli", afferma Johnson. "In questo modo, sei protetto anche se non hai quel programma di intelligenza artificiale in locale. Se lo usi nel cloud, l'accordo sulla privacy dei dati garantisce che non utilizzeranno i tuoi dati per riaddestrare i modelli".

2. Stabilire un piano d'azione in caso di attacco

Un piano d'azione dovrebbe specificare cosa fare in caso di violazione dei dati o di diffusione di un'e -mail di phishing di massa in un tentativo di frode finanziaria.

"È estremamente importante che i professionisti IT comprendano esattamente quali sono queste nuove superfici di attacco e come si presentano, per poi iniziare a costruire un framework per affrontarle", afferma Hawking. "Questo include tutto – l'hardware, il software e l'architettura IT vera e propria – ma anche le policy e le normative in vigore per affrontare queste problematiche".

ESPLORA: Rispondi alle preoccupazioni relative a fiducia e privacy per supportare l'adozione su larga scala dell'intelligenza artificiale nel settore sanitario.

3. Fare piccoli passi verso l'implementazione dell'intelligenza artificiale

Quando le organizzazioni sanitarie sperimentano l'intelligenza artificiale, dovrebbero iniziare in piccolo. Ad esempio, possono utilizzare l'ascolto ambientale e la documentazione intelligente per ridurre il carico di lavoro di medici e operatori sanitari.

"Non prendete l'intero patrimonio di dati e rendetelo disponibile a un bot di intelligenza artificiale. Piuttosto, siate molto prescrittivi sui problemi che state cercando di risolvere", afferma Johnson.

4. Utilizzare gli account aziendali con strumenti di intelligenza artificiale

Hawking mette in guardia dall'utilizzare account di posta elettronica personali per evitare di creare punti di accesso per la condivisione di dati che potrebbero essere utilizzati per addestrare modelli senza consenso.

5. Strumenti di intelligenza artificiale veterinaria, indipendentemente da dove vengano utilizzati

Hawking raccomanda inoltre alle organizzazioni di creare un team di supervisione per valutare gli strumenti di intelligenza artificiale. Il team potrebbe includere stakeholder come il reparto IT, i medici e persino i rappresentanti dei pazienti.

"Non significa bloccare tutta l'intelligenza artificiale, ma capire esattamente cosa viene utilizzato e perché viene utilizzato", afferma Hawking.

PROSSIMO: Strategie di governance dei dati basate sull'intelligenza artificiale che ti prepareranno al successo.

6. Eseguire una valutazione completa dei rischi e un audit completo

Una valutazione approfondita dei rischi consente alle organizzazioni sanitarie di identificare i rischi di conformità normativa e di sviluppare politiche e procedure per l' uso dell'intelligenza artificiale generativa .

"È davvero importante, nell'ambito di un audit sull'intelligenza artificiale, avere una panoramica completa di come avvengono tutti questi processi", afferma Hawking. "Questo è il punto di partenza di una buona governance".

healthtechmagazine

healthtechmagazine

Notizie simili

Tutte le notizie
Animated ArrowAnimated ArrowAnimated Arrow