0.2 C
Rosendal
fredag, november 22, 2024

Buy now

spot_img
spot_img

Når kunstig intelligens passer på person­vernet, kan den være veien til bedre helsehjelp

Photo by Growtika on Unsplash

Innsikt i helsedata kan forandre spillereglene for forskning og pasientbehandling. Men veien dit er ikke uten hindringer.

Vi ønsker å utnytte helsedata for å gi bedre behandling og bruke ressursene bedre. Men det kolliderer ofte med strenge regler for å bruke helseopplysninger. Heldigvis finnes det teknologier som passer på dette. Vi kaller dem personvernfremmende teknologier. De åpner døren for sikker og effektiv analyse av helsedata.

En ny forskningsrapport fra Nasjonalt senter for e-helseforskning presenterer to slike teknologier: føderert læring og syntetiske data. 

Rapporten utforsker hvordan de to teknologiene kan løse problemet med tilgang til helsedata som holder høy kvalitet. Samtidig må det være nok data til at de kan brukes til forskning og tjenesteutvikling.


For mer informasjon om: Heartstart pakke


Helsedata: Strengt bevoktet gullgruve

Helsetjenesten produserer enorme mengder data. Hvis vi bruker denne informasjonen riktig, vil det kunne hjelpe forskningen. Dessuten kan informasjonen forbedre diagnostikk og sørge for at vi bruker ressursene i helsetjenesten på en smart måte. 

Kunstig intelligens (KI) har vist seg å være et kraftig verktøy for å analysere store mengder helsedata raskt og effektivt. Det gjelder spesielt maskinlæring.

Helseopplysninger er ikke bare verdifulle – de er også sensitive. Bruken er sterkt regulert. Det er vanskelig å få tilgang til helsedata for sekundærbruk. 

Å sørge for at reglene om personvern og datasikkerhet blir fulgt, tar mye tid og innsats. Det sier seniorrådgiver Alexandra Makhlysheva i avdeling for helsedata og analyse ved Nasjonalt senter for e-helseforskning. Hun er en av forfattere av rapporten.

Personvern og datasikkerhet gjør det vanskeligere å få tilgang til data å trene på og å spre bruken av KI i helse- og omsorgstjenesten. 

Personvernfremmende teknologier kan hjelpe til med å samle, behandle, analysere og dele data mens datasikkerhet og personvern ivaretas, sier Makhlysheva.


For mer informasjon om: Mini Anne


Samarbeid uten datalekkasje

Føderert læring er en type maskinlæring som lar oss analysere dataene der de allerede er lagret. Samtidig hindrer denne læringen at dataene blir sett av eller delt med andre.

Teknologien gir bedre kontroll over egne data, økt personvern og muligheten til å analysere større og mer representative datasett. Dette kan hjelpe til med å ta bedre beslutninger om behandling. Det kan gi bedre helsehjelp til pasientene, uavhengig av hvor de behandles eller hva de lider av.

Å bruke føderert læring gjør det også enklere å oppfylle kravene til hvordan data må behandles slik at prinsippene om personvern etterleves. 

Men teknologien fører med seg noen problemer. Blant annet er det ulikheter i dataformater og IKT-infrastrukturer i organisasjonene som skal samarbeide om dataanalyse. Læringen gir dessuten økt press på kommunikasjonssystemer. Den kan føre med seg risikoer for datasikkerheten.

– Det er utfordringer med å trygge dataene i alle systemer. Derfor er det viktig å ha et sikkert system for kommunikasjon. Det finnes også flere mekanismer som kan brukes for å styrke datasikkerheten og personvernet i fødererte systemer, kommenterer Makhlysheva.


For mer informasjon om: Wound Closure Pad


Realistiske, men anonyme alternativer

Syntetiske data er data som lages kunstig. De lages ved at en generativ modell for  maskinlæring trenes med reelle data. At modellen er generativ, vil si at den bruker læringen til å skape nytt innhold. 

Disse dataene beholder de statistiske egenskapene til det originale datasettet, men de inneholder ikke informasjon om faktiske pasienter.

Dette er nyttig når vi ikke har nok ekte treningsdata. Det gir oss større og mer representative datagrunnlag. Samtidig reduserer det risikoen for at noen kan finne ut hvem personene bak dataene er. I kombinasjon med andre personvernfremmende metoder kan syntetiske data redusere risikoen for brudd på personvernet.

Syntetiske data kan brukes i helse- og omsorgstjenesten til å utvikle modeller for  maskinlæring. Senere kan vi sjekke hvordan modellene fungerer opp mot reelle data. 

Det er også nyttig å dele slike data åpent. Slik kan flere bruke dem til forskning. Men det er ikke problemfritt å bruke syntetiske data. Det kan føre til nye skjevheter. Forskerne må passe på statistisk likhet med originale data og vurdere kostnadseffektivitet.

– Hvor nyttig det er å bruke syntetiske data i helse- og omsorgstjenesten, vil være forskjellig i ulike situasjoner. Vi må teste dem grundig for å være sikre på at de passer til det vi trenger. Samtidig må vi sikre at risikoen for brudd på personvernet er lav, sier Makhlysheva.


For mer informasjon om: Hjertevakten sin førstehjelpspute


Trenger bedre verktøy

Føderert læring og syntetiske data er gode verktøy for å beskytte personvernet når vi analyserer helsedata. For at disse teknologiene skal kunne brukes praksis, trenger vi mer forskning.

Vi trenger å forbedre verktøy og metoder og å teste dem ut i praksis. Da kan de virkelig oppnå sitt fulle potensial og hjelpe oss med å bruke KI på en trygg og nyttig måte i helsetjenesten.

Teknologiene skal kunne gjøre helse- og omsorgstjenesten bedre for alle – både enkeltpersoner, tjenesten og samfunnet generelt – men de må hele tiden utvikles videre, sier Alexandra Makhlysheva.


Referanse:

Nasjonalt senter for e-helseforskning

Alexandra Makhlysheva mfl.: Personvernfremmende teknologier for bruk av kunstig intelligens i helse- og omsorgstjenesten.  NSE-rapport 2023-04, 2023.

spot_img

Related Articles

annonsespot_img

Latest Articles

-annonse-spot_img