KMD i opråb: Tænk etikken ind på sundhedsdataområdet
Politisk regulering af kunstig intelligens kommer ikke i morgen. Alle aktører må sikre, at databrug altid forholder sig til de indbyggede, etiske dilemmaer, skriver Lars Kornerup.
Lars Kornerup, direktør for sundhed og social i KMD.
Publiceret:
08. september 2023
Teknologitoget buldrer af sted i sundhedsvæsenet.
Med digitaliseringsministerens forventning til, at regulering af kunstig intelligens er flere år ude i fremtiden, er vi nødt til at tage hul på en afgørende debat.For hvor synes vi som samfund, myndigheder, virksomheder, offentligt ansatte og som borgere, at grænsen går, når vi taler om dataetik?
Selvom vi i fællesskab er nødt til at finde svaret på det store spørgsmål, er vi hos KMD ikke i tvivl om, at databrug og datasikkerhed altid skal have forholdt sig kritisk til de indbyggede, etiske dilemmaer.
Dilemmaet er ikke om vi vil bruge teknologien eller ej. Dilemmaet er, hvordan vi bruger teknologierne, så vi kan fastholde eller højne den offentlige service, uden at tabe vores menneskelighed i processen.
Sikrer bedre diagnosticering
Sundhedsvæsenet oplever en rivende udvikling med brugen af teknologi, som sammen med offentligt ansatte blandt andet sikrer bedre diagnosticering og planlægning af vagtplaner og patientforløb.Med digitaliseringen, som tager til på sundhedsområdet, er vi nødt til at diskutere spændingsfeltet mellem de teknologiske muligheder og etik og moral.
Tag Region Hovedstaden, hvor kunstig intelligens hjælper sygeplejersker og paramedicinere med at opdage flere hjertestop i tide, når borgerne ringer 112.
Modellen fungerer som en støtte til personalet, men da den er bedre og hurtigere til at identificere hjertestop, og da den med allerede-eksisterende teknologi vil kunne føre samtaler med borgerne, er vi så klar til at slippe kontrollen og lade modellen tage over?
Modellen vil lave fejl. Den bliver ikke bedre end dens data. Den vil formentlig begå færre fejl end de menneskelige visitatorer, men den etiske overvejelse vil stadigvæk være tilstede:
Kan vi acceptere, at en teknologi risikerer at slå et enkelt menneske ihjel, selvom den samme teknologi redder hundrede eller ligefrem tusinder?
Lægger op til debat
Debatten om dataetik bliver kun mere interessant, hvis vi ser nærmere på MIT’s eksperiment med The Moral Machine, som understøttede diskussionen omkring selvkørende biler og de valg, som bilerne skal tage.MIT byggede et onlinedilemmaspil, hvor spilleren blandt andet skulle beslutte, om spilleren ville ofre sig selv ved at køre ind i en betonblok for at redde en fodgænger. Eller vælge mellem at påkøre et barn eller en gravid.
Med næsten 40 millioner svar fra over 230 lande var resultaterne interessante: Deltagerne valgte i toppen – ikke overraskende – at redde børn i klapvogne efterfulgt af børn, gravide og læger. Derimod var der i bunden flere, der ville redde en hund end en kriminel.
I det offentlige sundhedsvæsen kommer vi i stigende grad til at skulle tage svære beslutninger om prioriteringer. Hvilke parametre, skal vi gøre det ud fra? Eksperimentet lægger op til, at vi skal rette blikket mod, hvilke data som teknologierne bygger på og – måske endnu vigtigere – ikke bygger på. Og den bias, som er indbygget i os alle sammen – og dermed også bliver overført til maskinerne, som dermed kan diskriminere mindretallet.
Én ting skal vi huske: Teknologier bliver ikke klogere end de data og den kode, som vi mennesker fodrer dem med.
Får vi aldrig taget hul på den dataetiske debat, efterlader det os mennesker såvel som teknologien på perronen.
Vil I vide mere?

Vil I gerne høre mere om jeres muligheder inden for social- og sundhedsområdet? Så kontakt os, og lad os sammen se på, hvilke fordele I kan opnå.
Kontakt
Mere om sundhed og social
Få det fulde overblik over vores løsninger til sundhed og social.
Hold dig opdateret
Tilmeld dig vores nyhedsbrev og få de seneste nyheder, indsigter og invitationer fra social- og sundhedssektoren direkte i din indbakke.
Tilmeld dig her