Klinisk Biokemi i Norden Nr 2, vol. 17, 2005 - page 6

6
| 2 | 2005
Intet menneskes hjerne er i fuldt
omfang i stand til at begribe
nogen betragtelig mængde nume-
riske data. Sir Ronald A. Fisher
(1890-1962).
Fisher havde naturligvis ret, og
det er jo også derfor at vi inden-
for klinisk biokemi bruger mange
ressourcer på at beskrive, afbilde
og analysere data, fx resultater fra den rutinemæs-
sige kvalitetskontrol i laboratoriet, resultater af
undersøgelser af nye biokemiske analysers tekniske
kvaliteter eller kliniske anvendelsesmuligheder, og
resultater af eksperimentel forskning.
En god dataanalyse visualiserer informationen
i data og giver en aggregering af indholdet, som
kan udmøntes i entydige svar på de spørgsmål
man stillede sig, da man designede undersøgelsen.
Og da kliniske biokemikere er flittige og erfarne
dataanalytikere, er vi naturligvis også gode til det.
Eller er vi?
Både ja og nej. Jeg synes der findes en besynder-
lig polarisering indenfor specialet. Der er nogle, som
faktisk er ret skrappe, og så er der andre (og des-
værre nok de fleste), som i grunden ikke er ret gode.
Nogle har tillagt sig den bekvemme overbevisning,
at man langt hen af vejen jo kan klare sig udmærket
med simple værktøjer, og der findes endog nogle få
rabiate personer, som mener, at problemstillinger
der
ikke
kan formuleres i en simpel hypotese som
ikke
kan prøves med simple midler (fx en t-test eller
en
χ
²-test),
ikke
er relevante. Sådan!
Hyppigheden af dårlig dataanalysekvalitet undrer
mig, fordi der findes et væld af gode, lettilgæn-
gelige, moderne lærebøger i statistik, eller tilsva-
rende glimrende kapitler om emnet i alle større
lærebøger i klinisk biokemi, og derudover en
lang række udmærkede publikationer fra fx CEN
og NCCLS vedrørende håndteringen af forskellige
problemstillinger.
Udover at et begrænset kendskab til dataanaly-
tiske værktøjer medfører dårlige dataanalyser, så
synes jeg også det er synd, fordi det i sagens natur
begrænser folks indsigt i andres arbejder – og værst
at alt, måske, også begrænser folks kreativitet. Hvis
man ikke ved hvordan man kan analysere lidt kom-
plicerede datastrukturer, så kan man selvsagt heller
ikke designe undersøgelser, der producerer sådanne
data. Man har ingen matematisk-statistiske mo-
deller at bygge tingene op omkring.
Tag fx det eksempel, at man har en ny biokemisk
analyse, og gerne vil vide om den kan anvendes
til at skelne mellem to grupper af patienter, med
hvilken styrke den kan gøre det, og om dens evne
til at skelne er uafhængig af andre, velkendte bio-
kemiske analysers diskriminative egenskaber. Man
kan måske nok komme et stykke af vejen med
et design, der giver data til en 2 x 2 tabel, med
beregning af sandt positive, falsk positive etc., men
man kommer ikke i mål, hvis man ikke ved noget
om multivariat logistisk regression eller lignende
gængse værktøjer.
Med hensyn til aggregering af data, så er pudsigt,
at der indenfor vores område stadig findes meget
udbredt brug af p-værdier, og endog ofte i de mest
kondenserede former som fx ”p< 0,05” Alternativet,
som almindeligvis giver en langt mere informativ
aggregering af data, er parameterestimater med til-
hørende konfidensintervaller. Hvis man fx sammen-
ligner middelværdierne af en biokemisk variabel i to
patientgrupper, så er det da langt mere interessant
at få at vide hvor stor forskellen er, snarere end blot
at blive oplyst om, at den er ”statistisk signifikant
forskellig” (eller måske ikke er det).
Jeg vil til sidst fremhæve nogle særligt udfor-
drende dataanalyser, som vi ikke kan undgå at
skulle forholde os til i fremtiden (aktivt eller pas-
sivt), nemlig de der knytter sig brugen af moderne
molekylærbiologiske teknikker (arrays) og brugen
af laboratoriedata i registerforskning. Det er svært
stof, men det er vigtigt at kunne følge (bare nogen-
lunde) med, for at kunne forholde sig kritisk til
resultaterne. Det er nemlig nødvendigt.
Ulrik Gerdes
»Dataanalysekvalitetsudvikling, tak!«
Klinisk Biokemi i Norden
1,2,3,4,5 7,8,9,10,11,12,13,14,15,16,...44
Powered by FlippingBook