Klinisk Biokemi i Norden Nr 3, vol. 15, 2003 - page 10

flera olika typer av perceptronsnätverk tillgängliga.
Ungefär 90 procent av alla neurala nätverk i klinisk
medicin är av typen MLP.
Den artificiella neuronen
MLP:s beståndsdelar kallas neuroner. Terminologin
härstammar från neurobiologin, men i praktiken är
likheten mellan den artificiella och biologiska neuro-
nen liten. Den artificiella neuronen består av en sum-
meringsdel och en aktiveringsdel (Figur 3). Ingångs-
variablerna (i1-i3) multipliceras med optimerade vikt-
parametrar (w1-w3) och produkterna summeras.
Neuronens utgångsvärde fås genom att summan
transformeras med en aktiveringsfunktion. Moderna
perceptroner använder kontinuerliga sigmoidala akti-
veringsfunktioner, t.ex. logitfunktionen som transfor-
merar utgångsvärdet till ett värde mellan 0 och 1. Den
artificiella neuronen liknar en regressionsmodell. Om
aktiveringsfunktionen är en rät linje motsvarar neuro-
nen linjär regression, medan den liknar logistisk
regression om aktiveringsfunktionen är S-formad.
Precis som i regressionsanalys används en felkonstant
för att optimera prediktionen.
Flera neuroner bildar ett nätverk
Genom att förena flera neuroner är det möjligt att
identifiera komplexa funktioner och interaktioner
mellan variablerna (Figur 4). Det här kallas för MLP
och kan ses som en kombination av flera logistiska
regressionsmodeller. I en normal MLP-struktur är
neuronerna ordnade i lager så att neuroner i ett lager
inte kommunicerar sinsemellan. Varje neuron i ett
lager sänder sitt utgångsvärde till alla neuroner i
följande lager. Antalet neuroner och lager kan väljas
fritt av den som konstruerar nätverket. Utgångslagret,
som producerar nätverksresponsen, består oftast av
en neuron men kan ha flera neuroner om utgångsva-
riabeln är kategorisk (t.ex. en tumörs differentierings-
grad). I logistisk regression optimeras ett parameter-
värde för varje förklarande variabel samt en felkon-
stant. MLP möjliggör inkludering av fler parametrar.
I figur 4 motsvarar varje pil en parameter och model-
len innehåller alltså 21 parametrar. En motsvarande
regressionsmodell skulle innehålla bara 4 parametrar
(jfr parametrarna a, b, c och d i figur 1). Därför kan
en MLP-modell anpassa sig till mer komplicerade
olinjära relationer mellan variablerna.
Träning av MLP
För att träna, eller optimera, MLP behövs tränings-
data med patienter som har kända värden för
utgångsvariabeln (t.ex. vetskap om patienten har
cancer eller inte). Träningen görs för att få optimala
värden för nätverkets parametrar. Parametrarna (w
och b i Figur 3) optimeras så att utgångsvärdet lig-
ger så nära det korrekta värdet som möjligt.
Optimeringen görs med speciella dataprogram som
startar med slumpvärden för alla parametrar och
sedan stegvis ändrar parametervärdena för att mini-
mera felsumman (kvadratsumman av skillnader
mellan predikterade värden och korrekta värden).
Det faktum att ett neuralnätsdataprogram kan inne-
hålla ett tiotal olika optimeringsmetoder ger en vink
om att optimeringen är problematisk. Vanliga steg-
10
| 3 | 2003
Klinisk Biokemi i Norden
(Fortsat fra side 9)
Figur 3.
Figur 4
1,2,3,4,5,6,7,8,9 11,12,13,14,15,16,17,18,19,20,...44
Powered by FlippingBook