Sannolikhetsteori

Grunderna i sannolikhetslära

Här sammanfattas grunderna i sannolikhetsteorin. Dessutom visas kopplingen till mängdlära och till det systemteoretiska ramverket RARE-C-I/C-SIZE som bloggen bygger på.

Sidan är under konstruktion och inte färdigt redigerad.

  1. Utfallsrum. Ett slumpförsök beskrivs av ett utfallsrum Ω, som innehåller alla möjliga utfall.
  2. Händelser. En händelse är en delmängd av utfallsrummet. Händelser kan vara enkla (ett utfall) eller sammansatta (flera utfall).
  3. Sannolikhet. En sannolikhet är ett tal mellan 0 och 1 som anger hur sannolik en händelse är. P(A) = 0 betyder omöjlig, P(A) = 1 betyder säker.
  4. Normalisering. Sannolikheten för hela utfallsrummet är alltid 1: P(Ω) = 1.
  5. Additionsregeln. För två oförenliga händelser gäller: P(AB) = P(A) + P(B).
  6. Komplement. Sannolikheten att en händelse inte inträffar är: P(Ac) = 1 − P(A).
  7. Betingad sannolikhet. Sannolikheten för att händelsen A inträffar givet att B inträffat skrivs: P(AB) = P(AB) / P(B).
  8. Oberoende händelser Två händelser är oberoende om: P(AB) = P(A)*P(B). Då påverkar de inte varandras sannolikhet.
  9. Multiplikationsregeln. För godtyckliga händelser gäller: P(AB)=P(A)*P(BA).
  10. Slumpvariabler och fördelningar
    En slumpvariabel översätter utfall till tal. Dess fördelning beskriver hur sannolik varje möjlig nivå är, och sammanfattas ofta med mått som väntevärde och varians.

Detta är de minimala byggstenarna. Allt mer avancerat – tillämpningar inom statistik, inferens, maskininlärning, spelanalys – är i grunden förfiningar och tillämpningar av dessa tio punkter.

Bayes sats

Utöver de tio punkterna är det även värt att känna till Bayes sats. Den anger hur en uppfattning av en rationell bedömare bör uppdateras i ljuset av ny information.

För två händelser A och B med P(B) > 0 gäller P(AB) = P(BA)* P(A) / P(B).

  • P(A)prior. Vad bedömaren tror om A innan denne tagit del av någon ny information.
  • P(BA)likelihood. Hur sannolik observationen B är om A är sann.
  • P(B)evidens. Hur vanlig observationen B är totalt sett.
  • P(AB)Pposterior. Vad du bör tro om A efter att ha observerat B.

Innebörden av detta är att ny kunskap inte ersätter den gamla – den viktar om den.

I tillämpningar kan man alltså skilja mellan orsaker och observationer, vilket och gör att man kan undvika ett mycket vanligt tankefel, att glömma hur vanligt något är (s.k. base-rate neglect). Bayes sats är en viktig grund för statistisk inferens, diagnostik (medicin, juridik, riskbedömning), maskininlärning (Bayesianska modeller) och rationellt beslutsfattande under osäkerhet.

Kolmogorovs axiom

Hela den klassiska sannolikhetsteorin kan härledas ut bara tre axiom: att sannolikheter inte kan vara negativa, att något i utfallsrummet alltid inträffar och att sannolikheterna för parvis oförenliga händelser kan summeras även för oändliga serier. Allt annat är konsekvenser av dessa tre axiom, som formulerades av Andrej Kolmogorov 1933. De avgränsar vad sannolikhet är (inte intuition, inte frekvens – utan ett mått), de gör sannolikhetsläran matematiskt rigorös och de möjliggör koppling till måttteori, integration, stokastiska processer, m.m.


Mängdlära → sannolikhetslära

1. Utfallsrum = mängd

I mängdlära:

  • En mängd är en samling väldefinierade element.

I sannolikhetslära:

  • Utfallsrummet ΩΩ är en mängd av alla möjliga utfall.

Ω={ω1,ω2,}Ω={ω1​,ω2​,…}

Varje utfall ωω är ett element.


2. Händelser = delmängder

  • En händelse AA är en delmängd av ΩΩ:

AΩA⊆Ω

Mängdlärans operationer blir sannolikhetslära:

  • Union ABAB → “A eller B”
  • Snitt ABAB → “A och B”
  • Komplement AcAc → “inte A”
  • Tom mängd ∅ → omöjlig händelse

3. σ-algebra = tillåtna händelser

Alla delmängder får inte automatiskt sannolikhet (i kontinuerliga fall).

Därför införs en struktur:

  • FP(Ω)F⊆P(Ω)
  • FF är en σ-algebra:
    • innehåller ΩΩ
    • sluten under komplement
    • sluten under räknebara unioner

4. Sannolikhet = mått på mängder

Kolmogorovs genidrag:

Sannolikhet är ett mått på en mängd.

P:F[0,1]P:F→[0,1]

Precis som längd, area eller volym – men normaliserat till 1.


Kolmogorovs axiom i mängdläretermer

  1. Icke-negativitetP(A)0fo¨r alla AFP(A)≥0 för alla A∈F
  2. NormaliseringP(Ω)=1P(Ω)=1
  3. σ-additivitet
    För parvis disjunkta mängder:P ⁣(i=1Ai)=i=1P(Ai)P(i=1⋃∞​Ai​)=i=1∑∞​P(Ai​)

Detta är exakt måttteori på en σ-algebra.


Vad detta betyder konceptuellt

  • Mängdlära ger språket
  • σ-algebran ger tillåtna frågor
  • Sannolikhetsmåttet ger kvantifiering av osäkerhet
  • All vidare sannolikhetslära är härledd struktur

Sammanfattning

Sannolikhetslära är mängdlära + ett mått med särskilda egenskaper. Kolmogorovs axiom säger inte hur världen fungerar, utan hur man konsekvent räknar på osäkerhet.


Grundläggande och formella referenser

  1. Grundbegriffe der Wahrscheinlichkeitsrechnung – Andrej Kolmogorov
    Ursprungsverket.
    Introducerar axiomen som gör sannolikhet till ett mått på en σ-algebra. All modern sannolikhetslära bygger på detta.
  2. Probability: Theory and Examples – Rick Durrett
    Standardverk för matematisk sannolikhetslära. Visar hur axiomen används i praktiken.

Klassiska läroböcker

  1. A First Course in Probability – Sheldon Ross
    Mycket tydlig introduktion. Bra brygga mellan intuition och formalism.
  2. An Introduction to Probability Theory and Its Applications – William Feller
    Klassikern. Bygger intuition utan att bli slapp. Historiskt viktig.

Bayes, inferens och epistemologi

  1. Probability Theory: The Logic of Science – E T Jaynes
    Bayesiansk sannolikhet som rationell inferens. Filosofiskt klar och stringent.
  2. Bayesian Data Analysis – Andrew Gelman
    Modern standard för Bayesiansk statistik. Mindre axiom, mer tillämpning.

Relationen till statistik och vetenskap

  1. The Theory of Probability – Harold Jeffreys
    Tidig systematisk Bayesiansk teori. Viktig för förståelsen av priorer.
  2. Bruno de Finetti (artiklar, bl.a. Theory of Probability)
    Subjektiv sannolikhet, koherens och bettingargument. Kontrast till Kolmogorov.

Koppling till RARE-C-I och C-SIZE

1. Grundantagande (gemensam botten)

Sannolikhetslära enligt Kolmogorov säger:

Osäkerhet kan representeras konsekvent som ett mått på mängder av möjliga tillstånd.

RARE-C-I och C-SIZE förutsätter exakt detta:

  • verksamheten befinner sig i ett tillstånd bland flera möjliga
  • styrning sker genom urval under osäkerhet
  • information reducerar osäkerhet, aldrig eliminerar den

Detta är den gemensamma epistemiska basen.


2. Utfallsrum = möjliga systemtillstånd

I sannolikhetslära:Ω={ω1,ω2,}Ω={ω1​,ω2​,…}

I RARE-C-I:Ω={mo¨jliga kombinationer av (R1,A,R2,E)}Ω={möjliga kombinationer av (R1,A,R2,E)}

Varje “läge” i verksamheten är ett element i utfallsrummet.
Planering och styrning handlar om att förflytta sannolikhetsmassa mellan dessa tillstånd.


3. Händelser = meningsfulla aggregeringar

En händelse AΩA⊆Ω motsvarar t.ex.:

  • “Måluppfyllelse över tröskel”
  • “Kritisk resursbrist”
  • “Acceptabel effekt givet budget”

RARE-C-I anger vilka delmängder som är relevanta att definiera som händelser.


4. I(RARE) = sannolikhetsfördelning

I(RARE) är inte “mer data” utan:

information som ändrar sannolikhetsfördelningen över ΩΩ

Detta är direkt kompatibelt med:

  • Kolmogorovs mått
  • Bayesiansk uppdatering

5. C-SIZE som sannolikhetsmaskin

C_sen (Sensor)

  • Observerar BB: data, signaler, indikatorer
  • Producerar observationer med osäkerhet

C_int (Integrator)

  • Håller modellen MM
  • Beräknar:

P(ΩI)P(Ω∣I)

Detta är Bayesiansk uppdatering i praktiken.

C_zel (Selector)

  • Väljer åtgärd AA som maximerar förväntad effekt:

argmaxA  E[EA,I]argAmax​E[EA,I]

C_exe (Exekutor)

  • Realiserar åtgärden → nytt tillstånd i ΩΩ

C-SIZE är en operationaliserad Bayes-loop.


6. RARE-kedjor = stokastiska övergångar

Övergången:(R1,A)R2E(R1​,A)→R2​→E

är inte deterministisk.

Den beskrivs bättre som:P(R2,ER1,A)P(R2​,ER1​,A)

RARE-C-I erkänner därmed implicit:

  • slumpvariation
  • exogena störningar (Od)
  • modellfel

7. Kontroll = sannolikhetsstyrning

C påverkar inte E direkt, utan:

  • resurstilldelning
  • aktivitetsval
  • informationsflöden

Detta ändrar fördelningen över möjliga effekter, inte utfallet i sig.

Detta är exakt Kolmogorovs syn: styrning kan aldrig vara säker, bara koherent.


8. Entropi och variety (bindande länk)

Här möts sannolikhetslära och systemteori:

  • Entropi H(Ω)H(Ω) mäter osäkerhet i tillståndsfördelningen
  • Styrning syftar till att minska relevant osäkerhet
  • Men enligt W. Ross Ashby krävs tillräcklig variety i C

Formellt:

  • för låg informationsupplösning → ineffektiv C_int
  • för låg handlingsvariety → ineffektiv C_zel

9. Vad RARE-C-I tillför sannolikhetsläran

Kolmogorov/Bayes är formella, men innehållslösa.

RARE-C-I:

  • specificerar vilka variabler som är meningsfulla
  • strukturerar ΩΩ
  • definierar vad som är relevant information

Det är en ontologisk ram ovanpå en epistemisk teori.


10. Sammanfattande sats

RARE-C-I och C-SIZE förutsätter sannolikhetsteori i Kolmogorovs mening. Systemets tillstånd utgör ett utfallsrum, information ändrar sannolikhetsfördelningar över detta rum, och styrning består i att – via C-funktionerna – selektivt påverka dessa fördelningar. Bayesiansk uppdatering är därmed inte ett tillval utan en implicit del av modellens funktionslogik.

Formell ekvation

Låt systemets tillstånd vid tid tt varaXt:=(R1,t,At,R2,t,Et,Ot)Xt​:=(R1,t​,At​,R2,t​,Et​,Ot​)

där OtOt​ fångar omgivning/exogena faktorer (inkl. OdOd​).

Låt sensorn ge en observation YtYt​ (indikatorer, mätvärden, signaler).

(1) Sensor + Integrator: Bayesiansk tillståndsuppdatering

πt(x)  :=  P(Xt=xy1:t)πt​(x):=P(Xt​=xy1:t​)    πt(x)    P(ytx)xP(xx,ut1)πt1(x)    πt​(x)∝P(yt​∣x)x′∑​P(xx′,ut−1​)πt−1​(x′)​

  • P(ytx)P(yt​∣x): observationsmodell (C_sen → C_int)
  • P(xx,ut1)P(xx′,ut−1​): övergångsmodell (RARE-kedjans stokastik + exogent)
  • ut1ut−1​: vald styrsignal/åtgärd (C_zel → C_exe)
  • πtπt​: integratorns posterior över möjliga RARE-tillstånd

Detta är “I(RARE)→M→uppdaterad tro” i ett enda uttryck.


(2) Selector: val som maximerar förväntad nytta/effekt

Låt nyttan (värderingsfunktionen) vara U(x,u)U(x,u) eller mer direkt “effekt” EE i din mening.    utargmaxuU  EXtπt ⁣[U(Xt,u)]    ut​∈argu∈Umax​EXt​∼πt​​[U(Xt​,u)]​

Vill du ha längre horisont (policy):utargmaxu  E ⁣[k=0γkU(Xt+k,ut+k)πt]ut​∈argumax​E[k=0∑∞​γkU(Xt+k​,ut+k​)​πt​]

(γγ = diskontering; kan sättas =1=1 för “ingen diskontering” om du vill hålla det neutralt.)


(3) Executor + RARE-dynamik: realiserad övergång

Efter exekvering realiseras nästa tillstånd enligtXt+1P(Xt,ut)Xt+1​∼P(⋅∣Xt​,ut​)

och loopen fortsätter.


Minimal tolkning

C_sen ger yt    C_int uppdaterar P(Xty1:t)    C_zel va¨ljer ut    C_exe ger Xt+1.C_sen ger yt⇒C_int uppdaterar P(Xty1:t)⇒C_zel v väljer ut⇒C_exe ger Xt+1.


Formell definition

Låt ΩΩ vara en mängd (utfallsrum).
En σ-algebra FF över ΩΩ är en samling delmängder av ΩΩ som uppfyller:

  1. Hela rummet ingår

ΩFΩ∈F

  1. Slutenhet under komplement

AF    AcFA∈F⇒Ac∈F

  1. Slutenhet under räknebara unioner

A1,A2,F    i=1AiFA1​,A2​,⋯∈F⇒i=1⋃∞​Ai​∈F

(Därav σ = “räknebar”.)


Intuition

En σ-algebra är:

mängden av alla frågor om systemet som det är meningsfullt att sätta sannolikhet på.

Inte fler. Inte färre.


Sidan uppdaterad 2026-04-16