matheraum.de
Raum für Mathematik
Offene Informations- und Nachhilfegemeinschaft

Für Schüler, Studenten, Lehrer, Mathematik-Interessierte.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Hochschulmathe
  Status Uni-Analysis
    Status Reelle Analysis
    Status UKomplx
    Status Uni-Kompl. Analysis
    Status Differentialgl.
    Status Maß/Integrat-Theorie
    Status Funktionalanalysis
    Status Transformationen
    Status UAnaSon
  Status Uni-Lin. Algebra
    Status Abbildungen
    Status ULinAGS
    Status Matrizen
    Status Determinanten
    Status Eigenwerte
    Status Skalarprodukte
    Status Moduln/Vektorraum
    Status Sonstiges
  Status Algebra+Zahlentheo.
    Status Algebra
    Status Zahlentheorie
  Status Diskrete Mathematik
    Status Diskrete Optimierung
    Status Graphentheorie
    Status Operations Research
    Status Relationen
  Status Fachdidaktik
  Status Finanz+Versicherung
    Status Uni-Finanzmathematik
    Status Uni-Versicherungsmat
  Status Logik+Mengenlehre
    Status Logik
    Status Mengenlehre
  Status Numerik
    Status Lin. Gleich.-systeme
    Status Nichtlineare Gleich.
    Status Interpol.+Approx.
    Status Integr.+Differenz.
    Status Eigenwertprobleme
    Status DGL
  Status Uni-Stochastik
    Status Kombinatorik
    Status math. Statistik
    Status Statistik (Anwend.)
    Status stoch. Analysis
    Status stoch. Prozesse
    Status Wahrscheinlichkeitstheorie
  Status Topologie+Geometrie
  Status Uni-Sonstiges

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
StartseiteMatheForenUni-StochastikBeweis Varianz von Summe
Foren für weitere Schulfächer findest Du auf www.vorhilfe.de z.B. Geschichte • Erdkunde • Sozialwissenschaften • Politik/Wirtschaft
Forum "Uni-Stochastik" - Beweis Varianz von Summe
Beweis Varianz von Summe < Stochastik < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Stochastik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Beweis Varianz von Summe: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 20:27 Sa 21.07.2018
Autor: Hela123

Aufgabe
Sei [mm] (\Omega,A, [/mm] P) ein Wahrscheinlichkeitsraum und seien [mm] X, Y, X_1,..., X_n \in L^2(P) [/mm] reelle Zufallsvariablen, für die das zweite Moment existiert.

Zeige, dass gilt:

[mm]Var(\summe_{i=1}^{n} X_{i}) = \summe_{i=1}^{n} Var(X_{i}) + \summe_{i,j=1, i\not= j}^{n} Cov(X_{i},X_{j}) [/mm]



Hallo Forum,

ich habe folgenden Beweis hierzu gefunden und kann ihn aber nicht ganz nachvollziehen:

[mm]Var(\summe_{i=1}^{n} X_{i}) = E(\summe_{i=1}^{n} X_{i} - E(\summe_{i=1}^{n} (X_{i})^2))[/mm]
         [mm]= E(\summe_{i=1}^{n} X_{i} - E(X_{i})^2))[/mm]
         [mm]= E(\summe_{i=1}^{n} X_{i} - E(X_{i})\summe_{j=1}^{n} X_{j} - E(X_{j}))[/mm]
         [mm]= E(\summe_{i=1}^{n} (X_{i} - E(X_{i}))^2 + \summe_{i,j=1, i\not= j}^{n}X_{i} - E(X_{i}) * X_{j} - E(X_{j})[/mm]
         [mm]= \summe_{i=1}^{n} Var(X_{i}) + 2 \summe_{i          [mm]= \summe_{i=1}^{n} Var(X_{i}) + \summe_{i,j=1, i\not= j}^{n} Cov(X_{i},X_{j}) [/mm]

1. Ist der Beweis korrekt?

2. Ich verstehe nicht den Übergang von 1. in die 2. Zeile. Warum können wir die Summe weglassen?
Der Übergang 2 zu 3 ist mir auch nicht klar: Woher kommt auf einmal j usw?
Weitere Umformungen sind mir demensprechend auch etwas schleierhaft...

Schönen Dank im Voraus!
Hela123


        
Bezug
Beweis Varianz von Summe: Antwort
Status: (Antwort) fertig Status 
Datum: 15:49 So 22.07.2018
Autor: Gonozal_IX

Hiho,

> ich habe folgenden Beweis hierzu gefunden und kann ihn aber
> nicht ganz nachvollziehen:
>  
> [mm]Var(\summe_{i=1}^{n} X_{i}) = E(\summe_{i=1}^{n} X_{i} - E(\summe_{i=1}^{n} (X_{i})^2))[/mm]

Hier müsste das Quadrat und  die Klammer vertauscht werden, damit es stimmt.

Machen wir es mal langsam: Setzen wir [mm] $Z=\summe_{i=1}^n X_i$, [/mm] dann erhalten wir:

$Z - E(Z)$
$= [mm] \summe_{i=1}^n X_i [/mm] - [mm] E\left(\summe_{i=1}^n X_i\right)$ [/mm]
$= [mm] \summe_{i=1}^n X_i [/mm] - [mm] \summe_{i=1}^n E(X_i)$ [/mm]
$= [mm] \summe_{i=1}^n \left(X_i - E(X_i)\right)$ [/mm]

Nun erhalten wir damit:

[mm] $\text{Var}\left(\summe_{i=1}^n X_i\right) [/mm] = [mm] \text{Var}(Z) [/mm] = [mm] E\left[(Z - E(Z))^2\right]$ [/mm]
$= [mm] E\left(\left[\summe_{i=1}^n \left(X_i - E(X_i)\right)\right]^2\right)$ [/mm]

Setzen wir jetzt [mm] $Z_i [/mm] = [mm] X_i [/mm] - [mm] E(X_i)$ [/mm] können wir das schreiben als

$= [mm] E\left(\left[\summe_{i=1}^n Z_i \right]^2\right)$ [/mm]

Es wird also eine Summe quadriert. Und du kannst dir überlegen, dass wenn du die Summe quadrierst, bekommst du quadratische Terme und Mischterme, d.h. mathematisch kürzer aufgeschrieben, gilt:

[mm] $\left[\summe_{i=1}^n Z_i \right]^2 [/mm] = [mm] \summe_{j=1}^n Z_i^2 [/mm] + [mm] \summe_{\substack{i=j=1 \\ i\not=j}}^n Z_iZ_j$ [/mm]

Setzt du jetzt die Definition von [mm] $Z_i$ [/mm] wieder ein, kannst du normal mit deinem Beweis weitermachen.

Wenn du den Beweis verstanden hast, zeige ich dir einen deutlich kürzeren.....

Gruß,
Gono

Bezug
                
Bezug
Beweis Varianz von Summe: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 16:35 So 22.07.2018
Autor: Hela123

Hallo Gono,

vielen vielen Dank für deine (wie immer) sehr hilfreiche Antwort!

> Hier müsste das Quadrat und  die Klammer vertauscht
> werden, damit es stimmt.

Stimmt!

> Machen wir es mal langsam: Setzen wir [mm]Z=\summe_{i=1}^n X_i[/mm],
> dann erhalten wir:
>  
> [mm]Z - E(Z)[/mm]
> [mm]= \summe_{i=1}^n X_i - E\left(\summe_{i=1}^n X_i\right)[/mm]
>  [mm]= \summe_{i=1}^n X_i - \summe_{i=1}^n E(X_i)[/mm]
>  
> [mm]= \summe_{i=1}^n \left(X_i - E(X_i)\right)[/mm]

Das verstehe ich, wir können beide Summanden quasi unter eine Summe ziehen.

> Nun erhalten wir damit:
>  
> [mm]\text{Var}\left(\summe_{i=1}^n X_i\right) = \text{Var}(Z) = E\left[(Z - E(Z))^2\right][/mm]
>  
> [mm]= E\left(\left[\summe_{i=1}^n \left(X_i - E(X_i)\right)\right]^2\right)[/mm]

Das ist auch klar: Einsetzen in die Ursprungsgleichung.

> Setzen wir jetzt [mm]Z_i = X_i - E(X_i)[/mm] können wir das
> schreiben als
>  
> [mm]= E\left(\left[\summe_{i=1}^n Z_i \right]^2\right)[/mm]

Ich merke, das ist wirklich viel übersichtlicher, wenn man das Ganze in kleinere Päckchen verpackt.

> Es wird also eine Summe quadriert. Und du kannst dir
> überlegen, dass wenn du die Summe quadrierst, bekommst du
> quadratische Terme und Mischterme, d.h. mathematisch
> kürzer aufgeschrieben, gilt:
>  
> [mm]\left[\summe_{i=1}^n Z_i \right]^2 = \summe_{j=1}^n Z_i^2 + \summe_{\substack{i=j=1 \\ i\not=j}}^n Z_iZ_j[/mm]

Ja, verstehe.

> Setzt du jetzt die Definition von [mm]Z_i[/mm] wieder ein, kannst du
> normal mit deinem Beweis weitermachen.

Also wenn wir [mm]Z_i[/mm] (und entsprechend dann auch [mm]Z_j[/mm]) einsetzen, bekommen wir:

[mm]= E(\summe_{i=1}^{n} (X_{i} - E(X_{i}))^2 + \summe_{i,j=1, i\not= j}^{n}X_{i} - E(X_{i}) * X_{j} - E(X_{j})[/mm]

Dann können wie Linearität des Erwartungswertes nutzen:

[mm]= E(\summe_{i=1}^{n} (X_{i} - E(X_{i}))^2) + E(\summe_{i=j=1, i\not= j}^{n}(X_{i} - E(X_{i})) * (X_{j} - E(X_{j})))[/mm]
[mm]= \summe_{i=1}^{n}(E(X_{i} - E(X_{i}))^2) + \summe_{i=j=1, i\not= j}^{n} E((X_{i} - E(X_{i})) * (X_{j} - E(X_{j})))[/mm]

Dann nutzen wir die Definition von Varianz und Kovarianz:
[mm]= \summe_{i=1}^{n} Var(X_{i}) + 2 \summe_{i
Hier habe ich Frage: Woher kommt die 2 vor der Summe?
Die Rechenregel, die wir hier brauchen ist (wenn ich mich nicht vertue):
[mm]Cov(X,Y)= E(XY) - E(X)E(Y) = E((X - E(X))(Y-E(Y)))[/mm]

> Wenn du den Beweis verstanden hast, zeige ich dir einen
> deutlich kürzeren.....

Ich glaube, ich bin nah dran :-)

Noch mal danke!
Hela123


Bezug
                        
Bezug
Beweis Varianz von Summe: Antwort
Status: (Antwort) fertig Status 
Datum: 18:43 So 22.07.2018
Autor: Gonozal_IX

Hiho,

also der Schritt ist in der Umformung zwar nicht falsch aber irgendwie sinnlos. Es gilt
[mm] $\summe_{i=j=1,i\not=j}^n Cov(X_i,X_j) [/mm] = [mm] 2\summe_{i=j=1,i Das liegt einfach daran, dass die Kovarianz symmetrisch ist. Im ersten Fall summiert man eben einfach alle Kovarianzen auf, im zweiten nur diejenigen wo i<j ist und sagt dann einfach: anstatt jetzt die für i>j auch noch zu summieren multiplizieren wir das Ergebnis einfach mit 2.

Sind jetzt alle Unklarheiten beseitigt?

Gruß,
Gono

Bezug
                                
Bezug
Beweis Varianz von Summe: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 19:19 So 22.07.2018
Autor: Hela123

Hallo Gono,

shönen Dank für deine Antwort!

> also der Schritt ist in der Umformung zwar nicht falsch
> aber irgendwie sinnlos. Es gilt
>  [mm]\summe_{i=j=1,i\not=j}^n Cov(X_i,X_j) = 2\summe_{i=j=1,i
>  
> Das liegt einfach daran, dass die Kovarianz symmetrisch
> ist. Im ersten Fall summiert man eben einfach alle
> Kovarianzen auf, im zweiten nur diejenigen wo i<j ist und
> sagt dann einfach: anstatt jetzt die für i>j auch noch zu
> summieren multiplizieren wir das Ergebnis einfach mit 2.
>  
> Sind jetzt alle Unklarheiten beseitigt?

Alles klar! Ja, jetzt verstehe ich den Beweis, danke dir!

Wie könnte man es denn kürzer beweisen?:-)

Viele Grüße
Hela123

Bezug
                                        
Bezug
Beweis Varianz von Summe: Antwort
Status: (Antwort) fertig Status 
Datum: 22:08 So 22.07.2018
Autor: Gonozal_IX

Hiho,

die Kovarianz ist linear und trivialerweise gilt [mm] $\summe_{i=1}^n X_i [/mm] = [mm] \summe_{j=1}^n X_j [/mm] $ und damit gilt:

[mm] $\text{Var}\left(\summe_{i=1}^n X_i\right)$ [/mm]

[mm] $=\text{Cov}\left(\summe_{i=1}^n X_i, \summe_{j=1}^n X_j\right)$ [/mm]

[mm] $=\summe_{i=1}^n \summe_{j=1}^n \text{Cov}(X_i,X_j)$ [/mm]

[mm] $=\summe_{i=j=1,i=j}^n \text{Cov}(X_i,X_j) [/mm] + [mm] \summe_{i=j=1,i\not=j}^n \text{Cov}(X_i,X_j)$ [/mm]

[mm] $=\summe_{i=j=1}^n \text{Var}(X_i) [/mm] + [mm] \summe_{i=j=1,i\not=j}^n \text{Cov}(X_i,X_j)$ [/mm]

Gruß,
Gono


Bezug
                                                
Bezug
Beweis Varianz von Summe: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 07:59 Mo 23.07.2018
Autor: Hela123

Hallo Gono,

den Beweis kann ich auch nachvollziehen und der ist in der Tat deutlich übersichtlicher!
Noch mal vielen vielen Dank für deine Hilfe!

Gruß,
Hela123

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Stochastik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.unimatheforum.de
[ Startseite | Forum | Wissen | Kurse | Mitglieder | Team | Impressum ]