Revision 119485094 of "Benutzer:Sigbert/Korrelationstest" on dewiki

Eine '''Korrelation''' (vom mittellateinischen ''correlatio'' für „<small>(die)</small> Wechselbeziehung“) beschreibt eine Beziehung zwischen zwei oder mehreren Merkmalen, Ereignissen oder Zuständen. 
Zwischen Merkmalen, Ereignissen oder Zuständen braucht keine [[Kausalität|kausale Beziehung]] bestehen: manche [[Element]]e eines [[System]]s beeinflussen sich gegenseitig nicht; oder es bezieht eine [[stochastisch]]e (= vom [[Zufall]] beeinflusste) Beziehung zwischen ihnen. 

* In der [[Statistik]] wird die Korrelation zwischen zwei [[Statistische Variable|statistischen Variablen]] mit verschiedenen [[Korrelationskoeffizient]]en gemessen.
* In der [[Informationstheorie]] wird die Korrelation zweier Zufallsgrößen mit Hilfe der [[Transinformation]] und der [[Kullback-Leibler-Divergenz]] gemessen.
* In der [[Signalanalyse]] wird zur Beschreibung der Korrelation zweier Signale mit unterschiedlichen Zeitverschiebungen die [[Kreuzkorrelation]]sfunktion eingesetzt.

== Nähere Beschreibung ==

Es gibt positive und negative Korrelationen. Ein Beispiel für eine positive Korrelation (je mehr, desto mehr) ist: ''„Je mehr Futter, desto dickere Kühe.“'' Ein Beispiel für eine negative Korrelation (je mehr, desto weniger) ist:
''„Je mehr zurückgelegte Strecke mit dem Auto, desto weniger Treibstoff ist im Tank übrig.“''

Oft gibt es [[Sättigung]]sgrenzen. Beispiel: je mehr Gas ich gebe, desto schneller fährt mein Auto (aber nicht schneller als seine technisch bedingte Maximalgeschwindigkeit). In vielen Korrelationen gilt: die [[Grenzkosten]] steigen und der [[Grenznutzen]] sinkt. 

Häufig benutzt man zu Recht die Korrelation, um einen Hinweis darauf zu bekommen, ob zwei statistische Größen ursächlich miteinander zusammenhängen. Das funktioniert immer dann besonders gut, wenn beide Größen durch eine „Je ... desto“-Beziehung miteinander zusammenhängen und eine der Größen ''nur'' von der anderen Größe abhängt.

Beispielsweise kann man unter bestimmten Bedingungen nachweisen, dass Getreide umso besser gedeiht, je mehr man es bewässert. Diese Erkenntnis beruht auf dem Wissen über das Getreide - zum Beispiel durch Erfahrung oder wissenschaftliche Überlegungen. Die Korrelation unterscheidet nicht, ob das Wasser auf das Wachstum des Getreides wirkt, oder etwa das Getreide auf die Menge des Wassers. Eine Ursache-Wirkung-Beziehung kann nur eine Person unterstellen, die einer Sache (hier dem Wasser) eine Wirkung (das Wachstum des Getreides) ''zuschreibt''. Gibt es mehrere Einflussfaktoren auf das Wachstum des Getreides (beispielsweise die Temperatur, den Nährstoffgehalt des Bodens, das einfallende Licht usw.), ist die Menge des Wassers nicht mehr die einzige Erklärung für das Wachstum des Getreides. Die Erklärungskraft reduziert sich somit. Die Korrelation zwischen der Menge des Wassers und dem Wachstum des Getreides bleibt unverändert; sie ist ein tatsächlicher Zusammenhang (den man aber nicht immer beweisen bzw. vollständig beschreiben kann. Beispiel: der Vollmond oder ein anderer (bislang) unbekannter Faktor wie die Konstallation von Sonne und Mond könnte das Getreidewachstum auch beeinflussen). 
 
=== Korrelation und Kausalzusammenhang ===

Eine Korrelation beschreibt keine [[Kausalität|Ursache-Wirkungs-Beziehung]] in die eine und/oder andere Richtung. Kausalität und Korrelation können jedoch in bestimmten Fällen zusammen auftreten, d. h dass eine Korrelation zwischen zwei Größen besteht die kausal verknüpft sind.

Beispiele:
* Aus der Tatsache, dass in Sommern mit hohem Speiseeisumsatz viele Sonnenbrände auftreten, kann man nicht schlussfolgern, dass Eisessen Sonnenbrand erzeugt (und auch nicht, dass es Sonnenbrandbeschwerden lindert). 
* Zwischen dem Rückgang der [[Störche]] im [[Burgenland]] und einem Rückgang der Anzahl Neugeborener kann es durchaus eine Korrelation geben, aber weder [[Aberglauben|bringen Störche Kinder]] noch umgekehrt.
* Die Ursache von Lungenkrebs ist Tabakkonsum. Je mehr man raucht desto höher ist die Gefahr an Krebs zu erkranken. Es besteht also ein kausaler und ein korrealer Zusammenhang.

In beiden Beispielen hängen die jeweiligen Messgrößen allerdings über eine '''dritte Größe''' als Ursache kausal zusammen. Im ersten Fall ist es die Sonneneinstrahlung, die sowohl Eisverkauf als auch Sonnenbrand bewirkt, im zweiten Fall die Verstädterung, die sowohl Nistplätze vernichtet als auch begünstigt, dass mehr Paare kinderlos sind bzw. nur ein Kind haben (siehe [[Vereinbarkeit von Familie und Beruf]]). Korrelationen dieser Art werden [[Scheinkorrelation |Scheinkorrelationen]] genannt.

In der Presse werden Korrelationen oft in einer Weise berichtet, die eine direkte Kausalität suggeriert, obwohl eine [[Gemengelage]] direkter und indirekter Zusammenhänge besteht. 
Beispiele für Schlagzeilen:
* ''CO<sub>2</sub> erklärt Nahtoderfahrung''<ref>http://www.aerzteblatt.de/nachrichten/40757/Herzstillstand_Hyperkapnie_erklaert_Nahtod-Erfahrungen.htm, 8. April 2010</ref>
* ''Größere Leute verdienen mehr''<ref>[http://www.baz.ch baz], 25. Oktober 2003</ref>
* ''Je mehr Lärm im Haus, desto dümmer die Kinder''<ref>[http://www.baz.ch baz], 4. September 2004</ref>
* ''Rauchen schadet Ihrer Intelligenz''<ref>[http://www.20min.ch 20min], 17. Dezember 2004</ref>
* ''Kreative haben mehr Sex''<ref>[http://www.tagblatt.ch/ St. Galler Tagblatt], 1. Dezember 2005</ref>
* ''Glückliche Menschen sind gesünder''<ref>[http://www.20min.ch/ 20min], 19. April 2005</ref>
* ''Sozial engagierte Menschen haben einen besseren Gesundheitszustand''<ref>benevol SPECTRUM, Mai 2006</ref>
* ''Senkung der Arbeitslosigkeit erfordert starkes Wirtschaftswachstum''<ref>Schlussfolgerung aus der konjunkturellen Korrelation Wirtschaftswachstum/Arbeitslosigkeit – [[Okunsches Gesetz]]</ref>

Der Fehlschluss von Korrelation auf Kausalität wird auch als ''{{lang|la|[[Cum hoc ergo propter hoc]]}}'' bezeichnet. Um Kausalitäten wirklich herstellen und Kausalitätsrichtungen definieren zu können, ist grundsätzlich eine substanzwissenschaftliche Betrachtung notwendig. Die Frage „warum wirkt sich Lärm im Haus negativ auf die Intelligenz der Kinder aus?“ kann in diesem Fall nur von Personengruppen mit entsprechendem Fachwissen, wie zum Beispiel Psychologen, erklärt werden. 

Zur Beurteilung der [[Hypothese]]n wären im Grunde [[Experiment]]e nötig, bei denen ein Faktor experimentell festgelegt wird (z. B. der ''Lärm im Haus'') und der andere Faktor gemessen wird (z. B. ''Intelligenz der Kinder''). Solche Experimente würden mithilfe der [[Regressionsanalyse]] oder [[Varianzanalyse]] evaluiert. Eine Regression dagegen ''beschreibt'' den Zusammenhang, kann ihn aber nicht ''erklären''. Viele derartige Experimente sind nicht durchführbar: 
* zu lange Dauer  und/oder 
* zu hohe Kosten  und/oder 
* unethisch.

Aufgrund ihres Fokus auf den Menschen sind für viele sozialwissenschaftliche und medizinische Fragestellungen nur korrelative Studien ethisch rechtfertigbar. Um Korrelationsergebnisse als kausal interpretieren zu können, sind weitere Untersuchungen erforderlich (dabei können z. B. langzeitige Zusammenhänge hilfreich sein; dazu macht man [[Längsschnittstudie]]n). Teilweise werden korrelative Studien fälschlicherweise wie [[Experiment]]e interpretiert.

== Mathematische Darstellung ==

Im Gegensatz zur [[Proportionalität]] ist die Korrelation nur ein statistischer Zusammenhang. Häufig wird der ''[[Linearität|lineare]]'' oder ''[[Monotonie (Mathematik)|monotone]]'' Zusammenhang zweier Variablen bestimmt. Das bedeutet in diesen Fällen, dass die Korrelation zwischen X und Y dieselbe ist wie zwischen Z = c + t*X und Y für t>0. <ref>[http://www.statistik.lmu.de/~walter/lehre/Stat1Soz_0910/material/Stat1Soz0910-Kap6-1.pdf www.statistik.lmu.de]</ref> Aus dieser Eigenschaft folgt, dass bei einer unterstellten Beziehung zwischen X und Y in der Form Y = a + b*X (b>0) die Korrelation zwischen X und Y identisch ist mit Korrelation von Y und 2*X. Das bedeutet, dass selbst bei Kenntnis der Korrelation, ohne die Kenntnis der Parameter a und b keine Prognose von Y möglich ist. Die Parameter für den unterstellten linearen Zusammenhang können mittels einer [[Lineare Regression|Linearen Regression]] bestimmt werden.

Die Verwechslung von Korrelation und direktem Kausalzusammenhang wird dadurch gefördert, dass bei Berechnung der [[Korrelationskoeffizient#Empirischer_Korrelationskoeffizient|Korrelationskoeffizient]]en r nach [[Karl Pearson|Pearson]] und bei der [[lineare Regression|linearen Regression]] mit einer unabhängigen Variablen mathematisch ganz ähnliche Verfahren zum Tragen kommen. In Regressionsanalysen wird das [[Bestimmtheitsmaß]] <math>R^2</math> angegeben und ist gleich dem quadrierten Korrelationskoeffizienten <math>r^2</math> und beschreibt die erklärte Varianz des einfachen Regressionsmodells. Dies fördert die falsche Vermutung, die beiden Verfahren mit ihren jeweiligen Interpretationsmöglichkeiten seien austauschbar. Die Korrelation beschreibt die Stärke des Zusammenhangs, während die Regression die Art des Zusammenhangs spiegelt.

Für die Korrelation zufälliger Größen (exakter: Zufallsvariablen) siehe [[Korrelationskoeffizient]].

== Technische Anwendung ==

In der Physik, Elektrotechnik und allgemeinen [[Signalverarbeitung]] ist die Korrelation von großer Bedeutung. Angewendet auf eine beliebige Funktion mit einer gewünschten zweiten Funktion, ist sie allgemein betrachtet stets ein Maß dafür, wie ähnlich sich die zu untersuchenden Funktionen sind.

Die Funktionen können grundsätzlich kontinuierlich (bzw. [[Stetigkeit|stetig]]) oder [[Diskretheit|diskret]] (Abtastwerte) sein. Beispiele hierfür können Funktionen über die Zeit oder über den Ort sein. Zeitfunktionen sind bei der zeitlichen Signalverarbeitung relevant. Funktionen über eine Ortsvariable sind vor allem bei der [[Bildverarbeitung]] von Bedeutung. Signale, wie sie in der Natur vorkommen, können als Funktionen abgebildet oder interpretiert werden.

=== Signalverarbeitung ===

Bei Zeitfunktionen werden beispielsweise empfangene elektromagnetische Wellen mit den gesendeten elektromagnetischen Wellen korreliert. Hierbei werden zeitliche Signalfolgen (über die Zeitvariable <math>t</math>) korreliert, wobei das Wellenspektrum beliebig sein kann. Ein Beispiel ist die Verarbeitung von [[Radar]]signalen. Hier wird z.&nbsp;B. das empfangene Radarecho mit dem gesendeten Radarsignal korreliert bzw. verglichen, um zu sehen, ob es sich um das eigene oder ein fremdes Radarecho handelt (z.&nbsp;B. im militärischen Bereich). Ein ähnliches Beispiel ist die Erkennung von [[Mikrowellen]]signalen bzw. Signalfolgen, z.&nbsp;B. bei Mobiltelefonen und anderen Geräten mit drahtloser Kommunikation. 

Die Korrelation der zeitbasierten Signale bzw. Informationen wird häufig hardware- oder softwaremäßig auf der jeweiligen Elektronik (z.&nbsp;B. FPGA, Signalprozessor) realisiert. Ein entscheidender Faktor für die Rechengeschwindigkeit ist die jeweilige Zeitbasis. Je feiner bzw. genauer die Zeiteinheiten sind, desto größer ist der Rechenaufwand.

=== Bildverarbeitung ===

Die Korrelation ist gerade bei der Bildverarbeitung ein- oder mehrdimensionaler Daten bzw. Bilder von großer Bedeutung. Bei der Bildverarbeitung wird jedoch der Zeitfaktor (z.&nbsp;B. <math>t</math>) durch eine Ortsvariable (z.&nbsp;B. <math>x</math>) einfach ersetzt. Das Bild wird als Signalfolge über den Ort interpretiert. Anders als bei Zeitfunktionen liegen bei Bildern nicht eine Zeitbasis sondern [[Pixel|Bildpunkt]]e vor, die sogenannten [[Ortsfrequenz]]en. Die Ortsfrequenzen sind gewissermaßen die [[Bildauflösung|Auflösung]] des Bildes. Bei der Korrelation zweidimensionaler Bilder sind entsprechend zwei statt einer Ortsvariablen anzusetzen. Bei der Bildverarbeitung kann dann beispielsweise mittels [[Autokorrelation]] festgestellt werden, ob oder wo sich ein bestimmtes Objekt in einem Bild befindet. Das heißt, dass [[Objekterkennung]] möglich ist.

Im Gegensatz zur Korrelation von eindimensionalen zeitlichen Signalfolgen erfordert die Korrelation zweidimensionaler Signalfolgen (Familienfoto, Objekterkennung) einen ungleich höheren zeitlichen Berechnungsaufwand. Je nach Auflösung des Bildes sind entweder Sekunden, Stunden oder auch Tage nötig. Bei herkömmlichen Computern stellt dies ein großes Problem dar, wenn die Berechnung der Korrelation unter den Anforderungen eines [[Echtzeitsystem]]s erfolgen muss. 

Daher bietet sich gerade für die Bildverarbeitung von Bildern mit hoher Auflösung (z.&nbsp;B. 50 Millionen&nbsp;×&nbsp;50 Millionen Bildpunkte) der Einsatz von sog. optischen Rechnern an, welche die Vorzüge der [[Fourieroptik]] anwenden. Die Rechengeschwindigkeit eines optischen Rechners ist äußerst hoch und ermöglicht die Erfüllung von Echtzeitanforderungen. Dabei ist bei dieser Implementierung die Rechengeschwindigkeit unabhängig von der erforderlichen Bildauflösung. Die Bildauflösung selbst ist nur durch die Beugungsbegrenzung eingeschränkt. Die Rechengeschwindigkeit berechnet sich aus der Lichtgeschwindigkeit multipliziert mit der tatsächlichen Baulänge des optischen Rechners und der Berücksichtigung der Verarbeitungsgeschwindigkeiten der ggf. erforderlichen Ein- und Ausgabeelektronik.

Eine Anwendung der Korrelation von Bildern ist beispielsweise die Erkennung von bestimmten Objekten oder Strukturen. Strukturen können hierbei sein: 
Das Muster eines Schüttguts (Größe oder Form), das Karomuster einer Tischdecke, Krebszellen, funktionelle oder nicht funktionelle Blutkörperchen.
Diese Anwendung ist sehr interessant, wenn die Aufgabenstellung die Erkennung oder Sortierung von Objekten ist (gut oder schlecht bzw. Größe). Beispiel: Erkennung, ob ein Geldschein echt oder gefälscht ist. 

Weiterhin können Bilder unter Zuhilfenahme der Korrelation selbst verändert werden, indem bestimmte Strukturen (Oberwellen) ausgefiltert werden. Beispiel: Befreiung der Aufnahme eines Fernsehbildschirms von dessen Bildpunkten, um ein glattes Bild zu erhalten. Um die Bildinformation der Bildschirmmaske zu entfernen, werden alle Frequenzanteile ausgefiltert, welche die Bildpunkte ausmachen. Übrig bleibt ein Bild ohne Bildpunkte. Eine nachträgliche Analyse gibt Aufschluss darüber, welche Frequenzanteile fehlen.

Eine weitere Anwendung wäre die Erhöhung oder Verminderung der Auflösung eines Bildes (maximal bis zu der Auflösung, die das optische Aufnahmesystem physikalisch erzeugen kann).

=== Quantitative Beschreibung ===

Hier sollen die Zusammenhänge aus Sicht der [[Signalverarbeitung]] und [[Signalanalyse]] mit fortlaufenden Signalen beschrieben werden.

==== Das Korrelationsintegral ====

Die Korrelation ist mathematisch durch das '''Korrelationsintegral''' für Zeitfunktionen beschrieben:
:<math>
\rho(\tau)= K\int_{-\infty}^\infty x(t) m(t + \tau) {\rm d}t
</math>

Für komplexe Zeitfunktionen gilt: 
:<math>
\rho(\tau)= K\int_{-\infty}^\infty x^*(t) m(t + \tau) {\rm d}t
</math>

Der Wert K und die Integralgrenzen müssen den entsprechenden Funktionen angepasst werden:
:<math>
K = \begin{cases}1            & \text{bei aperiodischen Signalen} \\ \frac{1}{2T} & \text{bei periodischen Signalen, die Integralgrenzen verlaufen dann von } -T \text{ bis } T \\ \lim \limits_{T \to \infty} \frac{1}{2T} & \text{bei Zufallssignalen} \end{cases}
</math>

<math>x(t)</math> ist die zu analysierende Funktion, <math>m(t)</math> ist die Musterfunktion.

==== Musterfunktion <math>m(t)</math> ====

<math>m(t)</math> kann jede beliebige Musterfunktion sein. Sie sollte jedoch sinnvoll angepasst werden.

Das Korrelationsintegral geht je nach Musterfunktion <math>m(t)</math> über in andere Signaltransformationen:
* [[Fourier-Transformation]]: <math>m(t) = e^{-i \omega t}</math>
* [[Hilbert-Transformation]]: <math>m(t) = \frac{1}{\pi t}</math>
* [[Autokorrelation]]: <math>m(t) = x(t)</math>
* [[Kreuzkorrelation]]: <math>m(t) = y(t)</math>
* [[Flächenberechnung]]: <math>m(t) = 1</math>
* [[Walsh-Hadamard-Transformation]]
* [[Wavelet-Transformation]]

==== Korrelationsfaktor als Maß für die Ähnlichkeit zweier Signale ====

Die Ähnlichkeit zweier Signale wird zunächst anhand zweier reellwertiger Energiesignale beschrieben, anschließend anhand zweier [[Reelle Zahl|reellwertiger]] Leistungssignale. Die [[Komplexe Zahl|komplexwertigen]] Signale werden hier nicht weiter behandelt.

Die Signalenergie <math>E_s</math> eines reellwertigen Signals s berechnet sich 
bekanntermaßen zu
:<math>
E_s=\int_{-\infty}^\infty s^2(t) {\rm d}t.
</math>

Betrachtet man zusammengesetzte Signale <math>s(t)=x(t)+y(t)</math>, so führt das auf die Gleichung
:<math>
\begin{align}
  E_s&= \int_{-\infty}^\infty s^2(t) {\rm d}t\\
     &= \int_{-\infty}^\infty (x(t) + y(t))^2 {\rm d}t\\
     &= \underbrace{\int_{-\infty}^\infty x^2(t) {\rm d}t}_{E_x}
      + \underbrace{\int_{-\infty}^\infty y^2(t) {\rm d}t}_{E_y}
      + \underbrace{2\int_{-\infty}^\infty x(t) y(t) {\rm d}t}_{2 E_{xy}}.
\end{align}
</math>

<math>E_x</math> ist die Energie von <math>x</math>, und <math>E_y</math> ist die Energie von <math>y</math>. Die Größe <math>E_{xy}</math> heißt Kreuzenergie. Sie kann positiv, negativ oder null sein.

Es ist zweckmäßig, die Kreuzenergie mit den Signalenergien über die Gleichung
:<math>
E_{xy} = \rho\sqrt{E_x E_y}
</math>
in Beziehung zu setzen.

Der Faktor <math>\rho</math> ist der Korrelationsfaktor, auch [[Korrelationskoeffizient]] genannt. Für ihn gilt stets: <math>\rho^2 \le 1</math>, was mit Hilfe der [[Cauchy-Schwarzsche Ungleichung|Cauchy-Schwarzschen Ungleichung]] aus der Analysis bewiesen werden kann.

Die Energie des Gesamtsignals hängt nach den eben gemachten Ausführungen von der Signalenergie von <math>x</math>, der Signalenergie von <math>y</math> und dem Korrelationsfaktor <math>\rho</math> ab.

Der Korrelationsfaktor hat den Wert <math>\rho=1</math>, wenn man das Signal <math>x(t)</math> mit dem Signal <math>y(t)=|k| x(t)</math> korreliert. Man nennt das Signal in diesem Fall gleichläufig. Die Signalenergie des Gesamtsignals ist maximal.

Der Korrelationsfaktor hat den Wert <math>\rho =-1</math>, wenn man das Signal <math>x(t)</math> mit dem Signal <math>y(t)=-|k| x(t)</math> korreliert. Man nennt das Signal in diesem Fall gegenläufig. Die Signalenergie des Gesamtsignals ist minimal.

Eine Besonderheit liegt vor, wenn der Korrelationsfaktor den Wert <math>\rho=0</math> annimmt. Man nennt beide Signale dann orthogonal (bei Energiesignalen darf man auch sagen: unkorreliert). 

Der Korrelationsfaktor ist, wie an den Beispielen klar wird, ein Maß dafür, wie ähnlich sich zwei Signale sind. 

Bei Leistungssignalen finden sich ähnliche Zusammenhänge. Für die Signalleistung <math>P_s</math> eines Signals <math>s(t)=x(t)+y(t)</math> ergibt sich
:<math>
\begin{align}
  P_s &= \lim_{T \to \infty} \frac 1{2T} \int_{-T}^T s^2(t) {\rm d}t\\
      &= \lim_{T \to \infty} \frac 1{2T} \int_{-T}^T (x(t)+y(t))^2 {\rm d}t\\
      &= \underbrace{\lim_{T\to\infty} \frac 1{2T} \int_{-T}^T x^2(t) {\rm d}t}_{P_x}
       + \underbrace{\lim_{T\to\infty} \frac 1{2T} \int_{-T}^T y^2(t) {\rm d}t}_{P_y}
       + \underbrace{2\lim_{T\to\infty} \frac 1{2T}\int_{-T}^T x(t) y(t) {\rm d}t}_{2P_{xy}}.
\end{align}
</math>

Hier bestimmt der Kreuzleistungsfaktor <math>\overline{\rho}=\tfrac{P_{xy}}{\sqrt{P_x P_y}}</math> den Grad der Übereinstimmung beider Signale. Für <math>\overline{\rho}=0</math> nennt man beide Signale orthogonal. Je größer <math>\overline{\rho}^2</math> ist, umso größer ist die Wahrscheinlichkeit, dass beide Signale etwas miteinander zu tun haben.

=== Autokorrelationsfunktion ===

In der Signalverarbeitung nutzt man für verschiedene Anwendungen die Kreuzkorrelationsfunktion eines Signals mit sich selbst, die sogenannte [[Autokorrelationsfunktion]].

Die Autokorrelationsfunktionen beschreiben die Ähnlichkeit eines [[Signal]]s bzw. einer [[Zeitfunktion]] mit sich selbst.

==== Definition ====

Die Autokorrelationsfunktion (AKF) eines reellwertigen Leistungssignals berechnet sich zu
:<math>
\Psi_{xx}(\tau) = \lim \limits_{T \to \infty} {\frac{1}{2T} \int \limits_{-T}^{T} {x(t) \cdot x(t+\tau) {\rm d}t}}
</math>.

Bei Energiesignalen ergibt sich in ähnlicher Weise
:<math>
\Psi_{xx}^{E} (\tau) = {\int \limits_{-\infty}^{\infty} {x(t) \cdot x(t+\tau) {\rm d}t}}
</math>.

Bei [[komplexwertig]]en Signalen ergibt sich:
:<math>
\underline{\Psi}_{xx} (\tau) = \lim \limits_{T \to \infty} {\frac{1}{2T} \int \limits_{-T}^{T} {\underline{x}^{*}(t) \cdot \underline{x}(t+\tau) {\rm d}t}}
</math>.

bzw.
:<math>
{\underline \Psi}_{xx}^{E} = {\int \limits_{-\infty}^{\infty} {\underline{x}^{*}(t) \cdot \underline{x}(t+\tau) {\rm d}t}}
</math>.

wobei der Stern die [[Konjugation (Mathematik)|konjugiert komplexe Zahl]] bedeutet.

== Anwendungen ==

Korrelationen werden in verschiedenen technischen und wissenschaftlichen Bereichen praktisch untersucht.

=== Anwendung bei Kapitalanlagen ===

Der Korrelationsbegriff ist von erheblicher Bedeutung bei [[Kapitalanlage]]n. Es gilt: Das Gesamtrisiko des gesamten Portfolios ist umso geringer je geringer die einzelnen Anlagen (Assets) miteinander korrelieren.

Beispiel für positive Korrelation: Besteht ein Portfolio nur aus vielen einzelnen Aktien, so führt der Kursrückgang von Aktie 1 auch zum Wertverlust von Aktie 2 und auch Aktie 3 in einem bestimmten Verhältnis. Besteht das Portfolio jeweils zur Hälfte aus Aktien und Renten, so ist der Verlust geringer, da nur eine geringfügige Korrelation Aktien-Renten besteht.

Allerdings gibt es auch (negative) Korrelationen, wenn auch geringere, bezüglich Aktie-Rente. Ist der [[Aktienmarkt]] schwach, so wird tendenziell in Renten investiert (Kapitalflucht in den ''sicheren Hafen''). Die [[Rentenrechnung|Rentenkurs]]e steigen. Dies fängt jedoch nicht den Komplettverlust im Aktienbereich auf. Daher ist es sinnvoll noch in weitere Anlagen zu diversifizieren als nur in Renten und Aktien (siehe auch [[Diversifikation]]). Die Risikominderung durch [[Diversifikation]] oder Investition in negativ korrelierte Assets bezeichnet man als [[Hedging]]. Dem ist allerdings eine natürliche Grenze dadurch gegeben, dass, wenn zwei Assets negativ korreliert sind, ein dritter nicht mit beiden negativ korreliert sein kann, sondern nur mit dem einen negativ in dem Maße, in dem er mit dem anderen positiv korreliert ist.

Die ideale Diversifikation ist so umfassend, dass keine Korrelationen zwischen den einzelnen Assets existieren. Erwirtschaften zudem die einzelnen, nicht korrelierenden Assets noch eine maximale Rendite, so ergibt sich das ideale, jedoch in Realität nie existierende Portfolio.

Reduktion der Korrelation des Gesamtportfolios im Verhältnis zu seinen Einzelanlagen, verbessert nach dem [[Markowitz]]-Modell das Rendite-Risiko-Verhältnis. Auf langfristiger Basis wird damit prinzipiell eine höhere Rendite bei geringerem Risiko erzielt (siehe auch [[Portfoliotheorie]]).

Die Korrelation macht in erster Linie Aussagen über die Richtung des Verlaufs von Aktien und Index, nicht jedoch über das Ausmaß der jeweiligen Veränderung. Aus einer positiven Korrelation von 0,8 lässt sich beispielsweise nicht erkennen, um wie viel der Aktienkurs bei einem 3-%-Anstieg des DAX steigt. Auch besagt die Korrelation nicht ob der DAX auf die Aktie wirkt, oder die Aktie auf den DAX. Für die Analyse von Wertpapieren hat sich das [[Capital Asset Pricing Model]] entwickelt, dort kommt der [[Betafaktor]] als wichtige Kennzahl ins Spiel.

=== Anwendung in der Softwaretechnik ===

Ein '''Korrelationstest''' bezeichnet in der [[Softwaretechnik]] ein Verfahren, in dem nicht nur einzelne [[Parameter (Informatik)|Parameter]] einer [[Funktion (Programmierung)|Funktion]] auf Plausibilität (zum Beispiel in [[Datentyp]] oder Wertebereich) geprüft werden, sondern auch Kombinationen dieser Parameter berücksichtigt werden. Es ist möglich, dass zwar jeder Parameter für sich einen gültigen Wert besitzt, diese in Kombination jedoch ein fehlerhaftes Verhalten der zu testenden Funktion hervorrufen, nämlich wenn diese Parameter durch die Funktion '''korreliert''' werden.

Beispiel: Ein rechteckiges Objekt soll auf dem Bildschirm dargestellt werden. Hierzu existiert eine Funktion, die in den Parametern ''X'',''Y'',''SX'',''SY'' die Dimension des Rechtecks entgegennimmt.

* Parameter ''X'' gibt die X-Position der linken oberen Ecke an. Es muss geprüft werden, ob ''X'' im gültigen Anzeigebereich liegt.

* Parameter ''SX'' gibt die X-Kantenlänge (Breite des Rechteckes) an. Hier muss zunächst geprüft werden, ob ''SX'' die zulässige Anzeigebreite nicht überschreitet.

* Bei einem ''Korrelationstest'' wird nun zusätzlich geprüft ob, ''X + SX'' im gültigen Wertebereich liegt.

=== Anwendung in der Bildverarbeitung ===

In der Bildverarbeitung nutzt man Korrelationsfunktionen unter anderem zur genauen Lokalisierung eines Musters (der ''Musterfunktion'' im Sinne der mathematischen Korrelation) in einem Bild. Dieses Verfahren kann z. B. zur Auswertung von [[Stereofotografie|Stereobildpaaren]] verwendet werden. Um die räumliche Koordinate eines Punktes berechnen zu können muss eine eindeutige Zuordnung von Objekten im linken Bild zu den Objekten im rechten Bild existieren. Dazu nimmt man einen kleinen Ausschnitt aus dem einen Bild – das Muster – und korreliert ihn zweidimensional mit dem anderen Bild. Die so erhaltenen Koordinaten eines Objektpunktes oder -merkmals im linken und rechten Bild kann man mit Methoden der [[Photogrammetrie]] in räumliche Koordinaten umwandeln.

[[Bild:corr_inputrp.png|thumb|left|Vier Fotos]]
Die Fotos der Bildfolge links zeigen eine junge Frau, ihr Negativbild, Nietzsche und ein zufälliges Rauschmuster. 

Um zu testen, ob das Foto der jungen Frau auch in den verrauschten Bildern wiederzufinden ist, wurden alle vier Bilder zunächst mit einem weißen Gaußschen Rauschen überlagert und dann mit ihrem Foto (erstes Foto der Bildfolge) korreliert. 

[[Bild:corr_outpurp.png|thumb|right|Korrelationsbilder (siehe Text)]]
Das Ergebnis sieht man in der Bildzusammenstellung rechts.
Undeutlich zu erkennen sind die Ausgangsbilder. Rechts neben ihnen stehen die Korrelationsrechnungen.

Das Korrelationsbild von Nietzsche zeigt wenig Übereinstimmungen mit dem der jungen Frau, das Rauschmusterbild fast gar keine. Gut zu erkennen ist die positive und negative Korrelation mit den Bildern, die die Frau und ihr Negativ zeigen. 

Das Bild-Beispiel stammt aus dem Artikel [[Code Division Multiple Access|CDMA]], wo es Anwendungen der Korrelationsrechnung bei der Signalanalyse veranschaulicht.

Im weiteren Sinn basieren sog. optische Rechner (Fourier Optik, 4f) auf der Korrelation.
Die auch als Fourier-Korrelatoren bezeichneten Systeme korrelieren Bilder mit Hilfe von Hologrammen.
Durch eine 4f-Optik lässt sich die Korrelation im Frequenzraum durch einen rein physikalischen Prozess
mit nahezu Lichtgeschwindigkeit erzielen. Notwendig ist eine optische Bank mit entsprechendem Linsensystem und Fourierlinse.

=== Anwendung in der Tonverarbeitung ===

Die Korrelation beschreibt bei der [[Stereofonie]] die Ähnlichkeit von Signalen. Der normierte Korrelationsfaktor oder [[Korrelationskoeffizient]] ist ein Ähnlichkeitsmaß zweier Signale und berechnet sich vereinfacht aus dem möglichst großen Zeitintegral der Amplitudendifferenz dieser beiden Signale. Er wird angenähert von Korrelationsgradmessern angezeigt, wobei diese in der Praxis allerdings nur einen Phasenbezug mit einer sehr kleinen Integrationszeit unter einer Sekunde untersuchen.

Als Messgerät wird in der [[Tontechnik]] der [[Korrelationsgradmesser]] oder das [[Goniometer]] verwendet.

=== Anwendung in der Mehrkanal-Signalübertragung ===

In der [[Nachrichtentechnik]] werden aus ökonomischen Gründen Verfahren eingesetzt, eine Vielzahl von untereinander unabhängigen Signalen (z. B. die Telefonsignale  vieler Teilnehmer oder die Bild- und Tonsignale vieler Fernseh- oder Tonrundfunksender) über das gleiche [[Übertragungsmedium]] (Draht, [[Kabel]], Funkstrecken, [[Lichtwellenleiter]]) zu übertragen. Um solche Kanalbündel nach der Übertragung, also auf der Empfängerseite, wieder störungsfrei „entbündeln“ zu können, müssen die Einzelsignale „unterscheidbar“ sein. Das bedeutet, dass die senderseitig zu einem Bündel zusammengefassten Einzelsignale untereinander (jedes mit jedem) orthogonal sein müssen, was der Grund dafür ist, dass z.B. in einem [[Frequenzband#Rundfunk|Funkfrequenzband]] nur eine beschränkte Menge an [[Funkkanal|Kanälen]] zur Verfügung stehen. Die Orthogonalitätsbedingung ist in zwei Fällen trivial erfüllt, nämlich dann, wenn die einzelnen Signale sich spektral oder zeitlich nicht überlappen. In diesem Fall ist bereits das Produkt der [[Elektromagnetisches Spektrum|Spektren]] der Einzelsignale oder das Produkt der Zeitfunktionen der Einzelsignale jeweils gleich Null, das Korrelationsintegral daher ebenfalls. Die deshalb auch technisch einfache Realisierung dieser beiden Fälle sind das [[Frequenzmultiplexverfahren|Frequenzmultiplex]]- und das [[Zeitmultiplexverfahren]]. Mit modernen [[Mikroelektronik|mikroelektronischen]] Technologien ist es nun aber auch möglich geworden, orthogonale Signale zu (de)multiplexen, die sich sowohl spektral als auch zeitlich gegenseitig überdecken ([[Multiplexverfahren|Codemultiplextechnik]]). Hier muss empfängerseitig tatsächlich die Korrelationsfunktion ermittelt werden. Das erfolgt in der Regel durch den Einsatz eines  [[Optimalfilter]]s.

=== Anwendung beim Signalempfang ===

Bei jeder Art von Signalübertragung treten Störungen verschiedener Art auf, mindestens aufgrund des thermischen Rauschens von Elektronen oder Photonen, die zur elektrischen oder optischen Signalübertragung notwendig sind. Auf der Empfängerseite entsteht also das Problem, das Signal mit einer maximalen Sicherheit vom [[Störsignal]] zu trennen. Das gelingt theoretisch umso besser, je mehr beim Empfänger über das Sendesignal bekannt ist (etwa über den Zeitverlauf eines gesendeten Radarsignals). In diesem Fall ist der Korrelationsempfang, d. h. die empfängerseitige Korrelation des ankommenden gestörten Signals mit einem Muster des Sendesignals die [[Optimalempfang|theoretisch optimale Lösung]] der Empfängerrealisierung. Dieses Prinzip wird nicht nur in der [[Dauerstrichradar|Radartechnik]], sondern auch in der Natur angewendet, beispielsweise bei der [[Ortung|Ultraschallortung]] der Fledermäuse.

== Siehe auch ==

* [[Konfundierungseffekt]]
* [[Korrelationsgradmesser]]
* [[Kovarianz (Stochastik)|Kovarianz]]
* [[Kollinearität]] als Fehlermöglichkeit oder Entgleisungsmöglichkeit
* [[Korrelationskoeffizient]]
* [[Stochastische Unabhängigkeit]]

== Literatur ==

* David G. Myers: ''Psychologie'', Springer, 2. Auflage, ISBN 3540213589, Seiten 30-35

== Weblinks ==

{{Wiktionary}}
{{Wikibooks|Mathematik: Statistik: Abhängigkeit von Zufallsvariablen|Korrelationskoeffizient zweier diskreter Zufallsvariablen}}
{{Wikibooks|Mathematik: Statistik: Korrelationsanalyse|Anschauliche Darstellung des Stichprobenkorrelationskoeffizienten}}
* [http://www.uni-koeln.de/phil-fak/muwi/ag/tec/kohkor.pdf Kohärenz und Korrelation in der Tonstudiotechnik] <small>(<abbr title="Portable Document Format">PDF</abbr>, <span title="rund">≈</span>&nbsp;10&nbsp;<abbr title="Kilobyte">KB</abbr>)</small> – Dokument bei der ''[[Universität zu Köln|Uni-Köln]]''

== Einzelnachweise ==

<references/>

[[Kategorie:Deskriptive Statistik]]

[[ar:ارتباط (إحصاء)]]
[[az:Korrelyasiya]]
[[bg:Корелация]]
[[ca:Correlació]]
[[cs:Korelace]]
[[da:Korrelation]]
[[en:Correlation and dependence]]
[[eo:Korelacio]]
[[es:Correlación]]
[[eu:Korrelazio]]
[[fa:ضریب همبستگی]]
[[fi:Korrelaatio]]
[[fr:Corrélation (statistiques)]]
[[he:מתאם]]
[[hu:Korreláció]]
[[id:Korelasi]]
[[it:Correlazione (statistica)]]
[[jv:Analisis korélasi]]
[[ko:상관분석]]
[[ky:Корреляция]]
[[lt:Koreliacija]]
[[lv:Korelācija]]
[[nl:Correlatie]]
[[nn:Korrelasjon]]
[[no:Korrelasjon]]
[[pl:Współczynnik korelacji]]
[[pt:Correlação]]
[[ru:Корреляция]]
[[simple:Correlation]]
[[sk:Korelácia (štatistika)]]
[[sl:Korelacija]]
[[sr:Корелација]]
[[su:Korélasi]]
[[sv:Korrelation]]
[[th:สหสัมพันธ์]]
[[tr:Korelasyon]]
[[uk:Кореляція]]
[[ur:Correlation]]
[[vi:Hệ số tương quan]]
[[zh:相关]]