Difference between revisions 119485103 and 119485104 on dewikiEine '''Korrelation''' (vom mittellateinischen ''correlatio'' für „<small>(die)</small> Wechselbeziehung“) beschreibt eine Beziehung zwischen zwei oder mehreren Merkmalen, Ereignissen oder Zuständen. (contracted; show full) Oft gibt es [[Sättigung]]sgrenzen. Beispiel: je mehr Gas ich gebe, desto schneller fährt mein Auto (aber nicht schneller als seine technisch bedingte Maximalgeschwindigkeit). In vielen Korrelationen gilt: die [[Grenzkosten]] steigen und der [[Grenznutzen]] sinkt. Häufig benutzt man zu Recht die Korrelation, um einen Hinweis darauf zu bekommen, ob zwei statistische Größen ursächlich miteinander zusammenhängen. Das funktioniert immer dann besonders gut, wenn beide Größen durch eine „Je ...… desto“-Beziehung miteinander zusammenhängen und eine der Größen ''nur'' von der anderen Größe abhängt. Beispielsweise kann man unter bestimmten Bedingungen nachweisen, dass Getreide umso besser gedeiht, je mehr man es bewässert. Diese Erkenntnis beruht auf dem Wissen über das Getreide -– zum Beispiel durch Erfahrung oder wissenschaftliche Überlegungen. Die Korrelation unterscheidet nicht, ob das Wasser auf das Wachstum des Getreides wirkt, oder etwa das Getreide auf die Menge des Wassers. Eine Ursache-Wirkung-Beziehung kann nur eine Person unterstellen, die einer Sache (hier dem Wasser) eine Wirkung (das Wachstum des Getreides) ''zuschreibt''. Gibt es mehrere Einflussfaktoren auf das Wachstum des Getreides (beispielsweise die Temperatur, den Nährstoffgehalt des Bodens, (contracted; show full) * Zwischen dem Rückgang der [[Störche]] im [[Burgenland]] und einem Rückgang der Anzahl Neugeborener kann es durchaus eine Korrelation geben, aber weder [[Aberglauben|bringen Störche Kinder]] noch umgekehrt. In beiden Beispielen hängen die jeweiligen Messgrößen allerdings über eine '' 'dritte Größe''' als Ursache kausal zusammen. Im ersten Fall ist es die Sonneneinstrahlung, die sowohl Eisverkauf als auch Sonnenbrand bewirkt, im zweiten Fall die Verstädterung, die sowohl Nistplätze vernichtet als auch begünstigt, dass mehr Paare kinderlos sind bzw. nur ein Kind haben (siehe [[Vereinbarkeit von Familie und Beruf]]). Korrelationen dieser Art werden [[Scheinkorrelation |Scheinkorrelationen]] genannt. (contracted; show full) == Mathematische Darstellung == Im Gegensatz zur [[Proportionalität]] ist die Korrelation nur ein statistischer Zusammenhang. Häufig wird der ''[[Linearität|lineare]]'' oder ''[[Monotonie (Mathematik)|monotone]]'' Zusammenhang zweier Variablen bestimmt. Das bedeutet in diesen Fällen, dass die Korrelation zwischen X und Y<math>X</math> und <math>Y</math> dieselbe ist wie zwischen <math>Z = c + t*X und Y für t>0. \cdot X</math> und <math>Y</math> für <math>t>0</math>.<ref>[http://www.statistik.lmu.de/~walter/lehre/Stat1Soz_0910/material/Stat1Soz0910-Kap6-1.pdf www.statistik.lmu.de] (PDF; 415 kB)</ref> Aus dieser Eigenschaft folgt, dass bei einer unterstellten Beziehung zwischen X und Y<math>X</math> und <math>Y</math> in der Form <math>Y = a + b*\cdot X (b>0)</math> die Korrelation zwischen X und Y<math>X</math> und <math>Y</math> identisch ist mit der Korrelation von Y und 2*X<math>Y</math> und <math>2\cdot X</math>. Das bedeutet, dass selbst bei Kenntnis der Korrelation, ohne die Kenntnis der Parameter a und b<math>a</math> und <math>b</math> keine Prognose von Y<math>Y</math> möglich ist. Die Parameter für den unterstellten linearen Zusammenhang können mittels einer [[Lineare Regression|Llinearen Regression]] bestimmt werden. Die Verwechslung von Korrelation und direktem Kausalzusammenhang wird dadurch gefördert, dass bei Berechnung der [[Korrelationskoeffizient#Empirischer_Korrelationskoeffizient|Korrelationskoeffizient]]en ren]] <math>r</math> nach [[Karl Pearson|Pearson]] und bei der [[lineare Regression|linearen Regression]] mit einer unabhängigen Variablen mathematisch ganz ähnliche Verfahren zum Tragen kommen. In Regressionsanalysen wird das [[Bestimmtheitsmaß]] <math>R^2</math> angegeben und ist gleich dem quadrierten Korrelationskoeffizienten <math>r^2</math> und beschreibt die erklärte Varianz des einfachen Regressionsmodells. Dies fördert die falsche Vermutung, die beiden Verfahren mit ihren jeweiligen Interpretationsmöglichkeiten seien austauschbar. Die Korrelation beschreibt die Stärke des Zusam(contracted; show full) Die Korrelation der zeitbasierten Signale bzw. Informationen wird häufig hardware- oder softwaremäßig auf der jeweiligen Elektronik (z. B. FPGA, Signalprozessor) realisiert. Ein entscheidender Faktor für die Rechengeschwindigkeit ist die jeweilige Zeitbasis. Je feiner bzw. genauer die Zeiteinheiten sind, desto größer ist der Rechenaufwand. === Bildverarbeitung === Die Korrelation ist gerade bei der [[Bildverarbeitung]] ein- oder mehrdimensionaler Daten bzw. Bilder von großer Bedeutung. Bei der Bildverarbeitung wird jedoch der Zeitfaktor (z. B. <math>t</math>) durch eine Ortsvariable (z. B. <math>x</math>) einfach ersetzt. Das Bild wird als Signalfolge über den Ort interpretiert. Anders als bei Zeitfunktionen liegen bei Bildern nicht eine Zeitbasis, sondern [[Pixel|Bildpunkte]]e vor, die sogenannten [[Ortsfrequenz]]en. Die Ortsfrequenzen sind gewissermaßen die [[Bildauflösung|Auflösung]] des Bildes. Bei der Korrelation zweidimensionaler Bilder sind entsprechend zwei statt einer Ortsvariablen anzusetzen. Bei der Bildverarbeitung kann dann beispielsweise mittels [[Autokorrelation]] festgestellt werden, ob oder wo sich ein bestimmtes Objekt in einem Bild befindet. Das heißt, dass [[Objekterkennung]] möglich ist. Im Gegensatz zur Korrelation von eindimensionalen zeitlichen Signalfolgen erfordert die Korrelation zweidimensionaler Signalfolgen (Familienfoto, Objekterkennung) einen ungleich höheren zeitlichen Berechnungsaufwand. Je nach Auflösung des Bildes sind entweder Sekunden, Stunden oder auch Tage nötig. Bei herkömmlichen Computern stellt dies ein großes Problem dar, wenn die Berechnung der Korrelation unter den Anforderungen eines [[Echtzeitsystem]]s erfolgen muss. Daher bietet sich gerade für die Bildverarbeitung von Bildern mit hoher Auflösung (z. B. 50 Millionen × 50 Millionen Bildpunkte) der Einsatz von sog. optischen Rechnern an, welche die Vorzüge der [[Fourieroptik]] anwenden. Die Rechengeschwindigkeit eines optischen Rechners ist äußerst hoch und ermöglicht die Erfüllung von Echtzeitanforderungen. Dabei ist bei dieser Implementierung die Rechengeschwindigkeit unabhängig von der erforderlichen Bildauflösung. Die Bildauflösung selbst ist nur durch die Beugungsbegrenzung eingeschränkt. Die Rechengeschwindigkeit berechnet sich aus der Lichtgeschwindigkeit multipliziert mit der tatsächlichen Baulänge des optischen Rechners und der Berücksichtigung der Verarbeitungsgeschwindigkeiten der ggf. erforderlichen Ein- und Ausgabeelektronik. Eine Anwendung der Korrelation von Bildern ist beispielsweise die Erkennung von bestimmten Objekten oder Strukturen. Strukturen können hierbei sein: Das Muster eines Schüttguts (Größe oder Form), das Karomuster einer Tischdecke, Krebszellen, funktionelle oder nicht funktionelle Blutkörperchen. Diese Anwendung ist sehr interessant, wenn die Aufgabenstellung die Erkennung oder Sortierung von Objekten ist (gut oder schlecht bzw. Größe). Beispiel: Erkennung, ob ein Geldschein echt oder gefälscht ist. Weiterhin können Bilder unter Zuhilfenahme der Korrelation selbst verändert werden, indem bestimmte Strukturen (Oberwellen) ausgefiltert werden. Beispiel: Befreiung der Aufnahme eines Fernsehbildschirms von dessen Bildpunkten, um ein glattes Bild zu erhalten. Um die Bildinformation der Bildschirmmaske zu entfernen, werden alle Frequenzanteile ausgefiltert, welche die Bildpunkte ausmachen. Übrig bleibt ein Bild ohne Bildpunkte. Eine nachträgliche Analyse gibt Aufschluss darüber, welche Frequenzanteile fehlen. Eine weitere Anwendung wäre die Erhöhung oder Verminderung der Auflösung eines Bildes (maximal bis zu der Auflösung, die das optische Aufnahmesystem physikalisch erzeugen kann). === Quantitative Beschreibung === Hier sollen die Zusammenhänge aus Sicht der [[Signalverarbeitung]] und [[Signalanalyse]] mit fortlaufenden Signalen beschrieben werden. ==== Das Korrelationsintegral ==== Die Korrelation ist mathematisch durch das '''Korrelationsintegral''' für Zeitfunktionen beschrieben: :<math> \rho(\tau)= K\int_{-\infty}^\infty x(t) m(t + \tau) {\rm d}t </math> Für komplexe Zeitfunktionen gilt: :<math> \rho(\tau)= K\int_{-\infty}^\infty x^*(t) m(t + \tau) {\rm d}t </math> Der Wert K<math>K</math> und die Integralgrenzen müssen den entsprechenden Funktionen angepasst werden: :<math> K = \begin{cases}1 & \text{bei aperiodischen Signalen} \\⏎ ⏎ \frac{1}{2T} & \text{bei periodischen Signalen, die Integralgrenzen verlaufen dann von } -T \text{ bis } T \\⏎ ⏎ \lim \limits_{T \to \infty} \frac{1}{2T} & \text{bei Zufallssignalen} \end{cases} </math> <math>x(t)</math> ist die zu analysierende Funktion, <math>m(t)</math> ist die Musterfunktion. ==== Musterfunktion <math>m(t)</math>''m''(''t'') ==== <math>m(t)</math> kann jede beliebige Musterfunktion sein. Sie sollte jedoch sinnvoll angepasst werden. Das Korrelationsintegral geht je nach Musterfunktion <math>m(t)</math> über in andere Signaltransformationen: * [[Fourier-Transformation]]: <math>m(t) = e^{-i \omega t}</math> * [[Hilbert-Transformation]]: <math>m(t) = \frac{1}{\pi t}</math> * [[Autokorrelation]]: <math>m(t) = x(t)</math> * [[Kreuzkorrelation]]: <math>m(t) = y(t)</math> * [[Planimetrie|Flächenberechnung]]: <math>m(t) = 1</math> * [[Walsh-Hadamard-Transformation]] * [[Wavelet-Transformation]] ==== Korrelationsfaktor als Maß für die Ähnlichkeit zweier Signale ==== Die Ähnlichkeit zweier Signale wird zunächst anhand zweier reellwertiger Energiesignale beschrieben, anschließend anhand zweier [[Reelle Zahl|reellwertiger]] Leistungssignale. Die [[Komplexe Zahl|komplexwertigen]] Signale werden hier nicht weiter behandelt. Die Signalenergie <math>E_s</math> eines reellwertigen Signals s<math>s</math> berechnet sich ⏎ bekanntermaßen zu :<math> E_s=\int_{-\infty}^\infty s^2(t) {\rm d}t. </math> Betrachtet man zusammengesetzte Signale <math>s(t)=x(t)+y(t)</math>, so führt das auf die Gleichung :<math> \begin{align} (contracted; show full)Bei [[komplexwertig]]en Signalen ergibt sich: :<math> \underline{\Psi}_{xx} (\tau) = \lim \limits_{T \to \infty} {\frac{1}{2T} \int \limits_{-T}^{T} {\underline{x}^{*}(t) \cdot \underline{x}(t+\tau) {\rm d}t}} </math>. bzw. :<math> {\underline \Psi}_{xx}^{E} = {\int \limits_{-\infty}^{\infty} {\underline{x}^{*}(t) \cdot \underline{x}(t+\tau) {\rm d}t}} , </math>. wobei der Stern die [[Konjugation (Mathematik)|konjugiert komplexe Zahl]] bedeutet. == Anwendungen == Korrelationen werden in verschiedenen technischen und wissenschaftlichen Bereichen praktisch untersucht. === Anwendung bei Kapitalanlagen === Der Korrelationsbegriff ist von erheblicher Bedeutung bei [[Kapitalanlage]]n. Es gilt: Das Gesamtrisiko des gesamten Portfolios ist umso geringer, je geringer die einzelnen Anlagen (Assets) miteinander korrelieren. Beispiel für positive Korrelation: Besteht ein Portfolio nur aus vielen einzelnen Aktien, so führt der Kursrückgang von Aktie 1 auch zum Wertverlust von Aktie 2 und auch Aktie 3 in einem bestimmten Verhältnis. Besteht das Portfolio jeweils zur Hälfte aus Aktien und Renten, so ist der Verlust geringer, da nur eine geringfügige Korrelation Aktien-Renten besteht. Allerdings gibt es auch (negative) Korrelationen, wenn auch geringere, bezüglich Aktie-Rente. Ist der [[Aktienmarkt]] schwach, so wird tendenziell in Renten investiert (Kapitalflucht in den ''sicheren Hafen''). Die [[Rentenrechnung|Rentenkurse]]e steigen. Dies fängt jedoch nicht den Komplettverlust im Aktienbereich auf. Daher ist es sinnvoll, noch in weitere Anlagen zu diversifizieren als nur in Renten und Aktien (siehe auch [[Diversifikation]]). Die Risikominderung durch [[Diversifikation]] oder Investition in negativ korrelierte Assets bezeichnet man als [[Hedging]]. Dem ist allerdings eine natürliche Grenze dadurch gegeben, dass, wenn zwei Assets negativ korreliert sind, ein dritter nicht mit beiden negativ korreliert sein kann, sondern nur mit dem einen negativ in dem Maße, in dem er mit dem anderen positiv korreliert ist. Die ideale Diversifikation ist so umfassend, dass keine Korrelationen zwischen den einzelnen Assets existieren. Erwirtschaften zudem die einzelnen, nicht korrelierenden Assets noch eine maximale Rendite, so ergibt sich das ideale, jedoch in Realität nie existierende Portfolio. Reduktion der Korrelation des Gesamtportfolios im Verhältnis zu seinen Einzelanlagen, verbessert nach dem [[Harry Markowitz|Markowitz]]-Modell das Rendite-Risiko-Verhältnis. Auf langfristiger Basis wird damit prinzipiell eine höhere Rendite bei geringerem Risiko erzielt (siehe auch [[Portfoliotheorie]]). Die Korrelation macht in erster Linie Aussagen über die Richtung des Verlaufs von Aktien und Index, nicht jedoch über das Ausmaß der jeweiligen Veränderung. Aus einer positiven Korrelation von 0,8 lässt sich beispielsweise nicht erkennen, um wie viel der Aktienkurs bei einem 3-%-Anstieg des DAX steigt. Auch besagt die Korrelation nicht, ob der DAX auf die Aktie wirkt, oder die Aktie auf den DAX. Für die Analyse von Wertpapieren hat sich das [[Capital Asset Pricing Model]] entwickelt, dort kommt der [[Betafaktor]] als wichtige Kennzahl ins Spiel. === Anwendung in der Softwaretechnik === Ein '''Korrelationstest''' bezeichnet in der [[Softwaretechnik]] ein Verfahren, in dem nicht nur einzelne [[Parameter (Informatik)|Parameter]] einer [[Funktion (Programmierung)|Funktion]] auf Plausibilität (zum Beispiel in [[Datentyp]] oder Wertebereich) geprüft werden, sondern auch Kombinationen dieser Parameter berücksichtigt werden. Es ist möglich, dass zwar jeder Parameter für sich einen gültigen Wert besitzt, diese in Kombination jedoch ein fehlerhaftes Verhalten der zu testenden Funktion hervorrufen, nämlich wenn diese Parameter durch die Funktion '''korreliert''' werden. Beispiel: Ein rechteckiges Objekt soll auf dem Bildschirm dargestellt werden. Hierzu existiert eine Funktion, die in den Parametern ''X'',''Y'',''SX'',''SY'' die Dimension des Rechtecks entgegennimmt. * Parameter ''X'' gibt die X-Position der linken oberen Ecke an. Es muss geprüft werden, ob ''X'' im gültigen Anzeigebereich liegt. * Parameter ''SX'' gibt die X-Kantenlänge (Breite des Rechteckes) an. Hier muss zunächst geprüft werden, ob ''SX'' die zulässige Anzeigebreite nicht überschreitet. * Bei einem ''Korrelationstest'' wird nun zusätzlich geprüft, ob, ''X + SX'' im gültigen Wertebereich liegt. === Anwendung in der Bildverarbeitung === In der [[Bildverarbeitung]] nutzt man Korrelationsfunktionen unter anderem zur genauen Lokalisierung eines Musters (der ''Musterfunktion'' im Sinne der mathematischen Korrelation) in einem Bild. Dieses Verfahren kann z. B. zur Auswertung von [[Stereofotografie|Stereobildpaaren]] verwendet werden. Um die räumliche Koordinate eines Punktes berechnen zu können, muss eine eindeutige Zuordnung von Objekten im linken Bild zu den Objekten im rechten Bild existieren. Dazu nimmt man einen kleinen Ausschnitt aus dem einen Bild – das Muster – und korreliert ihn zweidimensional mit dem anderen Bild. Die so erhaltenen Koordinaten eines Objektpunktes oder -merkmals im linken und rechten Bild kann man mit Methoden der [[Photogrammetrie]] in räumliche Koordinaten umwandeln. [[Bild:corr_inputrp.png|thumb|left|Vier Fotos]] Die Fotos der Bildfolge links zeigen eine junge Frau, ihr Negativbild, Nietzsche und ein zufälliges Rauschmuster. Um zu testen, ob das Foto der jungen Frau auch in den verrauschten Bildern wiederzufinden ist, wurden alle vier Bilder zunächst mit einem weißen Gaußschen Rauschen überlagert und dann mit ihrem Foto (erstes Foto der Bildfolge) korreliert. [[Bild:corr_outpurp.png|thumb|right|Korrelationsbilder (siehe Text)]] Das Ergebnis sieht man in der Bildzusammenstellung rechts. Undeutlich zu erkennen sind die Ausgangsbilder. Rechts neben ihnen stehen die Korrelationsrechnungen. Das Korrelationsbild von Nietzsche zeigt wenig Übereinstimmungen mit dem der jungen Frau, das Rauschmusterbild fast gar keine. Gut zu erkennen ist die positive und negative Korrelation mit den Bildern, die die Frau und ihr Negativ zeigen. Das Bild-Beispiel stammt aus dem Artikel [[Code Division Multiple Access|CDMA]], wo es Anwendungen der Korrelationsrechnung bei der Signalanalyse veranschaulicht. Im weiteren Sinn basieren sog. optische Rechner (Fourier Optik, 4f) auf der Korrelation. Die auch als Fourier-Korrelatoren bezeichneten Systeme korrelieren Bilder mit Hilfe von Hologrammen. Durch eine 4f-Optik lässt sich die Korrelation im Frequenzraum durch einen rein physikalischen Prozess (contracted; show full) == Siehe auch == * [[Konfundierungseffekt]] * [[Korrelationsgradmesser]] * [[Kovarianz (Stochastik)|Kovarianz]] * [[Kollinearität]] als Fehlermöglichkeit oder Entgleisungsmöglichkeit * [[Korrelationskoeffizient]]⏎ * [[Stochastische Unabhängigkeit]] == Literatur == * David G. Myers: ''Psychologie'', Springer, 2. Auflage, ISBN 3540213589, Seiten 30-35 == Weblinks == {{Wiktionary}} {{Wikibooks|Mathematik: Statistik: Abhängigkeit von Zufallsvariablen|Korrelationskoeffizient zweier diskreter Zufallsvariablen}} {{Wikibooks|Mathematik: Statistik: Korrelationsanalyse|Anschauliche Darstellung des Stichprobenkorrelationskoeffizienten}} * [http://www.uni-koeln.de/phil-fak/muwi/ag/tec/kohkor.pdf Kohärenz und Korrelation in der Tonstudiotechnik] <small>(<abbr title="Portable Document Format">PDF</abbr>, <span title="rund">≈</span> 10 <abbr title="Kilobyte">KB</abbr>; 10 kB)</small> – Dokument bei der ''[[Universität zu Köln|Uni-Köln]]'' == Einzelnachweise == <references/> [[Kategorie:Deskriptive Statistik]] All content in the above text box is licensed under the Creative Commons Attribution-ShareAlike license Version 4 and was originally sourced from https://de.wikipedia.org/w/index.php?diff=prev&oldid=119485104.
![]() ![]() This site is not affiliated with or endorsed in any way by the Wikimedia Foundation or any of its affiliates. In fact, we fucking despise them.
|