Wednesday 14 June 2017

Brownsche Bewegung Forexworld


Brownian Bewegung Brownian Bewegung, auch als Brown'sche Bewegung. Irgendwelche von verschiedenen physikalischen Phänomenen, in denen einige Menge ständig kleine, zufällige Schwankungen durchmacht. Es wurde nach dem schottischen Botaniker Robert Brown benannt. Die ersten, die solche Fluktuationen studieren (1827). (Links) Zufällige Bewegung eines Brownschen Partikels (rechts) zufällige Diskrepanz zwischen dem Molekül Wenn eine Anzahl von Partikeln, die der Brownschen Bewegung unterliegen, in einem gegebenen Medium vorhanden sind und es keine Vorzugsrichtung für die zufälligen Oszillationen gibt, dann über einen Zeitraum von Zeit Teilchen dazu neigen, gleichmßig über das Medium verteilt zu werden. Wenn A und B also zwei benachbarte Bereiche sind und zum Zeitpunkt t. A enthält doppelt so viele Teilchen wie B. In diesem Augenblick ist die Wahrscheinlichkeit, daß A die Teilchen A in B eintritt, doppelt so groß wie die Wahrscheinlichkeit, daß ein Teilchen B verlassen wird, um in A einzugehen. Der physikalische Prozess, in dem eine Substanz dazu neigt, sich kontinuierlich von Bereichen hoher Konzentration zu Bereichen niedrigerer Konzentration zu verbreiten, wird als Diffusion bezeichnet. Die Diffusion kann daher als makroskopische Manifestation der Brownschen Bewegung auf der mikroskopischen Ebene betrachtet werden. Somit ist es möglich, die Diffusion zu studieren, indem man die Bewegung eines Brownschen Teilchens simuliert und sein Durchschnittsverhalten berechnet. Einige Beispiele für die zahlreichen Diffusionsprozesse, die im Hinblick auf die Brownsche Bewegung untersucht werden, schließen die Diffusion von Schadstoffen durch die Atmosphäre ein. Die Diffusion von Löchern (winzige Bereiche, in denen das elektrische Ladungspotential positiv ist) durch einen Halbleiter. Und die Diffusion von Kalzium durch Knochengewebe in lebenden Organismen. Frühere Untersuchungen Einsteins-Theorie der Brownschen Bewegung1. Standard Brownian Motion Basic Theory Im Jahr 1827 bemerkte der Botaniker Robert Brown, dass winzige Partikel aus Pollen, wenn sie im Wasser suspendiert, zeigte kontinuierliche, aber sehr nervös und unberechente Bewegung. In seinem Wunderjahr 1905 erklärte Albert Einstein das Verhalten körperlich und zeigte, dass die Teilchen ständig von den Molekülen des Wassers bombardiert wurden und so zur Festlegung der Atomtheorie der Materie beigetragen haben. Brown'sche Bewegung als mathematischer Zufallsprozeß wurde erstmals 1918 in einer Reihe von Arbeiten von Norbert Wiener in strenger Weise konstruiert. Aus diesem Grund wird der Brownsche Bewegungsvorgang auch als Wiener-Verfahren bezeichnet. Führen Sie die zweidimensionale Brownsche Bewegungssimulation mehrmals im Einzelschrittmodus aus, um eine Vorstellung davon zu erhalten, was Mr. Brown unter seinem Mikroskop beobachtet haben könnte. Zusammen mit dem Bernoulli-Prozessprozess und dem Poisson-Prozess. Ist der Brownsche Bewegungsprozess von zentraler Bedeutung für die Wahrscheinlichkeit. Jeder dieser Prozesse basiert auf einem Satz von idealisierten Annahmen, die zu einer reichen mathematischen Theorie führen. In jedem Fall wird das Verfahren auch als Baustein für eine Reihe von verwandten Zufallsprozessen verwendet, die für eine Vielzahl von Anwendungen von großer Bedeutung sind. Insbesondere werden Brown'sche Bewegungen und verwandte Prozesse in Anwendungen eingesetzt, die von der Physik über die Statistik bis hin zur Ökonomie reichen. Definition Eine standardmäßige Brownsche Bewegung ist ein Zufallsprozeß (bs) mit Zustandsraum (R), der die folgenden Eigenschaften erfüllt: (X0 0) (mit Wahrscheinlichkeit 1). (Bs) stationäre Inkremente aufweist. Das heißt, für (s, t in 0, infty)) mit (s lt t) ist die Verteilung von (Xt - Xs) die gleiche wie die Verteilung von (X). (Bs) unabhängige Inkremente hat. Das heißt, für (t1, t2, ldots, tn in 0, infty)) mit (t1 lt t2 lt cdots lt tn) sind die Zufallsvariablen (X, X - X, ldots, X - X) unabhängig. (Xt) normal mit dem Mittelwert 0 und der Varianz (t) für jedes (t in (0, infty) verteilt. Mit Wahrscheinlichkeit 1 ist (t mapsto Xt) stetig auf (0, infty)). Um die Annahmen physisch zu verstehen, nehmen wir sie zu einer Zeit. Angenommen, wir messen die Position eines Brownschen Teilchens in einer Dimension, beginnend zu einer beliebigen Zeit, die wir mit (t 0) bezeichnen, wobei die Anfangsposition mit (x 0) bezeichnet wird. Dann ist diese Annahme durch Konvention erfüllt. In der Tat, gelegentlich, seine bequem, diese Annahme zu entspannen und ermöglichen (X0), um andere Werte haben. Dies ist eine Aussage über Zeithomogenität. Verändert sich die zugrunde liegende Dynamik (nämlich das Gedringen des Teilchens durch die Moleküle des Wassers) nicht über die Zeit, so daß die Verteilung der Teilchenverteilung in einem Zeitintervall (s, t) nur von der Länge des Zeitintervalls abhängt. Dies ist eine idealisierte Annahme, die annähernd annimmt, wenn die Zeitintervalle im Vergleich zu den winzigen Zeiten zwischen Kollisionen des Teilchens mit den Molekülen groß sind. Dies ist eine weitere idealisierte Annahme, die auf dem zentralen Grenzwertsatz beruht: Die Position des Teilchens zur Zeit (t) ist das Ergebnis einer sehr großen Anzahl von Kollisionen, die jeweils einen sehr kleinen Beitrag leisten. Die Tatsache, daß das Mittel 0 ist, ist eine Aussage räumlicher Homogenität. Das Teilchen ist nicht mehr oder weniger wahrscheinlich, um nach rechts als nach links gedreht zu werden. Als nächstes sei daran erinnert, dass die Annahmen stationärer unabhängiger Inkremente für eine positive Konstante (sigma2) (var (Xt) sigma2 t) bedeuten. Durch eine Veränderung der Zeitskala können wir (sigma2 1) annehmen, obwohl wir im nächsten Abschnitt allgemeinere Brownsche Bewegungen betrachten werden. Schließlich ist die Kontinuität der Probenwege eine wesentliche Voraussetzung, da wir die Position eines physikalischen Teilchens als Funktion der Zeit modellieren. Die erste Frage, die wir stellen sollten, ist natürlich, ob es einen stochastischen Prozess gibt, der die Definition erfüllt. Glücklicherweise ist die Antwort ja, obwohl der Beweis ist kompliziert. Es existiert ein Wahrscheinlichkeitsraum ((Omega, mathscr, P)) und ein stochastischer Prozeß (bs) auf diesem Wahrscheinlichkeitsraum, der die Annahmen in der Definition erfüllt. Die Annahmen in der Definition führen zu einer konsistenten Menge von endlichen Dimensionsverteilungen (die unten angegeben werden). So durch Kolmogorov Existenz-Theorem. Gibt es einen stochastischen Prozess (bs), der diese endlichen Dimensionsverteilungen hat. Allerdings hat (bs) keine kontinuierlichen Probenwege, aber wir konstruieren aus (bs) ein gleichwertiges Verfahren, das kontinuierliche Probenwege hat. Zuerst erinnern wir uns, daß ein binäres rationales (oder dyadisches rationales) in (0, infty) eine Zahl der Form (k big 2n) mit (k in N) ist. Sei (Q) die Menge aller Binärrationalisierungen in (0, infty) und erinnere daran, daß (Q) abzählbar, aber auch dicht in (0, infty) ist (dh, wenn (t in 0, infty) setminus Q) gibt es (tn in Q) für (n in N), so dass (tn bis t) als (n bis infty)). Für (n in N) sei (Xn (t) Ut), wenn (t) ein binäres Rational der Form (k groß 2n) für einige (k in N) ist. Ist (t) kein solches binäres rational, so definiere (Xn (t)) durch lineare Interpolation zwischen den nächstliegenden binären Rationalen dieser Form auf beiden Seiten von (t). Dann ist (Xn (t) bis U (t)) für jedes (t in Q) und (mit Wahrscheinlichkeit 1) die Konvergenz auf (Q - . Dann folgt (bs) stetig auf (Q) mit der Wahrscheinlichkeit 1. Für den letzten Schritt sei (Xt lim Us) für (t in 0, infty)). Der Grenzwert existiert, da (bs) stetig auf (Q) mit der Wahrscheinlichkeit 1 ist. Der Prozeß (bs) ist mit der Wahrscheinlichkeit 1 stetig auf (0, infty) und hat die gleichen endlichen Dimensionsverteilungen wie (bs). Führen Sie die Simulation des standardmäßigen Brown'schen Bewegungsprozesses ein paar Mal im Einzelschrittmodus aus. Beachten Sie das qualitative Verhalten der Probenpfade. Führen Sie die Simulation 1000 mal aus und vergleichen Sie die empirische Dichtefunktion und die Momente von (Xt) mit der wahren Wahrscheinlichkeitsdichtefunktion und den Momenten. Brown'sche Bewegung als Grenzwert der Random Walks Die zugrunde liegende Dynamik der Brown'schen Partikel, die von Molekülen umklopft wird, suggeriert eine zufällige Wanderung als ein mögliches Modell, aber mit winzigen Zeitschritten und kleinen räumlichen Sprüngen. Es sei (bs (X0, X1, X2, ldots)) der symmetrische einfache Zufallsweg. Somit ist (Xn sum n Ui) wobei (bs (U1, U2, ldots)) eine Folge unabhängiger Variablen mit (P (Ui 1) P (Ui -1) frac) für jedes (i in N) ist. Man beachte, dass (E (Xn) 0) und (var (Xn) n) für (n in N). Da (bs) der Teilsummenprozeß ist, der mit einer IID-Sequenz verbunden ist, hat (bs) stationäre, unabhängige Inkremente (aber natürlich in diskreter Zeit). Schließlich sei daran erinnert, daß nach dem zentralen Grenzwertsatz (Xn big sqrt) die normale Normalverteilung (n bis infty) konvergiert. Nun ist für (h, d in (0, infty)) der kontinuierliche Zeitprozess bs (t) links: t in 0, infty) rechts ein Sprungvorgang mit Sprüngen bei () und mit Sprüngen der Größe (pmd). Grundsätzlich wollen wir (h downarrow 0) und (d downarrow 0), aber dies kann nicht beliebig getan werden. Beachten Sie, dass (EleftX (t) rechts 0) aber (varleftX (t) rechts d2 lfloor t h rfloor). Nach dem zentralen Grenzwertsatz konvergiert dann die Verteilung von (X (t)) auf die Normalverteilung mit Mittelwert 0 und Varianz (t) als (h abwärts 0). Allgemeiner könnte man hoffen, daß alle Anforderungen in der Definition durch den Begrenzungsprozeß erfüllt sind, und wenn dem so ist, haben wir eine standardmäßige Brownsche Bewegung. Führen Sie die Simulation des Zufallsprozesses aus, um die Werte von (n) zu erhöhen. Insbesondere die Simulation mehrmals mit (n 100) durchführen. Vergleichen Sie das qualitative Verhalten mit dem standardisierten Brownschen Bewegungsablauf. Man beachte, dass die Skalierung der zufälligen Wanderung in Zeit und Raum effektiv durch Skalierung der horizontalen und vertikalen Achsen im Diagrammfenster erreicht wird. Finite Dimensional Distributions Es sei (bs) eine standardisierte Brownsche Bewegung. Es folgt aus Teil (d) der Definition, dass (Xt) die Wahrscheinlichkeitsdichtefunktion (ft) hat, die durch ft (x) frac expleft (-frac rechts), quad x in R gegeben ist. Diese Familie von Dichtefunktionen bestimmt die endlichen dimensionalen Verteilungen von (Bs). (X, X, ldots, X)) die Wahrscheinlichkeitsdichtefunktion (f), die durch (bs) gegeben ist, (tl, t2, ldots, tn in (0, infty)) mit (0 lt t1 lt t2 cdots lt tn) ) Ist ein Gaußscher Prozeß mit Mittelfunktion (m (t) 0) für (t in 0, infty)) und Kovarianzfunktion (c (s, t) min) für (s, t in 0, infty)). Die Tatsache, daß (bs) ein Gaußscher Prozeß ist, folgt, weil (Xt) für jedes (t in T) normal verteilt ist und (bs) stationäre, unabhängige Inkremente hat. Die mittlere Funktion ist nach Annahme 0. Für die Kovarianzfunktion sei (s, t in 0, infty)) mit (s le t) angenommen. Da (Xs) und (Xt - Xs) unabhängig sind, haben wir cov (Xs, Xt) covleftXs, Xs (Xt - Xs) rechts var (Xs) 0 s Wir erinnern daran, dass für einen Gaußschen Prozeß die endliche Dimension (multivariat normal) Werden die Verteilungen vollständig durch die mittlere Funktion (m) und die Kovarianzfunktion (c) bestimmt. Somit folgt, dass eine standardmäßige Brownsche Bewegung als ein kontinuierlicher Gaußscher Prozess mit den Mittel - und Kovarianzfunktionen im letzten Satz charakterisiert ist. Wir können auch die höheren Momente und die Moment-Erzeugungsfunktion für (Xt) angeben. Für (n in N) und (t in 0, infty)) (Eleft (Xt rechts) 1 cdot 3 cdots (2 n - 1) tn (2n) 0) Beweis: Diese Momente folgen aus Standardresultaten, da (Xt) normal mit Mittelwert 0 und Varianz (t) verteilt ist. Für (t in 0, infty) hat (Xt) eine durch Eleft (e rechts) e gegebene Moment-Erzeugungsfunktion, quad u in R Again, dies ist ein Standardergebnis für die Normalverteilung. Einfache Transformationen Es gibt mehrere einfache Transformationen, die die standardmäßige Brownsche Bewegung bewahren und uns Einblicke in einige ihrer Eigenschaften geben werden. Wie üblich ist unser Ausgangspunkt ein Standard-Brown'sche Bewegung (bs). Unser erstes Ergebnis ist, dass die Reflexion der Pfade von (bs) in der Geraden (x 0) eine weitere Standard-Brown'sche Bewegung gibt (Yt - Xt) für (t ge 0). Dann ist (bs) auch eine standardmäßige Brownsche Bewegung. Offensichtlich ist das neue Verfahren noch ein Gaußscher Prozeß mit der mittleren Funktion (E (-Xt) - E (Xt) 0) für (t in 0, infty) und der Kovarianzfunktion (cov (-Xs, - Xt) cov (Xs , Xt) min) für ((s, t) in 0, infty) 2). Schließlich ist, da (bs) stetig ist, also (bs). Unser nächstes Ergebnis bezieht sich auf die Markov-Liegenschaft, auf die wir im folgenden näher eingehen. Wenn wir die Brownsche Bewegung zu einer festgelegten Zeit neu starten und den Ursprung nach (Xs) verschieben, dann haben wir eine andere Brown'sche Standardbewegung. Dies bedeutet, dass die Brownsche Bewegung zeitlich und räumlich homogen ist. Fix (s in 0, infty)) und definieren (Yt X - Xs) für (t ge 0). Dann ist (bs) auch eine standardmäßige Brownsche Bewegung. Da (bs) stationäre, unabhängige Inkremente hat, ist der Prozeß (bs) äquivalent in der Verteilung zu (bs). Offensichtlich ist auch (bs) stetig, da (bs) ist. Unser nächstes Ergebnis ist eine einfache Zeitumkehr, aber um dieses Ergebnis anzugeben, müssen wir den Zeitparameter auf ein beschränktes Intervall der Form (0, T) beschränken, wobei (T gt 0). Der obere Endpunkt (T) wird manchmal als endlicher Zeithorizont bezeichnet. Beachten Sie, dass () noch die Definition erfüllt. Aber mit den Zeitparametern, die auf (0, T) beschränkt sind. Definiere (Yt X - XT) für (0 le t le T). Dann ist (bs links) auch eine standardmäßige Brownsche Bewegung auf (0, T). (Bs) ist ein Gaußscher Prozess, da eine endliche, lineare Kombination von Variablen aus diesem Prozess zu einer endlichen, linearen Kombination von Variablen aus (bs) reduziert. Als nächstes wird (E (Yt) E (X) - E (XT) & sub0;). Als nächstes beginnen wir, wenn (s, t in 0, T) mit (s le t) cov (Ys, Yt) amp cov (X - XT, X - Xt) cov (X, XT) - (T - t) T s end Schließlich ist (t mapsto Yt) stetig auf (0, T) mit Wahrscheinlichkeit 1, da (t mapsto Xt) stetig auf (0, T) mit der Wahrscheinlichkeit 1 ist. Unsere nächste Transformation beinhaltet sowohl die zeitliche als auch die räumliche Skalierung (bs) und wird als Selbstähnlichkeit bezeichnet. Sei (a gt 0) und definiere (Yt frac X) für (t ge 0). Dann ist (bs) auch eine standardmäßige Brownsche Bewegung. Wiederum ist (bs) ein Gaußscher Prozeß, da endliche lineare Kombinationen von Variablen in (bs) zu endlichen linearen Kombinationen von Variablen in (bs) reduzieren. Als nächstes wird (E (Yt) a E (X) 0) für (t gt 0) und für (s, t gt 0) mit (s lt t), cov (Ys, Yt) covleft (frac X, frac X rechts) frac covleft (X, X rechts) frac a2 ss Schließlich (bs) ist ein kontinuierlicher Prozess, da (bs) stetig ist. Man beachte, daß der Graph von (bs) aus dem Graphen von (bs) durch Skalierung der Zeitachse (t) um einen Faktor (a2) und Skalierung der räumlichen Achse (x) um einen Faktor (a) erhalten werden kann. Die Tatsache, dass der zeitliche Skalenfaktor das Quadrat des räumlichen Skalenfaktors sein muss, steht eindeutig in Beziehung zur Brownschen Bewegung als die Grenze der zufälligen Wanderungen. Man beachte auch, daß diese Transformation das Verkleinern oder Verkleinern des Graphen von (bs) und somit die Brownsche Bewegung eine selbstähnliche fraktale Qualität bedeutet, da der Graph durch diese Transformation unverändert bleibt. Dies legt auch nahe, dass, obwohl stetig, (t mapsto Xt) sehr unregelmäßig ist. Wir betrachten dies im nächsten Teilabschnitt. Unsere letzte Transformation wird als Zeitinversion bezeichnet. Es seien (Y0 0) und (Yt t X) für (t gt 0). Dann ist (bs) auch eine standardmäßige Brownsche Bewegung. Offensichtlich (bs) ist ein Gaußscher Prozeß, da endliche lineare Kombinationen von Variablen in (bs) zu endlichen linearen Kombinationen von Variablen in (bs) reduzieren. Als nächstes werden (E (Yt) tE (X) 0) für (tgt0) und für (s, tgt0) mit (s & sub1; & sub0;), covleft (Ys, Ytright) (X, x rechts) st frac s mit der Wahrscheinlichkeit 1 (t mapsto Yt) stetig auf ((0, infty)) Wahrscheinlichkeit 1. Somit bleibt nur noch die Kontinuität bei (t 0) zu sehen. Also müssen wir zeigen, dass mit der Wahrscheinlichkeit 1 (t X bis 0) als (t downarrow 0). Oder äquivalent (Xs s bis 0) als (s uparrow infty). Aber diese letzte Aussage gilt durch das Gesetz des iterierten Logarithmus. unten angegeben. Unregelmäßigkeit Die definierenden Eigenschaften deuten darauf hin, dass die standardmäßige Brownsche Bewegung (bs) keine glatte, differenzierbare Funktion sein kann. (Hgt 0) hat der Zähler die gleiche Verteilung wie (Xh), während if (h lt 0) der Zähler denselben Wert hat Verteilung als (-X), die wiederum die gleiche Verteilung wie (X) hat. In beiden Fällen hat der Differenzenquotient die gleiche Verteilung wie (X big h), und diese Variable hat die Normalverteilung mit Mittelwert 0 und Varianz (linke grosse h2 1 große linke Gerade). Die Varianz des Differenzenquotienten divergiert also zu (infty) als (h bis 0), und der Differenzquotient konvergiert also nicht einmal in der Verteilung, der schwächsten Konvergenzform. Die zeitlich-räumliche Transformation oben zeigt auch, dass die Brownsche Bewegung nicht differenzierbar sein kann. Die intuitive Bedeutung von differenzierbar bei (t) ist, dass die Funktion lokal linear ist bei (t) mdashas wir zoon in, der Graph nahe (t) beginnt wie eine Linie auszusehen (deren Steigung natürlich die Ableitung ist). Aber da wir in der Brown'schen Bewegung (im Sinne der Transformation) zoonieren, sieht es immer gleich aus, und zwar genau so gezackt. Formaler, wenn (bs) bei (t) differenzierbar ist, so ist auch das transformierte Verfahren (bs), und die Kettenregel gibt (Yprime (t) a Xprime (a2 t)). Aber (bs) ist auch eine standardmäßige Brownsche Bewegung für jedes (a gt 0), so dass etwas eindeutig falsch ist. Obwohl nicht rigoros, sind diese Beispiele Motivation für den folgenden Satz: Mit Wahrscheinlichkeit 1 ist (bs) nirgends differenzierbar auf (0, infty)). Führen Sie die Simulation des standardmäßigen Brownschen Bewegungsprozesses aus. Beachten Sie die Kontinuität, aber sehr gezackte Qualität der Probenpfade. Natürlich, die Simulation kann nicht wirklich erfassen Brownian Bewegung mit voller Treue. Die folgenden Theoreme geben ein präziseres Maß für die Unregelmäßigkeit der normalen Brownschen Bewegung. Standard-Brownsche Bewegung (bs) hat Houmllder-Exponenten (frac). Das heißt, (bs) ist Houmllder kontinuierlich mit Exponent (alpha) für jeden (alpha lt frac), aber ist nicht Houmllder kontinuierlich mit Exponenten (alpha) für alle (alpha gt frac). Insbesondere ist (bs) nicht Lipschitz stetig, und dies zeigt wieder, daß es nicht differenzierbar ist. Das folgende Ergebnis besagt, dass der Graph der standardmäßigen Brown'schen Bewegung in der Hausdorff-Dimension zwischen einer einfachen Kurve (Dimension 1) und der Ebene (Dimension 2) liegt. Der Graph der standardisierten Brownschen Bewegung hat eine Hausdorff-Dimension (frac). Noch ein anderer Hinweis auf die Unregelmäßigkeit der Brownschen Bewegung ist, dass sie unendlich viele Variationen in jedem Intervall positiver Länge aufweist. Es sei (a,, b in R) mit (a lt b) angenommen. Dann ist die Gesamtvariation von (bs) auf (a, b) (infty). Die Markov-Eigenschaft und Stoppzeiten Wie üblich beginnen wir mit einer standardisierten Brownschen Bewegung (bs). Erinnern Sie sich, dass ein Markov-Prozess die Eigenschaft hat, dass die Zukunft unabhängig von der Vergangenheit ist, angesichts des gegenwärtigen Zustandes. Wegen der stationären, unabhängigen Inkrementen Eigenschaft, hat Brownian Bewegung die Eigenschaft. Als kleine Anmerkung, um (bs) als Markoff-Prozess zu sehen, müssen wir manchmal die Annahme 1 entspannen und X0 einen beliebigen Wert in (R) haben. Sei (mathscr t sigma), die durch den Prozeß erzeugte Sigma-Algebra bis zur Zeit (t in 0, infty)). Die Familie der (Sigma) - Algebren (mathfrak t: t in 0, infty)) wird als Filtration bezeichnet. Standard-Brownsche Bewegung ist ein zeitlich homogener Markoff-Prozess mit der Übergangswahrscheinlichkeitsdichte (p), die durch pt (x, y) ft (y - x) frac expleft-frac right, quad t in (0, infty) x,, y in gegeben ist R Fix (s in 0, infty)). Der Satz folgt aus der Tatsache, daß der Prozeß (- Xs: t in 0, infty)) eine andere standardmäßige Brownsche Bewegung ist, wie oben gezeigt. Und ist unabhängig von (mathscr s). Die Transtionsdichte (p) erfüllt die folgenden Diffusionsgleichungen. Die erste ist als Vorwärtsgleichung und die zweite als Rückwärtsgleichung bekannt. (X, y) amp frac frac pt (x, y) frac pt (x, y) amp frac frac pt (x, y) end Diese Ergebnisse folgen dem Standardkalkül. Die Diffusionsgleichungen sind so genannt, weil die räumliche Ableitung in der ersten Gleichung bezüglich (y), der Zustand vorwärts zur Zeit (t) ist, während die räumliche Ableitung in der zweiten Gleichung in bezug auf (x) den Zustand ist (Tau), wobei die Werte in (0, infty) eine Haltezeit in bezug auf den Prozeß (bs) sind, wenn (in mathscr t) für jedes (t in 0, infty)). Informell können wir feststellen, ob (tau le t) durch Beobachten des Prozesses bis zur Zeit (t). Ein wichtiger Spezialfall ist das erste Mal, dass unsere Brown'sche Bewegung einen bestimmten Zustand trifft. Somit gilt für (x in R) (taux inf). Die Zufallszeit (taux) ist eine Haltezeit. Für eine Haltezeit (tau) benötigen wir die (sigma) - Algebra von Ereignissen, die sich bis zur zufälligen Zeit (tau) analog zu (mathscr t), der (Sigma) - Algebra von bis zu der Zufallszeit (tau) definieren lassen Ereignisse, die bis zu einer festen Zeit (t) prozessdefiniert werden können. Die entsprechende Definition lautet mathscr tau: B-Kappe in mathscr t text t ge 0 Weitere Informationen über Filtrationen, Stoppzeiten und die mit einer Stoppzeit verbundenen (Sigma) - Algebra finden Sie im Abschnitt über Filtrationen und Stoppzeiten. Die starke Markov-Eigenschaft ist die Markov-Eigenschaft verallgemeinert zu stoppenden Zeiten. Standard-Brownsche Bewegung (bs) ist auch ein starker Markov-Prozess. Der beste Weg, dies zu sagen, ist eine Verallgemeinerung des zeitlichen und räumlichen Homogenitätsergebnisses oben. Es sei (tau) eine Haltezeit und definiere (Yt X - Xtau) für (t in 0, infty)). Dann ist (bs) eine standardmäßige Brownsche Bewegung und unabhängig von (mathscr tau). Das Reflexionsprinzip Viele interessante Eigenschaften der Brownschen Bewegung können aus einer klugen Idee gewonnen werden, die als Reflexionsprinzip bekannt ist. Wie üblich beginnen wir mit einer standardisierten Brownschen Bewegung (bs). Es sei (tau) eine Haltezeit für (bs). (Bs) aus dem Graphen von (bs) erhalten werden, indem man in der Zeile (x Xtau) reflektiert, wobei x (t) Nach der Zeit (tau). Insbesondere wird, wenn die Stoppzeit (tau) (taua) ist, das erste Mal, wenn der Prozeß auf einen bestimmten Zustand (a gt 0) trifft, der Graph von (bs) aus dem Graphen von (bs) durch Reflektieren erhalten Die Linie (xa) nach der Zeit (taua). Öffnen Sie die Simulation der reflektierenden Brownsche Bewegung. Diese App zeigt den Prozess (bs) entsprechend der Stoppzeit (taua), die Zeit des ersten Besuchs in einem positiven Zustand (a). Führen Sie die Simulation im Einzelschrittmodus aus, bis Sie den reflektierten Prozess mehrmals sehen. Stellen Sie sicher, dass Sie verstehen, wie der Prozess (bs) funktioniert. Der reflektierte Prozess (bs) ist ebenfalls eine standardisierte Brownsche Bewegung. Führen Sie die Simulation des reflektierten Brown'schen Bewegungsprozesses 1000 mal durch. Berechnen Sie die empirische Dichtefunktion und Momente von (Wt) mit der wahren Wahrscheinlichkeitsdichtefunktion und den Momenten. Martingale Wie üblich, sei (bs) eine gewöhnliche Brownsche Bewegung, und (mathscr t sigma) für (t in 0, infty)), so daß (mathfrak t: t in 0, infty) die natürliche Filtration für ( Bs). Es gibt mehrere wichtige Martingale mit (bs) assoziiert. Wir werden ein paar von ihnen in diesem Abschnitt, und andere in den folgenden Abschnitten zu studieren. Unser erstes Ergebnis ist, dass (bs) selbst ein Martingal ist, einfach durch kraft der stationären, unabhängigen Inkrementen und 0 bedeuten. (Bs) ist ein Martingal in Bezug auf (mathfrak). Auch dies gilt für jeden Prozess mit stationären, unabhängigen Inkrementen und 0 Mittel, aber wir geben den Beweis trotzdem für die Vollständigkeit. Es sei (s, t in 0, infty)) mit (s lt t). Da (Xs) in bezug auf (mathscrs) und (Xt - Xs) meßbar ist, ist von (mathscrs) unabhängig, dass wir Eleft (Xt mid mathscr sright) EleftXs (Xt - Xs) mid mathscr sright Xs E (Xt - Xs) ) Xs Das nächste Martingal ist ein wenig interessanter. Es sei (Yt Xt2 - t) für (t in 0, infty)). Dann ist (bs) ein Martingal in bezug auf (mathfrak). Es sei (s, t in 0, infty)) mit (s lt t). Dann ist Yt Xt2 - t leftXs (Xt - Xs) right2 - t Xs2 2 Xs (Xt - Xs) (Xt - Xs) 2 - t Da (Xs) in bezug auf (mathscr s) und (Xt - Xs) messbar ist (Xt - Xs) right2 - t (E (Xt - Xs) 0) und (Eleft (Xt - Xs) 0) und (Elemente (Xt - Xs) ) 2right var (Xt - Xs) t - s) so (Eleft (Yt Mitte mathscr sright) Xs2 - s Ys). Maximums und Hitting Times Wie üblich, beginnen wir mit einem Standard Brown'sche Bewegung (bs). Für (y in 0, infty)) erinnern Sie sich, dass (tauy min) das erste Mal ist, dass der Prozess den Zustand (y) trifft. Natürlich, (tau0 0). Für (t in 0, infty)) sei (Yt max), der Maximalwert von (bs) im Intervall (0, t). Man beachte, daß (Yt) durch die Kontinuität von (bs) und natürlich (Y0 0) gut definiert ist. Wir haben also zwei neue stochastische Prozesse: () und (). Beide haben Index-Set (0, infty)) und (wie wir sehen werden) Zustandsraum (0, infty)). Darüber hinaus sind die Prozesse umgekehrt in einem Sinne: Für (t, y in (0, infty)), (tauy le t) genau dann, wenn (Yt ge y). Da die Standard-Brown'sche Bewegung bei 0 beginnt und kontinuierlich ist, bedeuten beide Ereignisse, daß der Prozeß im Intervall (0, t) auf den Zustand (y) trifft. Wenn wir also die Verteilung von (Yt) für jedes (t in (0, infty)) berechnen können, dann können wir die Verteilung von (tauy) für jedes (y in (0, infty) berechnen und umgekehrt. Für (y gt 0) hat (tauy) die gleiche Verteilung wie (y2 big Z2), wobei (Z) eine normale Standardvariable ist. Die Wahrscheinlichkeitsdichtefunktion (gy) ist gegeben durch gy (t) frac expleft (-frac rechts), quad t in (0, infty) Let (t gt 0). Aus dem vorherigen Ergebnis. Beachten Sie, dass (Xt ge y bedeutet Yt ge y impliziert tauy le t). Dann ist P (Xt ge y) P (Xt ge y, tauy le t) P (Xt ge y mid tauy le t) P (tauy le t) Aus der starken Markov-Eigenschaft (s mapsto X (tauy s) - Y) ist eine andere standardmäßige Brownsche Bewegung. Daher (P (Xt ge y mid tauy le t) frac). Daher folgt P (tauy le t) 2 P (Xt ge y) frac intyinfty e, dx frac int infty e, dz Das zweite Integral folgt aus der ersten durch die Veränderung der Variablen (z x big sqrt). Wir können dieses Integral als (Pleft (y2 big Z2 le tright)) erkennen, wobei (Z) eine normale Normalverteilung hat. Die Ableitung des Integrals in bezug auf (t) ergibt das PDF. Die Verteilung von (tauy) ist die Leacutevy-Verteilung mit Skalenparameter (y2) und ist für den französischen Mathematiker Paul Leacutevy benannt. Die Leacutevy-Verteilung wird im Kapitel über spezielle Verteilungen näher untersucht. Öffnen Sie das Schlagen Zeit Experiment. Variieren Sie (y) und beachten Sie die Form und Lage der Wahrscheinlichkeitsdichtefunktion von (tauy). Führen Sie für ausgewählte Werte des Parameters die Simulation im Einzelschrittmodus ein paar Mal aus. Führen Sie dann das Experiment 1000 mal aus und vergleichen Sie die empirische Dichtefunktion mit der Wahrscheinlichkeitsdichtefunktion. Öffnen Sie den speziellen Verteilungssimulator und wählen Sie die Leacutevy-Verteilung. Variieren Sie die Parameter und beachten Sie die Form und Lage der Wahrscheinlichkeitsdichtefunktion. Für ausgewählte Werte der Parameter, führen Sie die Simulation 1000 mal und vergleichen Sie die empirische Dichtefunktion mit der Wahrscheinlichkeitsdichtefunktion. Standard-Brownsche Bewegung ist wiederkehrend. Das heißt, (P (tauy lt infty) 1) für jedes (y in R). Es sei zunächst (y gt 0). Aus dem Beweis des letzten Satzes. P (tauy lt infty) lim P (tauy le t) frac int0infty e, dz 1 Beachten Sie, dass das Integral über dem Integral des Standard-Normal-PDF über (R) äquivalent ist. Insbesondere ist die obige Funktion (gy) ein gültiges PDF. Wenn (y lt 0) dann durch Symmetrie, (tauy) die gleiche Verteilung wie (tau) hat, so (P (tauy lt infty) 1). Trivial, (tau0 0). Für jedes (y in R) trifft (bs) schließlich die Wahrscheinlichkeit 1 auf (y). Eigentlich können wir noch mehr sagen: Mit Wahrscheinlichkeit 1 besucht (bs) jeden Punkt in (R). Durch Kontinuität, wenn (bs) erreicht (y gt 0) dann (bs) besucht jeden Punkt in (0, y). Durch Symmetrie gilt eine ähnliche Aussage für (y lt 0). Somit ist das Ereignis, das (bs) jeden Punkt in (R) besucht, (bigcap infty left (cap lt inft rights)). Die Wahrscheinlichkeit eines abzählbaren Überschneidens von Ereignissen mit Wahrscheinlichkeit 1 hat immer noch die Wahrscheinlichkeit 1. Auf der anderen Seite ist die Standard-Brownsche Bewegung null wiederkehrend. Das heißt, (E (tauy) infty) für jedes (y in R setminus). Durch Symmetrie genügt es, (y gt 0) zu betrachten. Aus dem obigen Ergebnis der Verteilung von (tauy). E (tauy) int0infty P (tauy gt t), dt frac int0infty int0 e, dz, dt Ändern der Integrationsreihenfolge ergibt E (tauy) frac int0infty frac e, dz, dz frac int0infty frac e, dz Als nächstes erhalten wir eine niedrigere Die auf dem letzten Integral durch Integrieren über das Intervall (0, 1) gebunden ist, und daß man (e ge e) auf diesem Integral anmerkt. Somit hat E (tauy) ge frac int01 frac, dz infty Der Prozess () hat stationäre, unabhängige Inkremente. Der Beweis beruht auf der zeitlichen und räumlichen Homogenität der Brownschen Bewegung und der starken Markov-Eigenschaft. Es sei (x, y in 0, infty)) mit (x lt y). Durch die Kontinuität muss (bs) (x) erreichen, bevor (y) erreicht wird. So (tauy taux (tauy - taux)). Aber (tauy - taux) ist die Schlagezeit für (y - x) für das Verfahren (t mapsto X (taux t) - x) und wie oben gezeigt. Dieses Verfahren ist auch eine standardisierte Brownsche Bewegung, unabhängig von (mathscr (taux)). Daher ist (tauy - taux) unabhängig von (mathscr (taux)) und hat dieselbe Verteilung wie (tau). Die Familie der Wahrscheinlichkeitsdichtefunktionen () wird unter Faltung geschlossen. Das heißt, (gx gy g) für (x,, y in (0, infty)). Dies folgt unmittelbar aus dem vorigen Satz. Ein direkter Beweis ist eine interessante Übung. Wir wenden uns nun dem maximalen Prozeß (), dem Kehrwert des Schlagens (), zu. Für (t gt 0) hat (Yt) die gleiche Verteilung wie (leftXtright), bekannt als Halb-Normalverteilung mit Skalenparameter (t). Die Wahrscheinlichkeitsdichtefunktion ist ht (y) sqrt expleft (-frac rechts), quad y in 0, infty) Beweis: Aus der umgekehrten Relation und der Verteilung von (tauy), (P (Yt ge y) P (tauy le t ) 2 P (Xt ge y) Pleft (linksXtright ge yright)) für (y ge 0). Definitionsgemäß hat (leftXtright) die Halbnormalverteilung mit dem Parameter (t). Insbesondere liefert P (Yt ge y) frac intyinfty e, dx Die negative Ableitung des Integrals oben, bezogen auf (y), ergibt das PDF. Die Halbnormalverteilung ist ein Spezialfall der gefalteten Normalverteilung. Die im Kapitel Sonderverteilungen näher untersucht wird. Für (t ge 0) sind der Mittelwert und die Varianz von (Yt) die Folge von Standardresultaten für die Halbnormalverteilung. In der Standard-Brown'schen Bewegungssimulation. Wählen Sie den Maximalwert. Variieren Sie den Parameter (t) und beachten Sie die Form der Wahrscheinlichkeitsdichtefunktion sowie die Lage und Größe der mittleren Standardabweichung. Führen Sie die Simulation 1000 mal aus und vergleichen Sie die empirische Dichte und Momente mit der wahren Wahrscheinlichkeitsdichtefunktion und den Momenten. Öffnen Sie den speziellen Verteilungssimulator und wählen Sie die gefaltete Normalverteilung aus. Vary the parameters and note the shape and location of the probability density function and the size and location of the mean-standard deviation bar. For selected values of the parameters, run the simulation 1000 times and compare the empirical density function and moments to the true density function and moments. Zeros and Arcsine Laws As usual, we start with a standard Brownian motion ( bs ). Study of the zeros of ( bs ) lead to a number of probability laws referred to as arcsine laws. because as we might guess, the probabilities and distributions involve the arcsine function. For ( s, t in 0, infty) ) with ( s lt t ), let ( E(s, t) ) be the event that ( bs ) has a zero in the time interval ( (s, t) ). That is, ( E(s, t) u in (s, t) ). Then PleftE(s, t)right 1 - frac arcsinleft(sqrt right) Conditioning on ( Xs ) and using symmetry gives PleftE(s, t)right int infty PleftE(s, t) mid Xs xright fs(x) , dx 2 int 0 PleftE(s, t) mid Xs xright fs(x) , dx But by the homogeneity of ( bs ) in time and space, note that for ( x gt 0 ), ( PleftE(s, t) mid Xs - xright P(taux lt t - s) ). That is, a process in state ( - x ) at time ( s ) that hits 0 before time ( t ) is the same as a process in state 0 at time 0 reaching state ( x ) before time ( t - s ). Hence PleftE(s, t)right int0infty int0 gx(u) fs(-x) , du , dx where ( gx ) is the PDF of ( taux ) given above. Substituting gives PleftE(s, t)right frac int0 u int0infty x expleft-frac x2 left(frac right) right , dx , du frac int0 frac , du Finally substituting ( v sqrt ) in the last integral give PleftE(s, t)right frac int0 frac , dv frac arctan left(sqrt - 1right) 1 - frac arcsinleft(sqrt right) In paricular, ( PleftE(0, t)right 1 ) for every ( t gt 0 ), so with probability 1, ( bs ) has a zero in ( (0, t) ). Actually, we can say a bit more: For ( t gt 0 ), ( bs ) has infinitely many zeros in ( (0, t) ) with probability 1. The event that ( bs ) has infinitely many zeros in ( (0, t) ) is ( bigcap infty E(0, t n) ). The intersection of a countable collection of events with probability 1 still has probability 1. The last result is further evidence of the very strange and irregular behavior of Brownian motion. Note also that ( PleftE(s, t)right ) depends only on the ratio ( s t ). Thus, ( PleftE(s, t)right PleftE(1 t, 1 s)right) and (PleftE(s, t)right PleftE(c s, c t)right ) for every ( c gt 0 ). So, for example the probability of at least one zero in the interval ( (2, 5) ) is the same as the probability of at least one zero in ( (15, 12) ), the same as the probability of at least one zero in ( (6, 15) ), and the same as the probability of at least one zero in ( (200, 500) ). For ( t gt 0 ), let ( Zt ) denote the time of the last zero of ( bs ) before time ( t ). That is, ( Zt maxleft ). Then ( Zt ) has the arcsine distribution with parameter ( t ). The distribution function ( Ht ) and the probability density function ( ht ) are given by begin Ht(s) amp frac arcsinleft(sqrt right), quad 0 le s le t ht(s) amp frac , quad 0 lt s lt t end For ( 0 le s lt t ), the event ( Zt le s ) is the same as ( lefE(s, t)rightc ), that there are no zeros in the interval ( (s, t) ). Hence the formula for ( Ht ) follows from the result above. Taking the derivative of ( Ht ) and simplifying gives the formula for ( ht ). The density function of ( Zt ) is ( u )-shaped and symmetric about the midpoint ( t 2 ), so the points with the largest density are those near the endpoints 0 and ( t ), a surprising result at first. The arcsine distribution is studied in more detail in the chapter on special distributions . The mean and variance of ( Zt ) are These are standard results for the arcsine distribution. That the mean is the midpoint (t2) also follows from symmetry, of course. In the simulation of standard Brownian motion. select the last zero variable. Vary the parameter ( t ) and note the shape of the probability density function and the size and location of the mean-standard deviation bar. For selected values of ( t ) run the simulation is single step mode a few times and note the position of the last zero. Finally, run the simulation 1000 times and compare the empirical density function and moments to the true probability density function and moments. Open the special distribution simulator and select the arcsine distribution. Vary the parameters and note the shape and location of the probability density function and the size and location of the mean-standard deviation bar. For selected values of the parameters, run the simulation 1000 times and compare the empirical density function and moments to the true density function and moments. Now let ( Z ) denote the set of zeros of ( bs ), so that ( Z ) is a random subset of ( 0, infty) ). The theorem below gives some of the strange properties of the random set ( Z ), but to understand these, we need to review some definitions. A nowhere dense set is a set whose closure has empty interior. A perfect set is a set with no isolated points. As usual, we let ( lambda ) denote Lebesgue measure on ( R ). With probability 1, ( Z ) is closed. ( lambda(Z) 0 ) ( Z ) is nowhere dense. ( Z ) is perfect. Proof: Note that ( Z) is the inverse image of the closed set ( ) under the function ( t mapsto Xt ). Since this function is continuous with probability 1, ( Z ) is closed with probability 1. For each ( t in (0, infty) ) note that ( P(t in Z) P(Xt 0) 0 ) since ( Xt ) has a continuous distribution. Using Fubinis theorem Eleftlambda(Z)right E leftint0infty bs Z(t) , dlambda(t)right int0infty Eleftbs Z(t)right , dlambda(t) 0 and hence ( Pleftlambda(Z) 0right 1 ), Since ( Z ) is closed and has Lebesgue measure 0, its interior is empty (all of these statements with probability 1). Suppose that ( s in Z ). Then by the temporal and spatial homogeneity properties, ( t mapsto X ) is also a standard Brownian motion. But then by the result above on zeros. with probability 1, ( bs ) has a zero in the interval ( (s, s 1 n) ) for every ( n in N ). Hence ( s ) is not an isolated point of ( Z ). The following theorem gives a deeper property of ( Z ). The Hausdorff dimension of ( Z ) is midway between that of a point (dimension 0) and a line (dimension 1). ( Z ) has Hausdorff dimension (frac ). The Law of the Iterated Logarithm As usual, let ( bs ) be standard Brownian motion. By definition, we know that ( Xt ) has the normal distribution with mean 0 and standard deviation ( sqrt ), so the function ( x sqrt ) gives some idea of how the process grows in time. The precise growth rate is given by the famous law of the iterated logarithm Computational Exercises In the following exercises, ( bs ) is a standard Brownian motion process. Explicitly find the probability density function, covariance matrix, and correlation matrix of ( (X , X1, X ) ).

No comments:

Post a Comment