我從來沒有真正了解過這兩種融合措施之間的區別。 (或者,實際上,是任何一種不同類型的收斂,但是由於大數的弱定律和強定律,我特別提到了這兩種。)
當然,我可以引用每個和的定義。舉個例子,說明它們之間的差異,但我仍然不太明白。為什麼差異如此重要?有一個特別令人難忘的例子,它們之間有何不同?
我從來沒有真正了解過這兩種融合措施之間的區別。 (或者,實際上,是任何一種不同類型的收斂,但是由於大數的弱定律和強定律,我特別提到了這兩種。)
當然,我可以引用每個和的定義。舉個例子,說明它們之間的差異,但我仍然不太明白。為什麼差異如此重要?有一個特別令人難忘的例子,它們之間有何不同?
從我的角度來看,差異很重要,但主要是出於哲學原因。假設您有一些設備,它會隨著時間的推移而改善。因此,每次使用設備時,發生故障的可能性都比以前小。
概率收斂表示,隨著使用次數達到無窮大,失敗的機會變為零。因此,在多次使用該設備之後,您可以確信它可以正常工作,但仍然可能會發生故障,這幾乎是不可能的。
收斂性肯定會更強一點。它說失敗的總數是有限。也就是說,如果隨著使用次數達到無窮大而計算失敗次數,則將獲得有限的次數。其影響如下:隨著您越來越多地使用該設備,經過一定次數的使用,您將耗盡所有故障。從那時起,設備將完全運行。
正如Srikant所指出的,您實際上並不知道什麼時候耗盡了所有故障,因此從純粹的實際角度來看,兩種融合模式之間並沒有太大的區別。
但是,我個人很高興,例如,存在著強大的大數定律,而不僅僅是弱小的定律。因為現在,進行平均速度可以證明進行光速實驗的科學依據。至少從理論上講,在獲得足夠的數據之後,您可以任意接近真實的光速。平均過程中不會有任何失敗(但是不可能)。
讓我澄清一下我的意思是“平均過程中的失敗(但是不可能)”。選擇一些$ \ delta> 0 $任意小。您將獲得$ n $估計具有某些“真實”值(例如$ \ mu $)的光速(或其他數量)的$ X_1,X_2,\ dots,X_n $。您可以計算平均$$ S_n = \ frac {1} {n} \ sum_ {k = 1} ^ n X_k。 隨著我們獲得更多數據(增加$ n $),我們可以為每個$ n = 1,2,\ dots計算$ S_n $。弱定律說(在關於$ X_n $的某些假設下),作為$ n $的概率$$ P(| S_n-\ mu |> \ delta)\ rightarrow 0 $$變為$ \ infty $。強定律說$ | S_n-\ mu | $大於$ \ delta $的次數是有限的(概率為1)。也就是說,如果定義指標函數$ I(| S_n-\ mu |> \ delta)$,則當$ | S_n-\ mu | > \ delta $,否則為零,然後$$ \ sum_ {n = 1} ^ {\ infty} I(| S_n-\ mu |> \ delta)$$收斂。這使您對$ S_n $的值具有相當大的信心,因為它可以保證(即,概率為1)某些有限的$ n_0 $的存在,使得$ | S_n-\ mu |對於$ n> n_0 $的所有$ n為< \ delta $(即,對於$ n> n_0 $的平均從不失敗)。請注意,薄弱的法律並不能提供這樣的保證。
我知道這個問題已經回答了(我認為很好),但是還有一個不同的問題這裡,其中有一個@NRH註釋,其中提到了圖形說明,而不是將圖片放置在那裡似乎更合適。
所以,就到這裡。它不像R包那麼酷。但這是自包含的,不需要訂閱JSTOR。
在下面的內容中,我們談論的是簡單的隨機遊走,$ X_ {i} = \ pm 1 $具有相等的概率,並且我們正在計算移動平均值,$$ \ frac {S_ {n}} {n} = \ frac {1} {n} \ sum_ {i = 1} ^ {n} X_ {i},\ quad n = 1, 2,\ ldots。$$
SLLN(幾乎可以肯定地收斂)表示我們可以100%確保 this 曲線拉伸右移將最終在某個有限的時間之後永遠完全落在該頻帶內(右移)。
用於生成此圖形的R代碼在下面(為簡潔起見,省略了圖形標籤)。
n <- 1000; m <-50; e <- 0.05s <- cumsum(2 *(rbinom(n,size = 1,prob = 0.5)-0.5))圖(s / seq.int(n),type =“ l”,ylim = c(- 0.4,0.4))斜線(h = c(-e,e),lty = 2)
WLLN(收斂於概率)表示,大部分採樣路徑將在時間$ n $處在右側的波段中(對於上面的情況,它看起來像48個或50個中的9個)。我們永遠無法確定任何 specific 曲線在任何有限的時間內都將位於內部,但是如果查看上方的麵條質量,那將是一個非常安全的選擇。 WLLN還說,通過使圖足夠寬,可以使內部麵條的比例盡可能接近1。
該圖的R代碼如下(同樣,跳過標籤)。
x <-矩陣(2 *(rbinom(n * m,大小= 1,概率= 0.5)-0.5),ncol = m)y <- apply(x,2,function(z )cumsum(z)/ seq_along(z))matplot(y,type =“ l”,ylim = c(-0.4,0.4))abline(h = c(-e,e),lty = 2,lwd = 2 )
我理解如下,
概率收斂
隨機變量序列等於目標值的概率逐漸減小並趨於0,但實際上從未達到0。
幾乎肯定收斂
隨機變量序列將漸近等於目標值,但是您無法預測它在什麼點上
幾乎可以肯定,收斂是對隨機變量序列的行為的更強條件,因為它指出“一定會發生某事”(我們只是不知道什麼時候發生)。相反,概率收斂表明“雖然可能發生某事”,但“ 不某事發生”的可能性逐漸減小,但實際上從未達到0。(某事 $ \ equiv $ span>收斂到特定值的隨機變量序列)。
wiki都有一些示例,這兩個示例應有助於澄清以上內容(特別是在prob收斂的情況下,參見弓箭手的示例,以及在prob中的慈善機構的示例)。
從實際的角度來看,概率收斂就足夠了,因為我們並不特別在乎不太可能發生的事件。例如,估計量的一致性本質上是概率收斂。因此,當使用一致的估計時,我們隱含地承認一個事實,即在大樣本中,我們的估計與真實值相差甚遠的可能性很小。我們生活在概率收斂的“缺陷”中,因為我們知道漸近地估計量遠離事實的概率很小。
最後一個傢伙解釋得很好。如果採用概率為1 / n的隨機變量Xn = 1序列,否則為零。可以很容易地看到限制,使其收斂到零概率,但是幾乎不能確定收斂。正如他所說,概率並不在乎我們可能會一路走下去。幾乎可以肯定。
幾乎可以肯定地暗示了概率的收斂,但是不是相反的方式?
幫助我理解差異的一件事是以下等價
$ P({\ lim_ {n \ to \ infty} | X_n-X | = 0})= 1 \ Leftarrow \ Rightarrow \ lim_ {n \ to \ infty}({\ sup_ {m> = n} |X_m-X | > \ epsilon})= 0 $ $ \ forall \ epsilon > 0 $
比較隨機收斂:
$ \ lim_ {n \ to \ infty} P(| X_n-X | > \ epsilon)= 0 $ $ \ forall \ epsilon >0 $
當將上等值線的右側與隨機收斂進行比較時,我認為差異變得更加明顯。