題:
概率收斂與幾乎確定的收斂
raegtin
2010-08-31 08:57:21 UTC
view on stackexchange narkive permalink

我從來沒有真正了解過這兩種融合措施之間的區別。 (或者,實際上,是任何一種不同類型的收斂,但是由於大數的弱定律和強定律,我特別提到了這兩種。)

當然,我可以引用每個和的定義。舉個例子,說明它們之間的差異,但我仍然不太明白。為什麼差異如此重要?有一個特別令人難忘的例子,它們之間有何不同?

也是這個答案:http://stats.stackexchange.com/questions/72859/is-there-a-statistical-application-that-requires-strong-consistency
可能重複的[是否有需要高度一致性的統計應用程序?](https://stats.stackexchange.com/questions/72859/is-there-a-statistical-application-that-requires-strong-consistency)
六 答案:
Robby McKilliam
2010-08-31 11:53:32 UTC
view on stackexchange narkive permalink

從我的角度來看,差異很重要,但主要是出於哲學原因。假設您有一些設備,它會隨著時間的推移而改善。因此,每次使用設備時,發生故障的可能性都比以前小。

概率收斂表示,隨著使用次數達到無窮大,失敗的機會變為零。因此,在多次使用該設備之後,您可以確信它可以正常工作,但仍然可能會發生故障,這幾乎是不可能的。

收斂性肯定會更強一點。它說失敗的總數是有限。也就是說,如果隨著使用次數達到無窮大而計算失敗次數,則將獲得有限的次數。其影響如下:隨著您越來越多地使用該設備,經過一定次數的使用,您將耗盡所有故障。從那時起,設備將完全運行。

正如Srikant所指出的,您實際上並不知道什麼時候耗盡了所有故障,因此從純粹的實際角度來看,兩種融合模式之間並沒有太大的區別。

但是,我個人很高興,例如,存在著強大的大數定律,而不僅僅是弱小的定律。因為現在,進行平均速度可以證明進行光速實驗的科學依據。至少從理論上講,在獲得足夠的數據之後,您可以任意接近真實的光速。平均過程中不會有任何失敗(但是不可能)。

讓我澄清一下我的意思是“平均過程中的失敗(但是不可能)”。選擇一些$ \ delta> 0 $任意小。您將獲得$ n $估計具有某些“真實”值(例如$ \ mu $)的光速(或其他數量)的$ X_1,X_2,\ dots,X_n $。您可以計算平均$$ S_n = \ frac {1} {n} \ sum_ {k = 1} ^ n X_k。 隨著我們獲得更多數據(增加$ n $),我們可以為每個$ n = 1,2,\ dots計算$ S_n $。弱定律說(在關於$ X_n $的某些假設下),作為$ n $的概率$$ P(| S_n-\ mu |> \ delta)\ rightarrow 0 $$變為$ \ infty $。強定律說$ | S_n-\ mu | $大於$ \ delta $的次數是有限的(概率為1)。也就是說,如果定義指標函數$ I(| S_n-\ mu |> \ delta)$,則當$ | S_n-\ mu | > \ delta $,否則為零,然後$$ \ sum_ {n = 1} ^ {\ infty} I(| S_n-\ mu |> \ delta)$$收斂。這使您對$ S_n $的值具有相當大的信心,因為它可以保證(即,概率為1)某些有限的$ n_0 $的存在,使得$ | S_n-\ mu |對於$ n> n_0 $的所有$ n為< \ delta $(即,對於$ n> n_0 $的平均從不失敗)。請注意,薄弱的法律並不能提供這樣的保證。

謝謝,我喜歡無限系列觀點的融合!
我認為您的意思是可數的,不一定是有限的,我錯了嗎?還是我與積分混合。
更準確地說,它發生(或不發生)的事件集的度量為零->發生概率為零。
我不確定我能理解幾乎可以肯定給您“相當大的信心”的說法。僅僅因為$ n_0 $存在並不告訴您是否達到了。有限並不一定意味著很小或幾乎可以實現。就其本身而言,強有力的法律似乎並未告訴您何時達到或何時達到$ n_0 $。
user1108
2011-05-20 07:47:18 UTC
view on stackexchange narkive permalink

我知道這個問題已經回答了(我認為很好),但是還有一個不同的問題這裡,其中有一個@NRH註釋,其中提到了圖形說明,而不是將圖片放置在那裡似乎更合適。

所以,就到這裡。它不像R包那麼酷。但這是自包含的,不需要訂閱JSTOR。

在下面的內容中,我們談論的是簡單的隨機遊走,$ X_ {i} = \ pm 1 $具有相等的概率,並且我們正在計算移動平均值,$$ \ frac {S_ {n}} {n} = \ frac {1} {n} \ sum_ {i = 1} ^ {n} X_ {i},\ quad n = 1, 2,\ ldots。$$

Strong Law of Large Numbers

SLLN(幾乎可以肯定地收斂)表示我們可以100%確保 this 曲線拉伸右移將最終在某個有限的時間之後永遠完全落在該頻帶內(右移)。

用於生成此圖形的R代碼在下面(為簡潔起見,省略了圖形標籤)。

  n <- 1000; m <-50; e <- 0.05s <- cumsum(2 *(rbinom(n,size = 1,prob = 0.5)-0.5))圖(s / seq.int(n),type =“ l”,ylim = c(- 0.4,0.4))斜線(h = c(-e,e),lty = 2) 

Weak Law of Large Numbers

WLLN(收斂於概率)表示,大部分採樣路徑將在時間$ n $處在右側的波段中(對於上面的情況,它看起來像48個或50個中的9個)。我們永遠無法確定任何 specific 曲線在任何有限的時間內都將位於內部,但是如果查看上方的麵條質量,那將是一個非常安全的選擇。 WLLN還說,通過使圖足夠寬,可以使內部麵條的比例盡可能接近1。

該圖的R代碼如下(同樣,跳過標籤)。

  x <-矩陣(2 *(rbinom(n * m,大小= 1,概率= 0.5)-0.5),ncol = m)y <- apply(x,2,function(z )cumsum(z)/ seq_along(z))matplot(y,type =“ l”,ylim = c(-0.4,0.4))abline(h = c(-e,e),lty = 2,lwd = 2 )
 
user28
2010-08-31 09:39:45 UTC
view on stackexchange narkive permalink

我理解如下,

概率收斂

隨機變量序列等於目標值的概率逐漸減小並趨於0,但實際上從未達到0。

幾乎肯定收斂

隨機變量序列將漸近等於目標值,但是您無法預測它在什麼點上

幾乎可以肯定,收斂是對隨機變量序列的行為的更強條件,因為它指出“一定會發生某事”(我們只是不知道什麼時候發生)。相反,概率收斂表明“雖然可能發生某事”,但“ 某事發生”的可能性逐漸減小,但實際上從未達到0。(某事 $ \ equiv $ span>收斂到特定值的隨機變量序列)。

wiki都有一些示例,這兩個示例應有助於澄清以上內容(特別是在prob收斂的情況下,參見弓箭手的示例,以及在prob中的慈善機構的示例)。

從實際的角度來看,概率收斂就足夠了,因為我們並不特別在乎不太可能發生的事件。例如,估計量的一致性本質上是概率收斂。因此,當使用一致的估計時,我們隱含地承認一個事實,即在大樣本中,我們的估計與真實值相差甚遠的可能性很小。我們生活在概率收斂的“缺陷”中,因為我們知道漸近地估計量遠離事實的概率很小。

嘗試編輯的人認為這應該是,“隨機變量序列*不等於*目標值的概率...”。
“隨機變量序列等於目標值的概率漸近地減小並且接近於0,但實際上從未達到0。” 是不是可能永遠不會真正達到0?
@gung等於目標值的概率接近1或不等於目標值的概率接近0。當前定義不正確。
Kingsford Jones
2010-09-01 05:00:39 UTC
view on stackexchange narkive permalink

如果您喜歡視覺上的解釋,請參閱《美國統計學家》中有關該主題的“教師角”文章(見下)。此外,作者還提供了一個 R包以方便學習。

  @article {lafaye09,title = {了解融合概念:一種視覺思維和圖形模擬-Based Approach},作者= {Lafaye de Micheaux,P. and Liquet,B.},期刊= {The American Statistician},第= {63},數字= {2},頁數為{173--178},年= {2009},發布商= {ASA}}  
Tim Brown
2012-09-14 13:10:29 UTC
view on stackexchange narkive permalink

最後一個傢伙解釋得很好。如果採用概率為1 / n的隨機變量Xn = 1序列,否則為零。可以很容易地看到限制,使其收斂到零概率,但是幾乎不能確定收斂。正如他所說,概率並不在乎我們可能會一路走下去。幾乎可以肯定。

幾乎可以肯定地暗示了概率的收斂,但是不是相反的方式?

歡迎來到@Tim-Brown,網站,感謝您在此處回答問題的幫助。需要注意的一件事是,最好通過應答者的用戶名來識別其他答案,“最後一個傢伙”不會很有效。例如,隨著人們投票,該列表將隨著時間重新排序。您可能需要閱讀我們的[FAQ](http://stats.stackexchange.com/faq)。
Sebastian
2018-01-23 13:52:04 UTC
view on stackexchange narkive permalink

幫助我理解差異的一件事是以下等價

$ P({\ lim_ {n \ to \ infty} | X_n-X | = 0})= 1 \ Leftarrow \ Rightarrow \ lim_ {n \ to \ infty}({\ sup_ {m> = n} |X_m-X | > \ epsilon})= 0 $ $ \ forall \ epsilon > 0 $

比較隨機收斂:

$ \ lim_ {n \ to \ infty} P(| X_n-X | > \ epsilon)= 0 $ $ \ forall \ epsilon >0 $

當將上等值線的右側與隨機收斂進行比較時,我認為差異變得更加明顯。



該問答將自動從英語翻譯而來。原始內容可在stackexchange上找到,我們感謝它分發的cc by-sa 2.0許可。
Loading...