有人可以為我簡要解釋一下,為什麼要計算OLS估計量需要六個假設中的每一個?我只發現了多重共線性-如果存在多重共線性,那麼我們就不能求反(X'X)矩陣,也就無法估計總體估計量。其他的怎麼樣(例如線性度,零均值誤差等)?
有人可以為我簡要解釋一下,為什麼要計算OLS估計量需要六個假設中的每一個?我只發現了多重共線性-如果存在多重共線性,那麼我們就不能求反(X'X)矩陣,也就無法估計總體估計量。其他的怎麼樣(例如線性度,零均值誤差等)?
除了具有完美的多重共線性的情況之外,您始終可以計算OLS估計量。在這種情況下,您的X矩陣確實具有完美的多線性相關性。因此,由於可逆性問題,無法滿足完整等級假設,並且您無法計算OLS估計量。
從技術上講,您不需要其他OLS假設即可計算OLS估計量。但是,根據高斯-馬爾可夫定理,您需要滿足OLS假設(clrm假設),才能使估計量成為藍色。這裡的數學推導:
http://economictheoryblog.com/2015/02/26/markov_theorem/
此外,如果您正在尋找概述OLS假設的數量,即有多少,它們需要什麼以及如果您違反單個OLS假設會發生什麼,可以在此處進行詳盡的討論:
http://economictheoryblog.com/2015 / 04/01 / ols_assumptions /
我希望能有所幫助,乾杯!
以下內容基於簡單的橫截面,對於時間序列和麵板,有所不同。
現在了解其中的含義。
在1-6(經典線性模型假設)下,OLS是BLUE(最佳線性無偏估計量),在最小方差意義上最好。在所有線性估計器以及使用x的某些函數的所有估計器中,它也是有效的。更重要的是,在1-6下,OLS也是最小方差無偏估計量。這意味著在所有無偏估計量(不僅僅是線性估計量)中,OLS的方差最小。 OLS也是一致的。
在1-5下(高斯-馬爾可夫假設),OLS是藍色且高效(如上所述)。
在1-4以下,OLS是無偏且一致的。
實際上,OLS在弱的情況下也是一致的。比$(4)$的假設是:$(1)\ E(u)= 0 $和$(2)\ \ Cov(x_j,u)= 0 $。與假設4的不同之處在於,在此假設下,您不需要完美地把握功能關係。
在另一個問題中的評論提出了對條件$ E(\ mathbf u \ mid \ mathbf X)= 0 $的重要性的懷疑,認為可以通過在回歸規範中包含一個常數項來進行糾正,因此,“它很容易被忽略”。
事實並非如此。在回歸中包含常數項將吸收誤差的可能為非零的條件均值如果我們假設該條件均值已經是常數而不是回歸函數的話,則將其設為 。 這個是必須獨立地對我們是否包括一個常數項進行的關鍵假設:
$$ E(\ mathbf u \ mid \ mathbf X)= const。$$
如果成立,那麼非零均值將成為一個煩人的問題,我們可以通過添加一個常數項來簡單地解決。
但是如果不成立(即,如果條件均值不是零或非零的常數),則包含常數項不能解決問題:在這種情況下,它將“吸收”的量取決於具體樣本和回歸變量的實現。實際上,與一系列誤差相關的未知係數並不是一個常數,而是可變的,取決於誤差項通過非恆定條件均值的回歸。
這意味著什麼?為簡單起見,假設最簡單的情況是$ E(u_i \ mid \ mathbf X _ {-i})= 0 $($ i $索引觀測值),但是$ E(u_i \ mid \ mathbf x_ {i})= h(\ mathbf x_i)$。即誤差項與回歸變量的均值無關,但與同期變量無關(在$ \ mathbf X $中,我們不包括一系列誤差)。
假定我們
$$ \ mathbf y = \ mathbf a + \ mathbf X \ mathbfβ+ \ mathbfε$$
和壓縮符號
$$ \ mathbf y = \ mathbf Z \ mathbfγ+ \ mathbfε$$
其中$ \ mathbf a =(a,a,a ...)'$,$ \ mathbf Z = [\ mathbf 1:\ mathbf X] $,$ \ mathbfγ=(a,\ mathbfβ) '$,$ \ mathbfε= \ mathbf u-\ mathbf a $。
然後,OLS估計量將為
$$ \ hat {\ mathbfγ} = \ mathbfγ + \ left(\ mathbf Z'\ mathbf Z \ right)^ {-1} \ mathbf Z'\ mathbfε$$
對於 unbiasedness ,我們需要$ E \ left [\ mathbfε\ mid \ mathbf Z \ right] = 0 $。但是
$$ E \ left [ε_i\ mid \ mathbf x_i \ right] = E \ left [u_i-a \ mid \ mathbf x_i \ right] = h(\ mathbf x_i)-a $$
對於所有$ i $不能為零,因為我們檢查了$ h(\ mathbf x_i)$不是常數函數的情況。
$$ E \ left [\ mathbfε\ mid \ mathbf Z \ right] \ neq 0 \ implies E(\ hat {\ mathbfγ})\ neq \ mathbfγ$$
和
如果$ E(u_i \ mid \ mathbf x_ {i})= h(\ mathbf x_i)\ neq h(\ mathbf x_j)= E( u_j \ mid \ mathbf x_ {j})$,那麼即使我們在回歸中包括一個常數項,OLS估計量也不會無偏,這意味著效率的高斯-馬爾可夫結果也會丟失。
此外,錯誤項$ \ mathbfε$對於每個$ i $具有不同的均值,因此也具有不同的方差(即,它是有條件的異方差)。因此,以回歸變量為條件的分佈在觀測值$ i $中是不同的。
但這意味著即使誤差項$ u_i $被假定為正態,採樣誤差$ \ hat {\ mathbfγ}-\ mathbfγ$的分佈也將是正態的,但不是零均值的道德行為,並且具有未知的偏見。並且方差會有所不同。因此
如果$ E(u_i \ mid \ mathbf x_ {i})= h(\ mathbf x_i)\ neq h(\ mathbf x_j)= E(u_j \ mid \ mathbf x_ {j})$,那麼即使我們在回歸中包括一個常數項,假設檢驗也不再有效。
換句話說,”有限樣本”屬性全部消失。
我們只剩下訴諸漸近有效推斷的選項,我們將不得不做出其他假設。
。嚴格外生性 不能被“輕易忽略”。