到目前為止,答案一直集中在數據本身上,這與所處的站點以及存在的缺陷有關。
但是我是一個計算性的人/數學流行病學家,所以我也將稍微討論一下該模型本身,因為它也與討論有關。
在我看來,本文最大的問題是 Google數據。流行病學中的數學模型一直都在處理混亂的數據,在我看來,可以通過相當簡單的敏感性分析來解決它的問題。
對我來說,最大的問題是研究人員“已經衰弱了自己走向成功” –在研究中應始終避免的事情。他們在他們決定適合數據的模型中執行此操作:標準SIR模型。
簡而言之,是 SIR模型(代表易感性(S)傳染性(I)恢復(R))是一系列微分方程,用於跟踪人口遭受傳染病時的健康狀況。感染者與易感者互動並感染他們,然後及時移至恢復的類別。
這將產生如下所示的曲線:
美麗,不是嗎?是的,這是殭屍流行病。長話短說。
在這種情況下,紅線被建模為“ Facebook用戶”。問題是這樣的:
在基本的SIR模型中,I類最終將不可避免地漸近地接近零。
它必鬚髮生。建模殭屍,麻疹,Facebook或Stack Exchange等都沒有關係。如果使用SIR模型進行建模,則不可避免的結論是,傳染性(I)類的數量下降到大約零。
對SIR模型進行了非常直接的擴展,使之不成立-您可以讓已恢復(R)類別中的人恢復為易感(S)(本質上,這就是離開Facebook的人從“我永遠不會回去”到“有一天我可能會回去”),或者您可以讓新的人加入到人群中(這不是蒂米和克萊爾得到的第一台計算機。)
不幸的是,作者不適合那些模型。附帶地,這是數學建模中普遍存在的問題。統計模型是試圖描述變量模式及其在數據中的相互作用的嘗試。數學模型是關於現實的斷言。您可以得到一個SIR模型以適應很多情況,但是您對SIR模型的選擇是對系統的斷言。也就是說,一旦達到頂峰,它就會趨向於零。
順便說一句,互聯網公司確實使用了用戶保留模型,這些模型看起來很像流行病模型,但它們也比流行病模型複雜得多。本文介紹了一個。