題:
為什麼神經網絡需要這麼多的訓練實例來執行?
Marcin
2019-02-24 20:07:12 UTC
view on stackexchange narkive permalink

2歲的人類兒童需要大約5輛汽車才能以合理的準確性識別汽車,而不論其顏色,製造等如何。我兒子2歲時,即使有電車和火車,他仍然能夠識別他只看了幾個。由於他通常會彼此混淆,因此顯然他的神經網絡還沒有足夠的訓練,但是仍然可以訓練。

缺少人工神經網絡是什麼使它們無法更快地學習呢?轉學是答案嗎?

大象可能是比汽車更好的例子。正如其他人所指出的那樣,一個孩子可能在*聽到*標籤之前*已經看過許多汽車,因此,如果他們的思想已經定義了“自然種類”,則現在可以為一個標籤。但是,一個西方兒童毫無疑問地僅基於少量數據就可以開發出良好的大象分類系統。
是什麼讓您認為孩子的大腦像神經網絡一樣工作?
請記住,神經網絡是非常複雜的結構,需要調整許多參數,因此,如果沒有大量示例,您不應期望它“學習”。這就是為什麼在樣本量不大時通常更喜歡簡單模型的原因。
-1
這也許是答案還沒有解決的一個方面。汽車的“設計”目的是易於識別,以便於人類使用。並非人類所做的一切都容易識別。
另一個方面:神經網絡往往只分析一件事情(汽車)。孩子會長時間分析所有的感覺輸入。孩子將具有3D對象的概念,而不是2D平面中的斑點(神經網絡將通過輪廓和某些線條識別汽車)。因此,孩子的世界模型對於添加新信息更加有幫助。一個孩子不僅僅是一個圖像識別軟件。
@PaulWasilewski:不是大腦嗎?按定義_神經網絡?
這似乎更像是一個關於嬰兒如何工作的問題,也許更適合https://psychology.stackexchange.com/,其中也涵蓋了神經科學。
NN可以顯示為汽車的圖像。您的孩子從不同的角度觀看了幾種不同類型汽車的完整3D電影。您的孩子也可能有類似的例子來區分汽車。例如,他們的嬰兒推車,玩具等。如果沒有這些,我想您的孩子將需要更多的例子。
@MSalters在人工神經網絡的意義上嗎?可能不會。
您的孩子一直都在無監督的情況下學習,因此可以完全提供感覺輸入。即使在睡覺時,它也會進行自我監督(做夢)。當您猜錯時進行更正(強化學習)。而且它已經接受了多年培訓。您沒有為ANN提供相同級別的機會。
@MSalters,所以您認為生物和人工神經網絡或多或少是相同的?
@PaulWasilewski:當然不是。我的評論是對“神經網絡”被無條件使用的反思,以及這種使用在這裡如何被解釋為非生物學的。例如心中,我們離這一點還很遙遠。不合格的“心臟”是指生物心臟,而不是人造心臟。
-1
早期的AI研究人員對“神經網絡”一詞的命名有些挑釁。與真實生物神經元的類比非常差,尤其是考慮到我們對真實神經元的理解仍在發展(例如,http://discovermagazine.com/2019/jan/neurons)。
“一個2歲的人類孩子需要大約5輛汽車才能以合理的精度對其進行識別。”這樣的孩子在*不是*汽車上擁有2年的經驗。我相信這起著重要作用。
您能否援引您大膽的開場白?
-1
@DarthFennec: ...那將是一個在最初的兩年無車情況下度過的頭一個孩子...
許多神經網絡使用的梯度下降通常具有相當收斂的收斂性,尤其是對於高維數據。大腦幾乎不可能以相同的方式進行操作。但這有效。
而且我們不能忽略這樣一個事實,即孩子的大腦是數百萬年進化的副產品。因此,我認為僅以幾年為條件就不足為奇了。
我希望看到嘗試回答統計問題的答案,即與生物系統(公認的不相稱)相比,而不是與其他統計技術相比。那不是簡單地回答“這麼多參數意味著需要很多實例來收斂”嗎?
@matt Neuroevolution和AutoML是其ANN類似物。
@WaterMolecule他們的意思並不是完全一樣。但是我發現,比起大多數專業機器學習人員認為的,這個比喻在生物學上更“接近”。實際上,人工神經網絡幾乎可以肯定地提供了一個非常緊密的,具有突觸連接的神經元網絡的高級模型,直到它們的發展方式。相似性被系統地低估了。
十二 答案:
Sycorax
2019-02-24 21:44:45 UTC
view on stackexchange narkive permalink

我告誡不要期望生物學和人工神經網絡之間的強烈相似之處。我認為“神經網絡”這個名稱有點危險,因為它使人們期望神經系統過程和機器學習應該相同。生物神經網絡和人工神經網絡之間的差異大於相似性。

作為如何解決該問題的示例,您還可以將推理放在原始帖子的頭上。您可以訓練一個神經網絡來學習在下午識別汽車,前提是您擁有一台相當快的計算機和一些訓練數據。您可以將其設置為二元任務(汽車/非汽車)或多類任務(汽車/電車/自行車/飛機/船),但仍然對成功有信心。

相比之下,我不希望孩子能夠在汽車誕生的第二天甚至是一周內挑選一輛汽車,即使它已經見過“這麼多的訓練實例”。兩歲大的嬰兒與嬰兒之間的明顯差異是造成學習能力差異的原因,而香草圖像分類神經網絡完全有能力在“出生後”立即 進行分類。 ”我認為有兩個重要的區別:(1)可用的培訓數據的相對數量;(2)由於豐富的培訓數據,隨著時間的推移而形成的自我學習機制。


原始帖子暴露了兩個問題。問題的標題和正文問為什麼神經網絡需要“這麼多的例子”。相對於孩子的經歷,使用通用圖像基準訓練的神經網絡數據相對較少。

我將標題中的問題改寫為

“針對通用圖像基準訓練神經網絡如何將&與孩子的學習經歷進行對比?”

為便於比較,我將考慮CIFAR-10數據,因為它是常見的圖像基準。標記部分由10類圖像組成,每類6000張圖像。每個圖像為32x32像素。如果您以某種方式堆疊來自CIFAR-10的帶標籤的圖像並製作標準的48 fps視頻,則將有大約20分鐘的鏡頭。

一個2歲的孩子每天觀察世界12小時,可以直接觀察到世界大約263000分鐘(超過4000小時),包括來自成年人的反饋(標籤)。 (這些只是球場上的數字-我不知道典型的兩歲孩子花了多少分鐘來觀察世界。)此外,孩子將接觸到超過10種CIFAR類別的物體, 10。

因此,有一些事情在起作用。一個是,與CIFAR-10模型相比,孩子擁有更多的總體數據和更多樣化的數據來源。通常,眾所周知,數據多樣性和數據量是構建健壯模型的先決條件。從這個角度來看,在這個任務上神經網絡比孩子更糟似乎並不令人驚訝,因為與兩歲大的孩子相比,在CIFAR-10上訓練的神經網絡對於訓練數據肯定感到飢餓。兒童可獲得的圖像分辨率優於32x32 CIFAR-10圖像,因此兒童可以了解有關物體精細細節的信息。

將CIFAR-10與兩歲兒童進行比較並不完美,因為CIFAR-10模型很可能會在同一靜態圖像上經過多次通過訓練,而孩子會使用雙目視覺看到物體的排列方式在三維世界中,同時在同一物體上移動並具有不同的照明條件和視角。

關於OP的孩子的軼事暗示著第二個問題

“神經網絡如何變得自學?”

一個孩子被賦予了一些自學才華,因此隨著時間的推移可以添加新類別的對象,而不必從頭開始。

  • OP關於的評論指出了一種機器學習上下文中的模型自適應。

  • 在評論中,其他用戶指出,一次學習和幾次學習*是另一個機器學習研究領域。

  • 此外,從不同的角度處理自我教學模型,從根本上允許機器人進行反複試驗以找到解決特定問題(例如游戲)的最佳策略。象棋)。

這三個機器學習範例都與改善機器適應新的計算機視覺任務的方式密切相關。快速使機器學習模型適應新任務是研究的活躍領域。但是,由於這些項目的實際目標(識別惡意軟件的新實例,識別護照照片中的冒名頂替者,為互聯網建立索引)和成功標準與兒童了解世界的目標不同,並且事實證明,一台使用數學的計算機,另一台是使用化學方法在有機材料中完成的,兩者之間的直接比較仍然很麻煩。


順便說一句,研究如何翻轉CIFAR-10問題並訓練神經網絡從每個實例的10個示例中識別出6000個對象將是很有趣的。但這甚至不能與2歲兒童進行公平的比較,因為訓練數據的總量,多樣性和分辨率仍然存在很大差異。

*我們目前沒有用於一次性學習或一次性學習的標籤。

為了更具體一點,一個人類孩子已經接受了數以萬計的示例的多年訓練,使他們能夠確定從不同角度觀察時物體的外觀,如何識別其邊界,表觀尺寸與實際尺寸之間的關係, 等等。
子宮內的孩子的大腦活躍。在通過“水”過濾聲音之後,嬰兒可以通過聲音**識別父母。初生嬰兒出生前有數月的數據需要處理,但是他們仍然需要很多年才能形成單詞,然後再過幾年才能形成句子,然後再進行語法上正確的句子結合等等。學習是“非常複雜的”。
這並不能真正回答問題。是的,您也可以說實際上是人類在某些方面“較慢”,但這並不能解釋兩種方法之間非常真實和明顯的概念差異。
@EelcoHoogendoorn解釋了問題中使用的“孩子”與“神經網絡”的對比。答案是,這只是一個“明顯的”對比。神經網絡根本不需要那麼多例子,因為孩子們在識別汽車之前也得到了很多例子(但只是以不同的方式)。
-1
是;ANN和(bio)BNN都需要大量數據;然而,這兩種技術都僅需要一小組標記的數據;但是對於ANN和BNN來說,這種無監督學習的細節仍然是活躍的研究領域。很顯然,我們完全不了解是什麼使BNN在這方面受挫。我喜歡在沒有任何訓練的情況下先觀看模擬的斑馬步行訓練,然後才知道到底發生了什麼。未能擴展到後一點,我覺得這個答案並沒有真正回答原始問題。
@EelcoHoogendoorn我認為問題的前提是從一個錯誤的類比推理的情況下,因此直接解決類比是敏感的。對比生物和人工神經網絡也是有響應的,因為答案將概述生物和人工神經網絡的名稱*最相似*(都包含短語“神經網絡”)但本質特徵不相似,或者至少相似問題所假設的特徵。
投票無效,因為這是無法回答的。它沒有回答為什麼神經網絡(當前)比人類需要*更多*訓練數據的問題。這個問題是“相對”或“比較”性能中的一個。
-1
@Sycorax因為兒童可以比目前的ANN架構更好地執行[一次性學習](https://en.wikipedia.org/wiki/One-shot_learning#Motivation)。*為什麼*發生這種情況是一個*開放的研究問題*,而您無視此研究主題(您聲稱差異根本不存在)是無稽之談。
@user76284 OP不使用“一次性學習”一詞,因此我沒有涉及該研究領域。但是如果這就是OP的要求,那麼OP的一個孩子的例子假設2歲的孩子直到一天突然看到5個例子之前從未見過汽車。這似乎是一個艱鉅的任務-許多孩子在嬰儿期都有在汽車內和周圍的早期經歷。無論如何,這似乎是另一種嘗試移動球門柱的嘗試。首先,您對神經網絡需要比人類更多的數據提出了毫無根據的主張,現在您將問題重塑為一次學習。
@user76284為什麼不使用鎮靜的語言,而不是使用“胡說八道”,而是為什麼不冷靜,清楚地列出您所想的問題以及我如何未能對此做出回應,並為您的假設和信念提供重新加入或證實的依據,例如用於訓練人工和生物神經網絡的相對數據量。換句話說,您受邀參加辯論,但沒有參加火焰戰爭。
@Sycorax“ OP不使用“一次性學習”一詞,因此我沒有涉及該研究領域。”OP的問題是關於識別給定類的對象需要多少個實例。一鍵式學習是“精確地”關於一次或幾次實例學習。
@Sycorax“這似乎很艱辛-許多孩子在嬰儿期都有在汽車內外的早期經歷。”OP是否對自己的孩子的經歷撒謊與研究問題本身無關。
讓我們[繼續聊天中的討論](https://chat.stackexchange.com/rooms/90335/discussion-between-user76284-and-sycorax)。
Tim
2019-02-24 21:19:05 UTC
view on stackexchange narkive permalink

首先,在兩歲的時候,一個孩子對世界了解很多,並積極運用這一知識。通過將這些知識應用於新概念,孩子可以進行很多“轉移學習”。

第二,在看到這五個帶有“標籤”的汽車實例之前,一個孩子在街上,電視,玩具車等上看到很多汽車,因此也預先發生了許多“無監督學習”。>

最後,神經網絡與人腦幾乎沒有什麼共同之處,因此比較它們沒有多大意義。還要注意,有一種用於一次性學習的算法,目前對此進行了大量研究。

第四點,兒童在有效/準確學習方面也有超過一億年的進化選擇。
isarandi
2019-02-25 18:51:18 UTC
view on stackexchange narkive permalink

我在當前答案中沒有看到的一個主要方面是evolution

孩子的大腦不能從頭開始學習。這類似於詢問鹿和長頸鹿嬰兒在出生後幾分鐘後如何走路。因為他們天生就已經為完成這項任務而絞盡腦汁。當然需要進行一些微調,但是小鹿並沒有學會從“隨機初始化”中走出來。

類似地,存在巨大的運動物體並對其保持跟踪很重要的事實是我們與生俱來的。

所以我認為這個問題的前提完全是錯誤的。人類的神經網絡有機會看到大量的-也許不是汽車,而是-移動,旋轉具有困難的紋理和形狀的3D對象,但是這種情況發生了很多代,並且學習是通過進化算法進行的,即那些大腦能夠更好地完成這項任務,可以活出更高的繁殖機會,從一開始就為下一代提供了更好的大腦連接。

除了有趣:有證據表明,在區分不同型號的汽車時,我們實際上利用了[大腦的專業面部識別中心](https://www.pnas.org/content/early/2012/09/27/ 1116333109。摘要)。可能的是,儘管兒童可能無法區分不同的模型,但在移動物體上隱含的“臉”可能會導致汽車被歸類為一種生物,因此傾向於通過進化來識別,因為可以識別移動物體帶臉的物體有助於生存。
這個答案恰好滿足了我的想法。孩子不是天生的[*空白板岩*](https://en.wikipedia.org/wiki/The_Blank_Slate)。它們具有使某些模式更易於識別,某些事情更易於學習等功能。
雖然從子宮中走出來的動物確實令人著迷,但這種進化的硬接線被認為與人類學習的極端相反,而人類學習卻被認為是自然世界中經驗驅動的學習的極端。當然,汽車將對我們大腦的進化產生最小的進化影響。
@EelcoHoogendoorn已經逐步選擇了學習和理解環境的“能力”。大腦是通過進化建立的,在學習中非常有效。連接點,查看圖案,理解形狀和運動,進行推斷等的能力。
商定差異的來源;但是這些東西如何幫助我們理解人類與人工神經網絡之間的本質區別?好的舊進化一定與它有關。但是,如果已經確定了與硬編碼權重而非結構相對應的任何具體遺傳機制,那一定是在我上次打開胚胎學教科書之後。
那是;如果您看看具有數十個神經元的完全確定性連接的簡單蠕蟲,則這似乎是在基因中硬編碼了許多其他可學習結構的例子。相比之下,在人的大腦中,從出生起就硬編碼了絕對很少的連接。我們的基因組中根本沒有信息內容;儘管顯然有硬編碼的體系結構,但顯然也沒有發現甚至接近電車/火車檢測器的東西。因此,我認為,對進化的全面呼籲並不能回答最初的問題。
這是一個很好的觀點,但是隨著研究人員逐漸了解這一點,他們構建的NN具有硬編碼結構,可以促進某些類型的學習,這也是事實。考慮一個[卷積神經網絡](https://en.wikipedia.org/wiki/Convolutional_neural_network)的硬編碼[接受域](https://en.wikipedia.org/wiki/Receptive_field)可以大大加快學習速度/增強視覺任務的性能。可以在完全連接的網絡中從頭開始學習那些領域,但是要困難得多。@EelcoHoogendoorn,人的大腦*結構*完整,有助於學習。
真正;但是就我們所知道的這種硬編碼架構(而且我們的視神經確實有點是卷積堆棧)而言,人工神經網絡和生物人工神經網絡具有相似之處。如果我們大腦的已知體系結構暗示了其他先驗知識,而這些先驗知識在人工神經網絡中沒有類似物,那麼我就不會意識到。我同意,肯定地,我們必須在很多方面深化我們無法理解的影響,從某些意義上講,這可能很重要。但我認為這並不是原始問題的答案。
轉移學習
好吧,考慮到IIRC我們只有在12歲左右才能達到我們的全部視覺能力(例如,視線,判斷速度和空間軌蹟等先進事物),因此人類視覺的微調似乎仍需要一些數據。
@eelcohoogendoorn您體內的細胞是否“學習”如何使其自身形成肝臟,肺等,或者每個位置是否在基因中進行了硬編碼?人們似乎非常不願意接受大腦中的許多先天結構,但很樂意接受人體的其餘部分。整個進化心理學領域表明,大腦不僅具有先天結構,而且具有“思想”:社會概念具有先天的基礎,因為它們是複雜的/具有進化影響的。另請參閱雙胞胎研究,例如https://www.ncbi.nlm.nih.gov/pmc/articles/PMC2899491/
同卵雙胞胎實際上並不具有相同的指紋。手指和杏仁核的確是硬編碼的,但實際上還有硬編碼嗎?我們有30億個DNA鹼基對和1000萬億個突觸;它們本身只是所有可能的突觸的一小部分。顯然,認知是由遺傳決定的。但是如何識別電車讓我感到震驚的主要是關於如何善用數據的問題,而不是關於進化的問題。
-1
當然,不乏發展的方面。我們大腦有明顯的大規模結構;更有趣的是,靈長類動物甚至似乎天生就有對蛇的恐懼。我的意思是,對進化的這種訴求並沒有使最初的問題闡明。也許我們對電車的反應就像對蛇的反應一樣堅決?但是,除非有人勾勒出這實際上是如何工作的,否則,您要做的只是對(可能是有趣的)問題不屑一顧,而不是回答它。
Peter Flom
2019-02-25 18:00:56 UTC
view on stackexchange narkive permalink

我對神經網絡了解不多,但是我對嬰兒了解得很多。

許多2歲的孩子在一般用詞上應該有很多問題。例如,在那個年齡,孩子在任何四足動物身上使用“狗”是很普遍的。比起“汽車”,這是一個更困難的區分-例如,想一想貴賓犬與一隻偉大的丹麥人有何不同,但它們都是狗,而貓卻不是。

2歲的孩子見過5個以上的“汽車”實例。每當家人開車兜風時,孩子都會看到數十甚至數百輛汽車。而且很多父母都會對“看車”發表評論超過5次。但是孩子們也可以以他們沒有被告知的方式思考。例如,在大街上,孩子會看到很多東西在排隊。他父親說(其中一個)“看著那輛閃亮的汽車!”孩子認為“也許其他所有排隊的東西也是汽車嗎?”

其他示例:出租車,駕駛課程車和警車是相同的。每當汽車是紅色的,那就是救火車。露營車是救護車。帶有裝載起重機的卡車被分類為挖掘機。剛剛經過的公交車要去火車站,所以下一輛看上去一樣的公交車也必須要去火車站。在光天化日之下看月亮是一件非常特別的事情。
sd2017
2019-02-25 10:22:02 UTC
view on stackexchange narkive permalink

這是一個令人著迷的問題,我也想了很多,可以提出一些解釋。

  • 神經網絡的功能與大腦不同。反向傳播是神經網絡特有的,並且不會在大腦中發生。從這個意義上講,我們只是不了解大腦中的通用學習算法。它可以是電子的,可以是化學的,甚至可以是兩者的組合。與我們的大腦相比,神經網絡被認為是一種劣等的學習形式。
  • 如果神經網絡確實像我們的大腦,那麼人類嬰兒在早期就需要對早期的各個層進行廣泛的“訓練”,例如特徵提取。因此,他們的神經網絡並沒有真正從零開始訓練,而是對最後一層進行了重新訓練以添加越來越多的類和標籤。
spinodal
2019-02-26 04:40:53 UTC
view on stackexchange narkive permalink

2歲的人類兒童需要大約5輛汽車才能不管顏色,品牌等如何以合理的準確性對其進行識別。

“實例”的概念容易混淆。儘管一個孩子可能看過5個獨特的汽車實例,但實際上他們在許多不同的環境中都看到了成千上萬個幀。他們可能在其他情況下也看到過汽車。他們還對自己一生中所發展的物理世界有一種直覺-這裡可能發生一些遷移學習。但是,我們將所有內容打包為“ 5個實例”。

同時,您傳遞給CNN的每個幀/圖像都被視為“示例”。如果您使用一致的定義,則這兩個系統實際上都在利用大量相似的訓練數據。

此外,我想指出的是,卷積神經網絡(CNN)在計算機視覺中比ANN更為有用,並且實際上在諸如圖像分類等任務中具有人類表現。深度學習(不是)不是萬能藥,但它在這一領域確實表現出色。

Eelco Hoogendoorn
2019-02-25 16:42:44 UTC
view on stackexchange narkive permalink
正如其他人所指出的,取決於細節,人工神經網絡的數據效率變化很大。事實上,有許多所謂的“一次性學習”方法,可以僅使用一個標記的樣本即可非常準確地解決標記電車的任務。

做到這一點的一種方法是所謂的轉移學習。一個經過其他標籤訓練的網絡通常可以非常有效地適應新標籤,因為艱苦的工作正在以明智的方式分解圖像的低級部分。

但是我們實際上並不需要這樣的標記數據來執行這樣的任務;就像嬰兒不需要像您正在考慮的神經網絡一樣需要標記的數據。

例如,我在其他情況下也成功應用的一種無監督方法是拍攝一組未標記的圖像,隨機旋轉它們,並訓練網絡以預測圖像的哪一側“朝上”。在不知道可見對像是什麼或它們叫什麼的情況下,這迫使網絡學習有關圖像的大量結構。這可以為後續數據學習效率更高的數據打下良好基礎。

雖然的確,人工網絡與真實網絡在可能有意義的方式上有很大不同,例如沒有明顯的反向傳播類似物,但真實的神經網絡很可能確實利用了相同的技巧,學習一些簡單先驗所隱含的數據結構。

另一個可以肯定地在動物中起作用並且在理解視頻方面也顯示出巨大希望的例子是,假設未來應該可以從過去中預測出來。僅僅從這個假設開始,您就可以全面學習神經網絡。或者在哲學層面上,我傾向於相信這一假設幾乎構成了我們認為是“知識”的一切。

我不是在這裡說什麼新的東西。但是從某種意義上來說,這是一個相對較新的事物,這些可能性還太年輕,以至於尚未發現許多應用程序,並且還沒有滲透到教科書中對“ ANN可以做什麼”的理解。因此,要回答OP的問題;人工神經網絡已經彌合了您描述的大部分鴻溝。

Jasper
2019-02-25 02:54:18 UTC
view on stackexchange narkive permalink

訓練深度神經網絡的一種方法是將其視為自動編碼器(受限玻爾茲曼機器)的堆棧。

理論上,自動編碼器以無監督的方式學習:它接受任意,未標記的輸入數據並對其進行處理以生成輸出數據。然後,它將獲取該輸出數據,並嘗試重新生成其輸入數據。它調整其節點的參數,直到可以接近其數據往返。如果您考慮一下,則自動編碼器正在編寫自己的自動化單元測試。實際上,它正在將其“未標記的輸入數據”轉換為labelled數據:原始數據用作往返數據的標籤。

在對自動編碼器的各層進行訓練之後,使用標記的數據對神經網絡進行微調,以執行其預期功能。實際上,這些是功能測試。

原始海報詢問為什麼訓練人工神經網絡需要大量數據,並將其與兩歲的人所稱的少量訓練數據進行比較。最初的發布者正在比較蘋果到橙色:人工神經網絡的總體訓練過程,以及針對兩歲兒童的帶有標籤的微調。

但是實際上,這名兩歲孩子已經對自動編碼器的隨機自標記數據進行了兩年多的培訓。嬰兒在子宮內時會做夢。 (小貓也是。)研究人員將這些夢想描述為涉及視覺處理中心中的隨機神經元放電。

同意;除了在實踐中自動編碼器不是非常強大的工具以外,根本無法進行很多無監督的學習;我們所知道的一切都表明還有更多的事情發生,所以我認為,措辭“兩歲的孩子一直在訓練其自動編碼器”的措辭不應該太真實。
Peteris
2019-02-26 08:24:05 UTC
view on stackexchange narkive permalink

直到學會學習,我們才學會“看車”

一個小孩子學習如何看待物體的過程需要很長時間,並且有很多例子。此後,孩子可以通過僅舉幾個例子來學習識別特定類型的對象。如果您將一個兩歲的孩子與一個從字面上是空白的學習系統進行比較,那就是蘋果和橘子的比較。在那個年齡的孩子已經看了數千個小時的“錄像”。

以類似的方式,需要人工神經網絡使用許多示例來學習“如何看待”,但是之後可以將這些知識轉移到新的示例中。轉移學習是機器學習的整個領域,並且可能會發生“一次學習”之類的事情-您可以構建ANN,這些ANN將學習識別單個示例中以前從未見過的新型對象,或者識別某人從一張臉的單張照片。但是,做好最初的“學習觀察”部分需要大量數據。

此外,有證據表明,並非所有訓練數據都相等,即,您在學習時“選擇”的數據比單純提供給您的數據更有效。例如。舉行了& Hein雙胞胎小貓實驗。 https://www.lri.fr/~mbl/ENS/FONDIHM/2013/papers/about-HeldHein63.pdf

bi_scholar
2019-03-01 01:15:52 UTC
view on stackexchange narkive permalink

到目前為止,我尚未在答案中看到的一件事是這樣的事實,即人類孩子看到的現實世界對象的一個“實例”與NN訓練上下文中的實例並不對應。

假設您正和一個5歲的孩子站在鐵路交叉路口,並且觀看10分鐘內有5列火車通過。現在,您可以說“我的孩子只看了5列火車,而當NN需要數千幅圖像時,它可以可靠地識別其他火車!”。儘管這可能是對的,但您完全忽略了一個事實,即您的孩子看到的每列火車都包含比火車的單個圖像更多的信息。實際上,您的孩子的大腦每秒通過火車時會處理數十幅圖像,每幅圖像的角度略有不同,陰影不同,等等,而單個圖像將為NN提供非常有限的信息。 在這種情況下,您的孩子甚至擁有NN無法獲得的信息,例如火車的速度或火車發出的聲音。

此外,您的孩子可以說話和詢問問題! “火車很長,對嗎?” “是的。”,“它們也很大,對嗎?” “是。”。只需兩個簡單的問題,您的孩子就會在不到一分鐘的時間內學習到兩個非常重要的功能!

另一個重要點是對象檢測。您的孩子能夠立即識別出需要關注的對象,即圖像的哪一部分,而NN必須先學會檢測相關對象,然後才能對其進行分類。

我還要補充一點,孩子有_context_:它看到火車在鐵軌上,無論是在車站,平交道口等。如果它看到一個巨大的(齊柏林飛艇大小)氣球,形狀和塗漆看起來像天空中的火車,它不會說這是火車。它會說它看起來像火車,但不會在其上貼上標籤“火車”。我懷疑在這種情況下,NN是否會返回標籤“看起來像氣球的氣球”。同樣,孩子也不會將火車上的廣告牌與實際火車上的廣告誤認為是。火車圖片是NN的火車圖片,它將返回標籤“ train”。
BigDataScientist
2019-02-28 04:51:04 UTC
view on stackexchange narkive permalink

我認為性能並沒有您期望的那麼大,但是您提出了一個很大的問題(請參閱最後一段)。

正如您提到的轉移學習:要比較一個蘋果與一個蘋果,我們必須查看一幅人類/神經網絡“看到”的總共多少張圖片以及感興趣類別的多少張圖片。

1。人們看幾張照片?

人類的眼動大約需要200毫秒。可以看作是一種“生物照片”。請參閱計算機視覺專家李飛飛的演講: https://www.ted.com/talks/fei_fei_li_how_we_re_teaching_computers_to_understand_pictures#t-362785

她補充道:

因此,到3歲時,一個孩子將已經看過數億張照片。

在領先的物體檢測數據庫ImageNet中,約有1400萬張帶有標籤的圖片。因此,在ImageNet上接受訓練的神經網絡將看到多達14000000/5/60/60/24 * 2〜64天大的嬰兒的圖片,因此,兩個月大(假設嬰兒清醒了一半的生命)。 公平地說,很難說出其中有多少張圖片被標記了。而且,嬰兒看到的圖片並不像ImageNet那樣多樣化。 (可能是嬰兒看到她母親的時間,...;)。 但是,我認為您的兒子將看過數億張照片(然後應用轉移學習)很公平。

So我們需要學習多少張圖片才能獲得一個新類別,前提是可以從(學習)到相關圖片的堅實基礎?

我發現的第一篇博客文章是: https://blog.keras.io/building-powerful-image-classification-models-using-very-little-data.html。每個類使用1000個示例。我可以想像2.5年後甚至需要更少的東西。 但是,在3.3分鐘內,人類在1000/5/60中可以看到1000張照片。

您寫道:

2歲的人類兒童需要大約5輛汽車才能 不論顏色,品牌等如何,都以合理的準確性對其進行識別。

每個實例相當於40秒(該對象具有各種角度以使其具有可比性)。

總結: 正如我提到的,我必須做一些假設。但是我認為,可以看到性能並沒有人們期望的那麼大。

但是,我相信您提出了一個很好的問題,這就是為什麼:

2。如果神經網絡更像大腦一樣工作,神經網絡的性能會更好/有所不同嗎? (Geoffrey Hinton說是)。

在2018年末的一次採訪 https://www.wired.com/story/googles-ai-guru-computers-think-more-like-brains/中,他比較了當前大腦神經網絡的實現。他提到,就重量而言,人工神經網絡比大腦小10.000倍。因此,大腦需要更少的訓練迭代來學習。為了使人工神經網絡能夠更像我們的大腦工作,他遵循了硬件的另一趨勢,這是一家位於英國的初創公司Graphcore。它通過存儲神經網絡權重的智能方式減少了計算時間。因此,可以使用更多的權重,並且可以減少人工神經網絡的訓練時間。

Jason Hihn
2019-02-28 04:55:03 UTC
view on stackexchange narkive permalink

我是這方面的專家。我是人類,我是嬰兒,我有車,我做AI。

嬰兒舉起例子有限的原因是直覺。人腦已經具有處理3D旋轉的結構。另外,有兩隻眼睛為深度映射提供視差,這確實有幫助。您可以在汽車和汽車圖片之間進行切換,因為圖片沒有實際的深度。Hinton(AI研究人員)提出了Capsule Networks的想法,該想法將能夠更直觀地處理事物。不幸的是,對於計算機而言,訓練數據通常是2D圖像,即平面像素陣列。為了不過度擬合,需要大量數據,因此圖像中的汽車方向已被概括。嬰兒的大腦已經可以做到這一點,並且可以在任何方向識別汽車。



該問答將自動從英語翻譯而來。原始內容可在stackexchange上找到,我們感謝它分發的cc by-sa 4.0許可。
Loading...