四年后,24 歲的德國神童 Carl Friedrich Gauss (高斯)堅稱他自 1795 年以來一直在使用它,但認(rèn)為它太瑣碎了,無法寫。高斯的主張促使Legendre匿名發(fā)表了一份文章,稱“一位非常著名的幾何學(xué)家毫不猶豫地采用了這種方法。”

斜率和偏差:當(dāng)結(jié)果與影響它的變量之間的關(guān)系遵循直線時,線性回歸很有用。例如,汽車的油耗與其重量成線性關(guān)系。

普及的兩個步驟:該算法立即幫助航海者追蹤星星,以及幫助后來的生物學(xué)家(尤其是查爾斯·達(dá)爾文的堂兄Francis Galton)識別植物和動物的可遺傳特征。這兩項深入發(fā)展釋放了線性回歸的廣泛潛力。1922 年,英國統(tǒng)計學(xué)家 Ronald Fisher 和 Karl Pearson 展示了線性回歸如何適應(yīng)相關(guān)性和分布的一般統(tǒng)計框架,使其在所有科學(xué)中都有用。而且,近一個世紀(jì)后,計算機的出現(xiàn)提供了數(shù)據(jù)和處理能力,可以更大程度地利用它。應(yīng)對歧義:當(dāng)然,數(shù)據(jù)永遠(yuǎn)不會被完美地衡量,有些變量比其他變量更重要。這些生活事實激發(fā)了更復(fù)雜的變體。例如,帶有正則化的線性回歸(也稱為「嶺回歸」,ridge regression)鼓勵線性回歸模型不要過多地依賴于任何一個變量,或者更確切地說,均勻地依賴于最重要的變量。如果為了簡單起見,另一種形式的正則化(L1 而不是 L2)會產(chǎn)生 lasso(壓縮估計),鼓勵盡可能多的系數(shù)為零。換句話說,它學(xué)會選擇具有高預(yù)測能力的變量并忽略其余的。彈性網(wǎng)絡(luò)結(jié)合了這兩種類型的正則化。當(dāng)數(shù)據(jù)稀疏或特征看起來相關(guān)時,它很有用。在每個神經(jīng)元中:現(xiàn)在,簡單的版本仍然非常有用。神經(jīng)網(wǎng)絡(luò)中最常見的神經(jīng)元類型是線性回歸模型,隨后是非線性激活函數(shù),使線性回歸成為深度學(xué)習(xí)的基本組成部分。

2.邏輯回歸:跟隨曲線

曾經(jīng)有一段時間,邏輯回歸只用于對一件事進(jìn)行分類:如果你喝了一瓶毒藥,你可能會被貼上的標(biāo)簽是“活著”還是“死去”呢?時代變了,今天,不僅呼叫緊急服務(wù)為這個問題提供了更好的答案,而且邏輯回歸也成為了深度學(xué)習(xí)的核心。毒物控制:邏輯函數(shù)可以追溯到 1830 年代,當(dāng)時比利時統(tǒng)計學(xué)家 P.F. Verhulst 發(fā)明它來描述人口動態(tài):隨著時間的推移,指數(shù)增長的初始爆炸隨著它消耗可用資源而趨于平緩,從而產(chǎn)生特征邏輯曲線。一個多世紀(jì)過去后,美國統(tǒng)計學(xué)家 E. B. Wilson 和他的學(xué)生 Jane Worcester 又設(shè)計了邏輯回歸來計算給定有害物質(zhì)有多少是致命的。

擬合函數(shù):邏輯回歸將邏輯函數(shù)擬合到數(shù)據(jù)集,以便預(yù)測給定事件(例如,攝入士的寧)發(fā)生特定結(jié)果(例如,過早死亡)的概率。

更多結(jié)果:Verhulst 的工作發(fā)現(xiàn)了二元結(jié)果的概率,忽略了進(jìn)一步的可能性,例如中毒受害者可能會進(jìn)入來世的哪一邊。他的繼任者擴(kuò)展了算法:

多功能曲線:邏輯函數(shù)以相當(dāng)準(zhǔn)確的方式描述了廣泛的現(xiàn)象,因此邏輯回歸在許多情況下提供了有用的基線預(yù)測。在醫(yī)學(xué)上,它可以估計死亡率和疾病風(fēng)險。在政治學(xué)中,它預(yù)測選舉的贏家和輸家。在經(jīng)濟(jì)學(xué)中,它預(yù)測商業(yè)前景。更重要的是,它在各種各樣的神經(jīng)網(wǎng)絡(luò)中驅(qū)動一部分神經(jīng)元(其中非線性是 Sigmoid 函數(shù))。

3.梯度下降:一切都在下坡

想象一下黃昏后在山上徒步旅行,發(fā)現(xiàn)腳下什么都看不到。而且您的手機電池沒電了,因此您無法使用 GPS 應(yīng)用程序找到回家的路。您可能會通過梯度下降找到最快的路徑。小心不要從懸崖上走。太陽和地毯:梯度下降比通過陡峭的地形下降更有利。1847年,法國數(shù)學(xué)家Augustin-Louis Cauchy發(fā)明了近似恒星軌道的算法。60 年后,他的同胞 Jacques Hadamard 獨立開發(fā)了它來描述薄而靈活的物體(如地毯)的變形,這可能會使膝蓋向下徒步更容易。然而,在機器學(xué)習(xí)中,它最常見的用途是找到學(xué)習(xí)算法損失函數(shù)的最低點。

向下爬:經(jīng)過訓(xùn)練的神經(jīng)網(wǎng)絡(luò)提供了一個函數(shù),該函數(shù)在給定輸入的情況下計算所需的輸出。訓(xùn)練網(wǎng)絡(luò)的一種方法是通過迭代計算實際輸出與期望輸出之間的差異,然后更改網(wǎng)絡(luò)的參數(shù)值以縮小差異,從而將輸出中的損失或誤差最小化。梯度下降縮小了差異,將計算損失的函數(shù)最小化。網(wǎng)絡(luò)的參數(shù)值相當(dāng)于地形上的一個位置,損失的是當(dāng)前高度。隨著你的下降,你可以提高網(wǎng)絡(luò)計算接近所需輸出的能力。可見性是有限的,因為在典型的監(jiān)督學(xué)習(xí)情況下,該算法僅依賴于網(wǎng)絡(luò)的參數(shù)值和損失函數(shù)的梯度或斜率——即你在山上的位置和你腳下的斜率。

卡在山谷里:太糟糕了,你的手機沒電了,因為算法可能沒有把你推到凸山的底部。你可能會陷入由多個山谷(局部最小值)、山峰(局部最大值)、鞍點(鞍點)和高原組成的非凸面景觀中。事實上,圖像識別、文本生成和語音識別等任務(wù)都是非凸的,并且已經(jīng)出現(xiàn)了梯度下降的許多變體來處理這種情況。例如,該算法可能具有幫助它放大小幅上漲和下跌的動量,從而使其更有可能到達(dá)底部。研究人員設(shè)計了如此多的變體,以至于看起來優(yōu)化器的數(shù)量與局部最小值一樣多。幸運的是,局部最小值和全局最小值往往大致相等。最優(yōu)優(yōu)化器:梯度下降是尋找任一函數(shù)的最小值的明確選擇。在可以直接計算精確解的情況下——例如,具有大量變量的線性回歸任務(wù)中——它可以逼近一個值,而且通常速度更快、成本更低。但它確實在復(fù)雜的非線性任務(wù)中發(fā)揮了作用。憑借梯度下降和冒險精神,你可能可以及時趕出山區(qū)吃晚飯。

4.神經(jīng)網(wǎng)絡(luò):尋找函數(shù)

讓我們先把這個問題弄清楚:大腦不是一個圖形處理單元集,如果它是的話,那它運行的軟件要比典型的人工神經(jīng)網(wǎng)絡(luò)復(fù)雜得多。而神經(jīng)網(wǎng)絡(luò)的靈感來自大腦的結(jié)構(gòu):一層層相互連接的神經(jīng)元,每個神經(jīng)元根據(jù)其相鄰狀態(tài)來計算自己的輸出,由此產(chǎn)生的一連串活動形成了一個想法——或識別出一張貓的照片。從生物到人工:大腦通過神經(jīng)元之間相互作用來學(xué)習(xí)的想法可以追溯到 1873 年,但直到 1943 年,美國神經(jīng)科學(xué)家 Warren McCulloch 和 Walter Pitts 才利用簡單的數(shù)學(xué)規(guī)則建立了生物神經(jīng)網(wǎng)絡(luò)模型。1958 年,美國心理學(xué)家Frank Rosenblatt開發(fā)出感測器——這是一種在打卡機上實現(xiàn)的單層視覺網(wǎng)絡(luò),旨在為美國海軍建立一個硬件版本。

越大越好:Rosenblatt 的發(fā)明只能識別單線分類。之后,烏克蘭數(shù)學(xué)家 Alexey Ivakhnenko 和 Valentin Lapa 通過在任意層數(shù)中堆疊神經(jīng)元網(wǎng)絡(luò),克服了這一限制。1985 年,獨立工作的法國計算機科學(xué)家 Yann LeCun、David Parker 和美國心理學(xué)家 David Rumelhart 及其同事,描述了使用反向傳播來有效訓(xùn)練此類網(wǎng)絡(luò)。在新千年的第一個十年中,包括 Kumar Chellapilla、Dave Steinkraus 和 Rajat Raina(與吳恩達(dá)合作)在內(nèi)的研究人員通過使用圖形處理單元進(jìn)一步推動了神經(jīng)網(wǎng)絡(luò)的發(fā)展,這使得越來越大的神經(jīng)網(wǎng)絡(luò)能從互聯(lián)網(wǎng)生成的海量數(shù)據(jù)中得到學(xué)習(xí)。適合每項任務(wù):神經(jīng)網(wǎng)絡(luò)背后的原理很簡單:對于任何任務(wù),都有一個可執(zhí)行它的函數(shù)。一個神經(jīng)網(wǎng)絡(luò)通過組合多個簡單函數(shù)構(gòu)成可訓(xùn)練函數(shù),每個函數(shù)由單個神經(jīng)元執(zhí)行。一個神經(jīng)元的功能由稱為「權(quán)重」的可調(diào)參數(shù)決定。給定這些權(quán)重和輸入示例及其所需輸出的隨機值,就可以反復(fù)更改權(quán)重,直到可訓(xùn)練的函數(shù)能完成手頭的任務(wù)。

黑匣子:雖然運氣好的話,一個訓(xùn)練有素的網(wǎng)絡(luò)可以完成它的任務(wù),但最終你要閱讀一個函數(shù),往往會非常復(fù)雜——包含數(shù)千個變量和嵌套的激活函數(shù)——以至于解釋網(wǎng)絡(luò)是如何成功完成其任務(wù)也是非常困難的。此外, 一個訓(xùn)練有素的網(wǎng)絡(luò)只和它所學(xué)的數(shù)據(jù)一樣好。例如,如果數(shù)據(jù)集有偏差,那么網(wǎng)絡(luò)的輸出也會出現(xiàn)偏差。如果它只包含貓的高分辨率圖片,那它對低分辨率圖片的反應(yīng)就不得而知了。一個常識:在報道 Rosenblatt 于1958年發(fā)明的感測器時,《紐約時報》開辟了人工智能炒作的道路,報道中提到“美國海軍期望擁有一臺會走路、說話、看、寫、自我復(fù)制和意識到自己存在的電子計算機雛形?!?雖然當(dāng)時的感測器沒有達(dá)到這個要求,但它產(chǎn)生了許多令人印象深刻的模型:用于圖像的卷積神經(jīng)網(wǎng)絡(luò);文本的循環(huán)神經(jīng)網(wǎng)絡(luò);以及用于圖像、文本、語音、視頻、蛋白質(zhì)結(jié)構(gòu)等的transformers。它們已經(jīng)做出了令人驚嘆的事情,像下圍棋時的表現(xiàn)超過了人類水平,在診斷X射線圖像等實際任務(wù)中也接近人類水平。然而,它們在常識和邏輯推理方面的問題仍然較難應(yīng)對。

5.決策樹:從根到葉

亞里士多德是一個什么樣的「野獸」?這位哲學(xué)家的追隨者、第三世紀(jì)期間生活在敘利亞的 Porphyry 想出了一個合乎邏輯的方法來回答這個問題。他將亞里士多德提出的“存在類別”從一般到具體組合起來,將亞里士多德依次歸入到每個分類中:亞里士多德的存在是物質(zhì)的而不是概念或精神;他的身體是有生命的而不是無生命的;他的思想是理性的而不是非理性的。因此,他的分類是人類。中世紀(jì)的邏輯教師將這個序列繪制為垂直流程圖:一個早期的決策樹。數(shù)字差異:快進(jìn)到 1963 年,密歇根大學(xué)社會學(xué)家John Sonquist和經(jīng)濟(jì)學(xué)家James Morgan在將調(diào)查的受訪者分組時,首次在計算機中實行了決策樹。隨著自動訓(xùn)練算法軟件的出現(xiàn),這種工作變得很普遍,如今包括 scikit-learn 等在內(nèi)的各種機器學(xué)習(xí)庫也已經(jīng)使用決策樹。這套代碼是由斯坦福大學(xué)和加州大學(xué)伯克利分校的四位統(tǒng)計學(xué)家花費了10 年時間開發(fā)的。到今天,從頭開始編寫決策樹已經(jīng)成為了《機器學(xué)習(xí) 101》中的一項家庭作業(yè)。空中的根:決策樹可以執(zhí)行分類或回歸。它向下生長,從根部到樹冠,將一個決策層次結(jié)構(gòu)的輸入示例分類為兩個(或更多)。想到德國醫(yī)學(xué)家和人類學(xué)家Johann Blumenbach的課題:大約在 1776 年,他首先將猴子與猿(撇開人類除外)區(qū)分開來,在此之前,猴子和猿是被歸為一類的。這種分類取決于各種標(biāo)準(zhǔn),例如是否有尾巴、胸部狹窄或?qū)掗?、是直立還是蹲伏、還有智力的高低。使用經(jīng)訓(xùn)練的決策樹來為這類動物貼上標(biāo)簽,逐一考慮每個標(biāo)準(zhǔn),最終將這兩組動物分開。

進(jìn)入前 10 名:鑒于 Blumenbach 的結(jié)論(后來被Charles Darwin推翻),即人類與猿的區(qū)別在于寬闊的骨盆、手和緊牙的牙齒,如果我們想擴(kuò)展決策樹以不僅分類猿和猴子,而是對人類進(jìn)行分類,那會怎么樣呢?澳大利亞計算機科學(xué)家 John Ross Quinlan 在 1986 年通過 ID3 實現(xiàn)了這一可能,它擴(kuò)展了決策樹,以支持非二元結(jié)果。2008 年, 在IEEE國際數(shù)據(jù)挖掘會議策劃的數(shù)據(jù)挖掘十大算法名單中,一項命名為 C4.5 的擴(kuò)展細(xì)化算法名列前茅。在一個創(chuàng)新猖獗的世界里,這就是持久力。扒開樹葉:決策樹確實有一些缺點。它們很容易通過增加多級別層次來過度擬合數(shù)據(jù),以至于葉節(jié)點只包括一個例子。更糟糕的是,它們很容易出現(xiàn)蝴蝶效應(yīng):更換一個例子,長出來的樹就大不相同。走進(jìn)森林:美國統(tǒng)計學(xué)家 Leo Breiman 和新西蘭統(tǒng)計學(xué)家 Adele Cutler 將這一特征轉(zhuǎn)化為優(yōu)勢,于 2001 年開發(fā)了隨機森林(random forest)——這是一個決策樹的集合,每個決策樹會處理不同的、重疊的示例選擇,并對最終結(jié)果進(jìn)行投票。隨機森林和它的表親XGBoost不太容易過度擬合,這有助于使它們成為最受歡迎的機器學(xué)習(xí)算法之一。這就像讓亞里士多德、Porphyry、Blumenbach、Darwin、 Jane Goodall、Dian Fossey和其他 1000 位動物學(xué)家一起在房間里,確保你的分類是最好的。

6.K均值聚類:群體思維

如果你在聚會上與其他人站得很近,那么你們很可能有一些共同點。這就是使用 k 均值聚類將數(shù)據(jù)點分組的想法。無論是通過人類機構(gòu)還是其他力量形成的群體,這個算法都會找到它們。從爆炸到撥號音:美國物理學(xué)家 Stuart Lloyd 是貝爾實驗室標(biāo)志性創(chuàng)新工廠和發(fā)明原子彈的曼哈頓計劃的校友,他于 1957 年首次提出 k-means 聚類,以在數(shù)字信號中分配信息,但直到 1982 年才發(fā)表這個工作:

與此同時,美國統(tǒng)計學(xué)家 Edward Forgy 在 1965 年描述了一種類似的方法,導(dǎo)致了它的替代名稱為「Lloyd-Forgy 算法」。尋找中心:考慮將聚類分成志同道合的工作組。給定房間中參與者的位置和要形成的組數(shù),k-means 聚類可以將參與者分成大小大致相等的組,每個組都聚集在一個中心點或質(zhì)心周圍。

不同的距離:當(dāng)然,聚類對象之間的距離不需要很大。兩個向量之間的任何度量都可以。例如,k-means 聚類可以根據(jù)他們的服裝、職業(yè)或其他屬性來劃分他們,而不是根據(jù)物理距離對參加派對的人進(jìn)行分組。在線商店使用它根據(jù)客戶的喜好或行為來劃分客戶,天文學(xué)家也可以將相同類型的星星分在一組。數(shù)據(jù)點的力量:這個想法產(chǎn)生了一些顯著的變化:

Revelry in?n?dimensions:?盡管如此,原始形式的算法仍然廣泛有用——特別是因為作為一種無監(jiān)督算法,它不需要收集昂貴的標(biāo)記數(shù)據(jù)。它的使用速度也越來越快。例如,包括 scikit-learn 在內(nèi)的機器學(xué)習(xí)庫受益于 2002 年添加的 kd-trees,這些 kd-trees 可以非??焖俚貏澐指呔S數(shù)據(jù)。

文章轉(zhuǎn)自微信公眾號@算法進(jìn)階

上一篇:

圖解機器學(xué)習(xí)特征工程

下一篇:

貝葉斯網(wǎng)絡(luò)的因果關(guān)系檢測(Python)
#你可能也喜歡這些API文章!

我們有何不同?

API服務(wù)商零注冊

多API并行試用

數(shù)據(jù)驅(qū)動選型,提升決策效率

查看全部API→
??

熱門場景實測,選對API

#AI文本生成大模型API

對比大模型API的內(nèi)容創(chuàng)意新穎性、情感共鳴力、商業(yè)轉(zhuǎn)化潛力

25個渠道
一鍵對比試用API 限時免費

#AI深度推理大模型API

對比大模型API的邏輯推理準(zhǔn)確性、分析深度、可視化建議合理性

10個渠道
一鍵對比試用API 限時免費