鍵.png)
使用這些基本 REST API 最佳實踐構(gòu)建出色的 API
回歸是一種常見的預測建模技術(shù),用于估計兩個或多個變量之間的關(guān)系。它是一種監(jiān)督學習技術(shù),可以定義為用于對相關(guān)實數(shù)變量之間的關(guān)系建模的統(tǒng)計技術(shù)和自變量。
時間序列數(shù)據(jù)與一般基于回歸的數(shù)據(jù)略有不同,因為在特征中添加了時間信息,使目標更加復雜。時間序列數(shù)據(jù)具有以下組成部分
每個機器學習模型的基本目標都是改進模型的選定指標并減少與之相關(guān)的損失。用于時間序列預測的機器學習或深度學習模型的一個重要組成部分是損失函數(shù),模型的性能是根據(jù)損失函數(shù)來衡量的,促使了模型參數(shù)的更新。
MAE,也稱為 L1 損失,是預測值與實際值之間的絕對誤差:
所有樣本值的絕對誤差的均值就稱為 MAE:
MAE 是回歸模型中經(jīng)常使用的一種簡單有效的損失函數(shù)。但是由于異常值,回歸問題中的變量可能不是嚴格的高斯變量會帶來一些問題。
MSE,也稱為 L2 損失,是預測值與實際值之間的平方誤差:
所有樣本值的平方誤差的均值就稱為 MSE,也稱作均方誤差:
MSE 也稱為二次損失,因為懲罰是平方而不是與誤差成正比。當誤差被平方時,離群值被賦予更多的權(quán)重,為較小的誤差創(chuàng)建一個平滑的梯度。受益于這種對巨大錯誤的懲罰,有助于優(yōu)化算法獲得參數(shù)的最佳值。鑒于錯誤是平方的,MSE 永遠不會是負數(shù),錯誤的值可以是 0 到無窮大之間的任何值。隨著錯誤的增加,MSE 呈指數(shù)增長,好的模型的 MSE 值將接近于 0。
高估或低估參數(shù)值的傾向稱為偏差或平均偏差誤差。偏差的唯一可能方向是正向或負向。正偏差表示數(shù)據(jù)誤差被高估,而負偏差表示誤差被低估。
實際值和預期值之間的差異被測量為平均偏差誤差(MBE)。預測中的平均偏差由 MBE 量化。除了不考慮絕對值外,它實際上與 MAE 相同。應謹慎對待 MBE,因為正向誤差和負向誤差可能會相互抵消。
RAE 的計算將總絕對誤差除以平均值與實際值之間的絕對差值:
RAE 是一種基于比率的指標,用于評估預測模型的有效性。RAE 的可能值介于 0 和 1 之間。接近零的值(零是最佳值)是良好模型的特征。
RSE 衡量在沒有簡單預測器的情況下結(jié)果的不準確程度。這個簡單的預測變量僅代表實際值的平均值。結(jié)果,相對平方誤差將總平方誤差除以簡單預測變量的總平方誤差以對其進行歸一化??梢栽谝圆煌瑔挝挥嬎阏`差的模型之間進行比較。
平均絕對百分比誤差(MAPE),也稱為平均絕對百分比偏差(MAPD),是用于評估預測系統(tǒng)準確性的指標。它通過從實際值減去預測值的絕對值除以實際值來計算每個時間段的平均絕對百分比誤差百分比。由于變量的單位縮放為百分比單位,因此平均絕對百分比誤差(MAPE)廣泛用于預測誤差。當數(shù)據(jù)中沒有異常值時,它效果很好,常用于回歸分析和模型評估。
MSE 的平方根用于計算 RMSE。均方根偏差是 RMSE 的另一個名稱。它考慮了實際值的變化并測量誤差的平均幅度。RMSE 可以應用于各種特征,因為它有助于確定特征是否增強模型預測。當非常不希望出現(xiàn)巨大錯誤時,RMSE 最有用。
均方對數(shù)誤差(MSLE)衡量實際值與預期值之間的差異。添加對數(shù)減少了 MSLE 對實際值和預測值之間的百分比差異以及兩者之間的相對差異的關(guān)注。MSLE 將粗略地處理小的實際值和預期值之間的微小差異以及大的真實值和預測值之間的巨大差異。
這種損失可以解釋為真實值和預測值之間比率的度量:
RMSLE 通過應用 log 到實際和預測的值,然后進行相減。當同時考慮小誤差和大誤差時,RMSLE 可以避免異常值的影響。
歸一化均方根誤差(NRMSE)RMSE 有助于不同尺度模型之間的比較。該變量具有觀測范圍的歸一化 RMSE(NRMSE),它將 RMSE 連接到觀測范圍。
RRMSE 是沒有維度的 RMSE 變體。相對均方根誤差(RRMSE)是一種均方根誤差度量,它已根據(jù)實際值進行縮放,然后由均方根值歸一化。雖然原始測量的尺度限制了 RMSE,但 RRMSE 可用于比較各種測量方法。當您的預測被證明是錯誤的時,會出現(xiàn)增強的 RRMSE,并且該錯誤由 RRMSE 相對或以百分比表示。
Huber 損失是二次和線性評分算法的理想組合。還有超參數(shù) delta. 對于小于 delta 的損失值,應該使用 MSE;對于大于 delta 的損失值,應使用 MAE。這成功地結(jié)合了兩種損失函數(shù)的最大特點。
LogCosh 計算誤差的雙曲余弦的對數(shù)。這個函數(shù)比二次損失更平滑。它的功能類似于 MSE,但不受重大預測誤差的影響。鑒于它使用線性和二次評分技術(shù),它非常接近 Huber 損失。
分位數(shù)回歸損失函數(shù)用于預測分位數(shù)。分位數(shù)是指示組中有多少值低于或高于特定閾值的值。它計算跨預測變量(獨立)變量值的響應(因)變量的條件中位數(shù)或分位數(shù)。除了第 50 個百分位數(shù)是 MAE,損失函數(shù)是 MAE 的擴展。它不對響應的參數(shù)分布做出任何假設(shè),甚至為具有非常量方差的殘差提供預測區(qū)間。
數(shù)據(jù)集
評估指標
實驗使用 P10、P50 和 P90 度量評估了所有損失函數(shù)的性能。預測的上限和下限可以通過分位數(shù)提供。80% 置信區(qū)間是可以獲得的值范圍,例如,通過使用預測類型 0.1(P10)和 0.9(P90)。在 10% 的情況下,觀測值應小于 P10 值,在 90% 的情況下 P90 值應更高。
總的來說:
損失函數(shù)在確定給定目標的良好擬合模型中起著關(guān)鍵作用。對于時間序列預測等復雜目標,不可能確定通用損失函數(shù)。有很多因素,如異常值、數(shù)據(jù)分布的偏差、ML 模型要求、計算要求和性能要求。沒有適用于所有類型數(shù)據(jù)的單一損失函數(shù)。在主要關(guān)注模型架構(gòu)和數(shù)據(jù)類型的學術(shù)環(huán)境中,損失函數(shù)可以通過用于訓練的數(shù)據(jù)集屬性(如分布、邊界等)來確定。
這項工作試圖構(gòu)建特定損失函數(shù)可能有用的情況,例如在數(shù)據(jù)集中出現(xiàn)異常值的情況下,均方誤差是最佳策略;然而,如果有更少的異常值,則平均絕對誤差將是比 MSE 更好的選擇。同樣,如果我們希望保持平衡,并且我們的目標基于百分位數(shù)損失,那么使用 LogCosh 是更好的方法。本文總結(jié)了用于時間序列預測的 14 個著名損失函數(shù),并開發(fā)了一種易于處理的損失函數(shù)形式,用于改進和更準確的優(yōu)化。
參考文獻
[1] P10,P50,P90和方差:
https://imepisode.top/2020/03/p10p50p90%E5%92%8C%E6%96%B9%E5%B7%AE/
文章轉(zhuǎn)自微信公眾號@算法進階