日本午夜免费一区二区,亚洲麻豆一区,国产伦精品一区二区三区千人斩,日韩高清电影一区

美林數據
ABOUT US
美林數據技術股份有限公司(簡稱:美林數據,NEEQ:831546)是國內知名的數據治理和數據分析服務提供商。

7個回歸分析方法!數據分析師必須掌握

2020-04-15 18:04:06

什么是回歸分析?

回歸分析是一種預測性的建模技術,它研究的是因變量(目標)和自變量(預測器)之間的關系。這種技術通常用于預測分析、時間序列模型以及發現變量之間的因果關系。例如,司機的魯莽駕駛與道路交通事故數量之間的關系,最好的研究方法就是回歸。

回歸分析是建模和分析數據的重要工具。在這里,我們使用曲線/線來擬合這些數據點,在這種方式下,從曲線或線到數據點的距離差異最小。我會在接下來的部分詳細解釋這一點。

 

回歸分析

我們為什么使用回歸分析?

如上所述,回歸分析估計了兩個或多個變量之間的關系。下面,讓我們舉一個簡單的例子來理解它:比如說,在當前的經濟條件下,你要估計一家公司的銷售額增長情況。現在,你有公司最新的數據,這些數據顯示出銷售額增長大約是經濟增長的2.5倍。那么使用回歸分析,我們就可以根據當前和過去的信息來預測未來公司的銷售情況。

使用回歸分析的好處良多。具體如下:

  • 它表明自變量和因變量之間的顯著關系
  • 它表明多個自變量對一個因變量的影響強度

回歸分析也允許我們去比較那些衡量不同尺度的變量之間的相互影響,如價格變動與促銷活動數量之間聯系。這些有利于幫助市場研究人員,數據分析人員以及數據科學家排除并估計出一組最佳的變量,用來構建預測模型。

我們有多少種回歸技術?

有各種各樣的回歸技術用于預測。這些技術主要有三個度量(自變量的個數,因變量的類型以及回歸線的形狀)。我們將在下面的部分詳細討論它們。

對于那些有創意的人,如果你覺得有必要使用上面這些參數的一個組合,你甚至可以創造出一個沒有被使用過的回歸模型。但在你開始之前,先了解如下最常用的回歸方法:

1. 線性回歸(Linear Regression)

它是最為人熟知的建模技術之一。線性回歸通常是人們在學習預測模型時首選的技術之一。在這種技術中,因變量是連續的,自變量可以是連續的也可以是離散的,回歸線的性質是線性的。

線性回歸使用最佳的擬合直線(也就是回歸線)在因變量(Y)和一個或多個自變量(X)之間建立一種關系。

用一個方程式來表示它,即 Y=a+b*X + e,其中a表示截距,b表示直線的斜率,e是誤差項。這個方程可以根據給定的預測變量(s)來預測目標變量的值。

線性回歸

 

一元線性回歸和多元線性回歸的區別在于,多元線性回歸有(>1)個自變量,而一元線性回歸通常只有1個自變量。現在的問題是:我們如何得到一個最佳的擬合線呢?

這個問題可以使用最小二乘法輕松地完成。最小二乘法也是用于擬合回歸線最常用的方法。對于觀測數據,它通過最小化每個數據點到線的垂直偏差平方和來計算最佳擬合線。因為在相加時,偏差先平方,所以正值和負值沒有抵消。

多元線性回歸

 

我們可以使用R-square指標來評估模型性能。

要點:

  • 自變量與因變量之間必須有線性關系
  • 多元回歸存在多重共線性,自相關性和異方差性
  • 線性回歸對異常值非常敏感。它會嚴重影響回歸線,最終影響預測值

多重共線性會增加系數估計值的方差,使得在模型輕微變化下,估計非常敏感。結果就是系數估計值不穩定,在多個自變量的情況下,我們可以使用向前選擇法,向后剔除法和逐步篩選法來選擇最重要的自變量。

2. 邏輯回歸(Logistic Regression)

邏輯回歸是用來計算“事件=Success”和“事件=Failure”的概率。當因變量的類型屬于二元(1 / 0,真/假,是/否)變量時,我們就應該使用邏輯回歸。這里,Y的值從0到1,它可以用下方程表示。

odds= p/ (1-p) = probability of event occurrence / probability of not event occurrence

ln(odds) = ln(p/(1-p))

logit(p) = ln(p/(1-p)) = b0+b1X1+b2X2+b3X3....+bkXk

上述式子中,p表述具有某個特征的概率。你應該會問這樣一個問題:我們為什么要在公式中使用對數log呢?

因為在這里我們使用的是的二項分布(因變量),我們需要選擇一個對于這個分布最佳的連結函數。它就是Logit函數。在上述方程中,通過觀測樣本的極大似然估計值來選擇參數,而不是最小化平方和誤差(如在普通回歸使用的)。

要點:

  • 它廣泛的用于分類問題。
  • 邏輯回歸不要求自變量和因變量是線性關系。它可以處理各種類型的關系,因為它對預測的相對風險指數OR使用了一個非線性的log轉換。

為了避免過擬合和欠擬合,我們應該包括所有重要的變量。有一個很好的方法來確保這種情況,就是使用逐步篩選方法來估計邏輯回歸。它需要大的樣本量,因為在樣本數量較少的情況下,極大似然估計的效果比普通的最小二乘法差。

自變量不應該相互關聯的,即不具有多重共線性。然而,在分析和建模中,我們可以選擇包含分類變量相互作用的影響。

  • 如果因變量的值是定序變量,則稱它為序邏輯回歸
  • 如果因變量是多類的話,則稱它為多元邏輯回歸

3. 多項式回歸(Polynomial Regression)

對于一個回歸方程,如果自變量的指數大于1,那么它就是多項式回歸方程。如下方程所示:y=a+b*x^2

在這種回歸技術中,最佳擬合線不是直線。而是一個用于擬合數據點的曲線。

多項式回歸

 

重點:

雖然會有一個誘導可以擬合一個高次多項式并得到較低的錯誤,但這可能會導致過擬合。你需要經常畫出關系圖來查看擬合情況,并且專注于保證擬合合理,既沒有過擬合又沒有欠擬合。

下面是一個圖例,可以幫助理解:

多項式回歸

 

明顯地向兩端尋找曲線點,看看這些形狀和趨勢是否有意義。更高次的多項式最后可能產生怪異的推斷結果。

4. 逐步回歸(Stepwise Regression)

在處理多個自變量時,我們可以使用這種形式的回歸。在這種技術中,自變量的選擇是在一個自動的過程中完成的,其中包括非人為操作。

這一壯舉是通過觀察統計的值,如R-square,t-stats和AIC指標,來識別重要的變量。逐步回歸通過同時添加/刪除基于指定標準的協變量來擬合模型。下面列出了一些最常用的逐步回歸方法:

  • 標準逐步回歸法做兩件事情。即增加和刪除每個步驟所需的預測。
  • 向前選擇法從模型中最顯著的預測開始,然后為每一步添加變量。
  • 向后剔除法與模型的所有預測同時開始,然后在每一步消除最小顯著性的變量。

這種建模技術的目的是使用最少的預測變量數來最大化預測能力。這也是處理高維數據集的方法之一。

5. 嶺回歸(Ridge Regression)

嶺回歸分析是一種用于存在多重共線性(自變量高度相關)數據的技術。在多重共線性情況下,盡管最小二乘法(OLS)對每個變量很公平,但它們的差異很大,使得觀測值偏移并遠離真實值。嶺回歸通過給回歸估計上增加一個偏差度,來降低標準誤差。

上面,我們看到了線性回歸方程。還記得嗎?它可以表示為:y=a+ b*x

這個方程也有一個誤差項。完整的方程是:

y=a+b*x+e (error term), [error term is the value needed to correct for a prediction error between the observed and predicted value]

=> y=a+y= a+ b1x1+ b2x2+....+e, for multiple independent variables.

在一個線性方程中,預測誤差可以分解為2個子分量。一個是偏差,一個是方差。預測錯誤可能會由這兩個分量或者這兩個中的任何一個造成。在這里,我們將討論由方差所造成的有關誤差。

嶺回歸通過收縮參數λ(lambda)解決多重共線性問題。看下面的公式:

在這個公式中,有兩個組成部分。第一個是最小二乘項,另一個是β2(β-平方)的λ倍,其中β是相關系數。為了收縮參數把它添加到最小二乘項中以得到一個非常低的方差。

要點:

除常數項以外,這種回歸的假設與最小二乘回歸類似;它收縮了相關系數的值,但沒有達到零,這表明它沒有特征選擇功能,這是一個正則化方法,并且使用的是L2正則化。

6. 套索回歸(Lasso Regression)

它類似于嶺回歸。Lasso (Least Absolute Shrinkage and Selection Operator)也會懲罰回歸系數的絕對值大小。此外,它能夠減少變化程度并提高線性回歸模型的精度。看看下面的公式:

Lasso 回歸與Ridge回歸有一點不同,它使用的懲罰函數是絕對值,而不是平方。這導致懲罰(或等于約束估計的絕對值之和)值使一些參數估計結果等于零。使用懲罰值越大,進一步估計會使得縮小值趨近于零。這將導致我們要從給定的n個變量中選擇變量。

要點:

  • 除常數項以外,這種回歸的假設與最小二乘回歸類似
  • 它收縮系數接近零(等于零),確實有助于特征選擇
  • 這是一個正則化方法,使用的是L1正則化

如果預測的一組變量是高度相關的,Lasso 會選出其中一個變量并且將其它的收縮為零。

7. 回歸(ElasticNet)

ElasticNet是Lasso和Ridge回歸技術的混合體。它使用L1來訓練并且L2優先作為正則化矩陣。當有多個相關的特征時,ElasticNet是很有用的。Lasso 會隨機挑選他們其中的一個,而ElasticNet則會選擇兩個。

Lasso和Ridge之間的實際的優點是,它允許ElasticNet繼承循環狀態下Ridge的一些穩定性。

要點:

  • 在高度相關變量的情況下,它會產生群體效應
  • 選擇變量的數目沒有限制
  • 它可以承受雙重收縮

除了這7個最常用的回歸技術,你也可以看看其他模型,如Bayesian、Ecological和Robust回歸。

如何正確選擇回歸模型?

當你只知道一個或兩個技術時,生活往往很簡單。我的老師曾告訴我,如果結果是連續的,就使用線性回歸。如果是二元的,就使用邏輯回歸!然而,在我們的處理中,可選擇的越多,選擇正確的一個就越難。類似的情況下也發生在回歸模型中。

在多類回歸模型中,基于自變量和因變量的類型,數據的維數以及數據的其它基本特征的情況下,選擇最合適的技術非常重要。以下是你要選擇正確的回歸模型的關鍵因素:

(1). 數據探索是構建預測模型的必然組成部分

在選擇合適的模型時,比如識別變量的關系和影響時,它應該首選的一步。

(2). 比較適合于不同模型的優點,我們可以分析不同的指標參數

如統計意義的參數,R-square,Adjusted R-square,AIC,BIC以及誤差項,另一個是Mallows' Cp準則。這個主要是通過將模型與所有可能的子模型進行對比(或謹慎選擇他們),檢查在你的模型中可能出現的偏差。

(3). 交叉驗證是評估預測模型最好額方法

在這里,將你的數據集分成兩份(一份做訓練和一份做驗證)。使用觀測值和預測值之間的一個簡單均方差來衡量你的預測精度。

(4). 如果你的數據集是多個混合變量,那么你就不應該選擇自動模型選擇方法,因為你應該不想在同一時間把所有變量放在同一個模型中。

(5). 它也將取決于你的目的

可能會出現這樣的情況,一個不太強大的模型與具有高度統計學意義的模型相比,更易于實現。

(6). 回歸正則化方法(Lasso,Ridge和ElasticNet)在高維和數據集變量之間多重共線性情況下運行良好。

來源:CDA數據分析師

服務熱線
400-608-2558
咨詢熱線
15502965860-
美林數據
微信掃描二維碼,立即在線咨詢
日本午夜免费一区二区,亚洲麻豆一区,国产伦精品一区二区三区千人斩,日韩高清电影一区
国精品产品一区| 国产欧美日韩一区二区三区四区 | 91综合久久爱com| 红桃视频欧美| 狠狠爱成人网| 亚洲欧美网站| 日本v片在线高清不卡在线观看| 日本一区二区三区中文字幕| 日本中文字幕一区二区| 青青伊人久久| 欧美精品二区| 黄毛片在线观看| 国产在线欧美| 美女久久一区| 日本成人一区二区| 麻豆国产欧美一区二区三区 | 少妇久久久久| 好吊一区二区三区| 亚洲欧洲美洲国产香蕉| 国产情侣一区在线| 福利在线一区| 国产一区清纯| 日韩精品1区2区3区| 麻豆免费精品视频| 久久精品123| 中文一区一区三区免费在线观| 日本强好片久久久久久aaa| 国产精品探花在线观看| 国产成年精品| 婷婷成人在线| 免费人成精品欧美精品| 国产精品嫩模av在线| 国产91欧美| 女同性一区二区三区人了人一| 中文字幕av一区二区三区人 | 亚洲精品少妇| 国产一区调教| 亚洲黄页一区| 国产精品主播在线观看| 中文在线а√天堂 | 成人午夜国产| 免费观看在线综合| 久久精品系列| 欧美精品一线| 国产精品18| 蜜臀av免费一区二区三区| 日本在线成人| 播放一区二区| 日韩精品免费视频人成| 久久亚洲道色| 亚洲中字黄色| 国产精品成人a在线观看| 久久国产成人| 日韩1区在线| 另类亚洲自拍| 日韩av自拍| 亚洲精品乱码| 日韩毛片在线| 国产欧美大片| 在线午夜精品| 精品久久影院| 日本一区中文字幕| 久久中文视频| 欧美aⅴ一区二区三区视频| 亚洲视频www| 精品日产乱码久久久久久仙踪林| 视频一区视频二区在线观看| 精品国产亚洲一区二区在线观看| 99视频+国产日韩欧美| 国产精品白浆| 爽好久久久欧美精品| 91麻豆国产自产在线观看亚洲| 蜜桃久久精品一区二区| 日韩在线免费| 麻豆精品视频在线观看视频| 乱人伦精品视频在线观看| 中文字幕在线官网| 欧美日本精品| 三级亚洲高清视频| 久久香蕉国产| 国产aa精品| 国产日产精品_国产精品毛片| 亚洲激情欧美| 99精品电影| 久久亚洲精精品中文字幕| 日韩精选在线| 久久av一区| 午夜精品网站| 亚洲成av人片一区二区密柚| 开心激情综合| 日韩av在线播放中文字幕| 欧美精品九九| 日韩成人亚洲| 国产精品精品国产一区二区| 欧美日韩18| 综合国产在线| 美女日韩在线中文字幕| 婷婷综合网站| 黑丝美女一区二区| 国产精品久久观看| 你懂的国产精品| 国产免费播放一区二区| 日韩精品一区二区三区中文在线 | 久久国产88| 亚洲精品一区二区在线看| 蜜桃成人精品| 在线亚洲人成| 国产a亚洲精品| 国产欧美日韩亚洲一区二区三区| 91精品尤物| 日韩成人av影视| 日本一区二区三区中文字幕| 亚洲图片久久| 在线精品亚洲| 综合激情一区| 亚洲不卡视频| 日韩精品一级| 91精品国产自产在线丝袜啪| 亚洲精品免费观看| 婷婷综合成人| 日本成人精品| 婷婷视频一区二区三区| 亚洲人成在线影院| 日韩午夜黄色| 麻豆久久精品| 亚洲欧洲av| 欧美日韩在线精品一区二区三区激情综合| 亚洲色图国产| 日韩av不卡在线观看| 欧美日本不卡高清| 国产精品magnet| 精品亚洲免a| 9999国产精品| 色婷婷久久久| 日韩午夜一区| 午夜在线精品| 日韩欧美中文字幕一区二区三区| 欧美影院视频| 国产精品免费99久久久| 美日韩一区二区三区| 精品无人区麻豆乱码久久久| 亚洲一区资源| 欧美色图国产精品| 久热综合在线亚洲精品| 日韩高清国产一区在线| 国产日韩欧美| 老牛影视精品| 美女网站一区| 亚洲最大av| 国产精品宾馆| 福利片在线一区二区| 夜鲁夜鲁夜鲁视频在线播放| 亚洲精品在线影院| 日韩专区精品| 9色精品在线| 四虎国产精品免费久久| 欧美一区影院| 精品91福利视频| 精品三级久久| 蜜臀久久99精品久久久久宅男| 亚洲乱码久久| 国产精品天天看天天狠| 精品网站aaa| 亚洲香蕉网站| 亚洲人成精品久久久| 久久福利在线| 久久精品播放| 在线日韩成人| 久久狠狠久久| 色爱av综合网| 在线观看一区| 精品久久精品| 激情婷婷综合| 日韩av不卡一区二区| 国产suv精品一区二区四区视频| 久久精品卡一| 亚洲va久久久噜噜噜久久| 美女久久久精品| 亚洲高清av| 国产一级成人av| 久久久久久久久丰满| 亚洲欧洲av| 国产精品不卡| 亚洲美洲欧洲综合国产一区| 欧美一区影院| 激情婷婷久久| 欧美在线黄色| 精品亚洲美女网站| 亚洲精品伊人| 久久久一本精品| 欧美视频久久| 久久婷婷av| 欧美亚洲tv| 成人av二区| 久久精品国产99国产| 中文亚洲免费| 国内揄拍国内精品久久| 日韩天堂av| 国产精品v一区二区三区| aa国产精品|