日本免费全黄少妇一区二区三区-高清无码一区二区三区四区-欧美中文字幕日韩在线观看-国产福利诱惑在线网站-国产中文字幕一区在线-亚洲欧美精品日韩一区-久久国产精品国产精品国产-国产精久久久久久一区二区三区-欧美亚洲国产精品久久久久

by28777 by28777域名查詢( 四 )


輸出結(jié)果如圖5所示 , 每個(gè)點(diǎn)表示真實(shí)的值,而直線表示預(yù)測的結(jié)果 。

(3).代碼優(yōu)化下面代碼增加了幾個(gè)優(yōu)化措施,包括增加了斜率、 截距的計(jì)算,可視化繪圖增加了散點(diǎn)到線性方程的距離線,增加了保存圖片設(shè)置像素代碼等 。這些優(yōu)化都更好地幫助我們分析真實(shí)的數(shù)據(jù)集 。
# -*- coding: utf-8 -*-# By:Eastmount CSDN 2021-07-03from sklearn import datasetsimport numpy as npfrom sklearn import linear_modelimport matplotlib.pyplot as plt#第一步 數(shù)據(jù)集劃分d = datasets.load_diabetes() #數(shù)據(jù) 10*442x = d.datax_one = x[:,np.newaxis, 2] #獲取一個(gè)特征 第3列數(shù)據(jù)y = d.target #獲取的正確結(jié)果x_train = x_one[:-42] #訓(xùn)練集X [ 0:400]x_test = x_one[-42:] #預(yù)測集X [401:442]y_train = y[:-42] #訓(xùn)練集Y [ 0:400]y_test = y[-42:] #預(yù)測集Y [401:442]#第二步 線性回歸實(shí)現(xiàn)clf = linear_model.LinearRegression()print(clf)clf.fit(x_train, y_train)pre = clf.predict(x_test)print('預(yù)測結(jié)果', pre)print('真實(shí)結(jié)果', y_test)#第三步 評價(jià)結(jié)果cost = np.mean(y_test-pre)**2 #2次方print('平方和計(jì)算:', cost)print('系數(shù)', clf.coef_)print('截距', clf.intercept_)print('方差', clf.score(x_test, y_test))#第四步 繪圖plt.plot(x_test, y_test, 'k.') #散點(diǎn)圖plt.plot(x_test, pre, 'g-') #預(yù)測回歸直線#繪制點(diǎn)到直線距離for idx, m in enumerate(x_test):plt.plot([m, m],[y_test[idx], pre[idx]], 'r-')plt.savefig('blog12-01.png', dpi=300) #保存圖片plt.show()
繪制的圖形如圖6所示 。

輸出結(jié)果如下:
LinearRegression(copy_X=True, fit_intercept=True, n_jobs=1, normalize=False)預(yù)測結(jié)果 [ 196.51241167 109.98667708 121.31742804 245.95568858 204.75295782270.67732703 75.99442421 241.8354155 104.83633574 141.91879342126.46776938 208.8732309 234.62493762 152.21947611 159.42995399161.49009053 229.47459628 221.23405012 129.55797419 100.71606266118.22722323 168.70056841 227.41445974 115.13701842 163.55022706114.10695016 120.28735977 158.39988572 237.71514243 121.3174280498.65592612 123.37756458 205.78302609 95.56572131 154.27961264130.58804246 82.17483382 171.79077322 137.79852034 137.79852034190.33200206 83.20490209]真實(shí)結(jié)果 [ 175. 93. 168. 275. 293. 281. 72. 140. 189. 181. 209. 136.261. 113. 131. 174. 257. 55. 84. 42. 146. 212. 233. 91.111. 152. 120. 67. 310. 94. 183. 66. 173. 72. 49. 64.48. 178. 104. 132. 220. 57.]平方和計(jì)算: 83.192340827系數(shù) [ 955.70303385]截距 153.000183957方差 0.427204267067
其中cost = np.mean(y_test-pre)**2表示計(jì)算預(yù)測結(jié)果和真實(shí)結(jié)果之間的平方和,為83.192340827,根據(jù)系數(shù)和截距得出其方程為:y = 955.70303385 * x + 153.000183957 。
三.多項(xiàng)式回歸分析1.基礎(chǔ)概念線性回歸研究的是一個(gè)目標(biāo)變量和一個(gè)自變量之間的回歸問題,但有時(shí)候在很多實(shí)際問題中,影響目標(biāo)變量的自變量往往不止一個(gè) , 而是多個(gè),比如綿羊的產(chǎn)毛量這一變量同時(shí)受到綿羊體重、胸圍、體長等多個(gè)變量的影響,因此需要設(shè)計(jì)一個(gè)目標(biāo)變量與多個(gè)自變量間的回歸分析,即多元回歸分析 。由于線性回歸并不適用于所有的數(shù)據(jù) , 我們需要建立曲線來適應(yīng)我們的數(shù)據(jù),現(xiàn)實(shí)世界中的曲線關(guān)系很多都是增加多項(xiàng)式實(shí)現(xiàn)的,比如一個(gè)二次函數(shù)模型:

再或者一個(gè)三次函數(shù)模型:

這兩個(gè)模型我們繪制的圖形如下所示:

多項(xiàng)式回歸(Polynomial Regression)是研究一個(gè)因變量與一個(gè)或多個(gè)自變量間多項(xiàng)式的回歸分析方法 。如果自變量只有一個(gè)時(shí) , 稱為一元多項(xiàng)式回歸;如果自變量有多個(gè)時(shí),稱為多元多項(xiàng)式回歸 。在一元回歸分析中,如果依變量y與自變量x的關(guān)系為非線性的 , 但是又找不到適當(dāng)?shù)暮瘮?shù)曲線來擬合,則可以采用一元多項(xiàng)式回歸 。17.3小節(jié)主要講解一元多次的多項(xiàng)式回歸分析 , 一元m次多項(xiàng)式方程如下:

推薦閱讀