日本免费全黄少妇一区二区三区-高清无码一区二区三区四区-欧美中文字幕日韩在线观看-国产福利诱惑在线网站-国产中文字幕一区在线-亚洲欧美精品日韩一区-久久国产精品国产精品国产-国产精久久久久久一区二区三区-欧美亚洲国产精品久久久久

by28777 by28777域名查詢( 七 )



y=0的概率分布公式定義如下:

其離散型隨機(jī)變量期望值公式如下:

采用線性模型進(jìn)行分析,其公式變換如下:

而實(shí)際應(yīng)用中,概率p與因變量往往是非線性的,為了解決該類問題 , 我們引入了logit變換,使得logit§與自變量之間存在線性相關(guān)的關(guān)系,邏輯回歸模型定義如下:

通過推導(dǎo),概率p變換如下,這與Sigmoid函數(shù)相符 , 也體現(xiàn)了概率p與因變量之間的非線性關(guān)系 。以0.5為界限,預(yù)測(cè)p大于0.5時(shí),我們判斷此時(shí)y更可能為1 , 否則y為0 。

得到所需的Sigmoid函數(shù)后,接下來只需要和前面的線性回歸一樣 , 擬合出該式中n個(gè)參數(shù)θ即可 。下列為繪制Sigmoid曲線,輸出如圖10所示 。
# -*- coding: utf-8 -*-# By:Eastmount CSDN 2021-07-03import matplotlib.pyplot as pltimport numpy as npdef Sigmoid(x):return 1.0 / (1.0 + np.exp(-x))x= np.arange(-10, 10, 0.1)h = Sigmoid(x) #Sigmoid函數(shù)plt.plot(x, h)plt.axvline(0.0, color='k') #坐標(biāo)軸上加一條豎直的線(0位置)plt.axhspan(0.0, 1.0, facecolor='1.0', alpha=1.0, ls='dotted')plt.axhline(y=0.5, ls='dotted', color='k')plt.yticks([0.0, 0.5, 1.0]) #y軸標(biāo)度plt.ylim(-0.1, 1.1) #y軸范圍plt.show()
由于篇幅有限,邏輯回歸構(gòu)造損失函數(shù)J函數(shù),求解最小J函數(shù)及回歸參數(shù)θ的方法就不在敘述,原理和前面介紹的一樣,請(qǐng)讀者下去深入研究 。

2.LogisticRegressionLogisticRegression回歸模型在Sklearn.linear_model子類下,調(diào)用sklearn邏輯回歸算法步驟比較簡單,即:
導(dǎo)入模型 。調(diào)用邏輯回歸LogisticRegression()函數(shù) 。fit()訓(xùn)練 。調(diào)用fit(x,y)的方法來訓(xùn)練模型,其中x為數(shù)據(jù)的屬性,y為所屬類型 。predict()預(yù)測(cè) 。利用訓(xùn)練得到的模型對(duì)數(shù)據(jù)集進(jìn)行預(yù)測(cè),返回預(yù)測(cè)結(jié)果 。代碼如下:
# -*- coding: utf-8 -*-# By:Eastmount CSDN 2021-07-03from sklearn.linear_model import LogisticRegression #導(dǎo)入邏輯回歸模型clf = LogisticRegression()print(clf)clf.fit(train_feature,label)predict['label'] = clf.predict(predict_feature)
輸出函數(shù)的構(gòu)造方法如下:
LogisticRegression(C=1.0, class_weight=None, dual=False, fit_intercept=True,intercept_scaling=1, max_iter=100, multi_class='ovr', n_jobs=1,penalty='l2', random_state=None, solver='liblinear', tol=0.0001,verbose=0, warm_start=False)
這里僅介紹兩個(gè)參數(shù):參數(shù)penalty表示懲罰項(xiàng),包括兩個(gè)可選值L1和L2 。L1表示向量中各元素絕對(duì)值的和,常用于特征選擇;L2表示向量中各個(gè)元素平方之和再開根號(hào),當(dāng)需要選擇較多的特征時(shí),使用L2參數(shù),使他們都趨近于0 。C值的目標(biāo)函數(shù)約束條件為:s.t.||w||1<C,默認(rèn)值是0,C值越小 , 則正則化強(qiáng)度越大 。
3.鳶尾花數(shù)據(jù)集回歸分析實(shí)例下面將結(jié)合Scikit-learn的邏輯回歸模型分析鳶尾花數(shù)據(jù)集 。由于該數(shù)據(jù)分類標(biāo)簽劃分為3類(0類、1類、2類),屬于三分類問題,所以能利用邏輯回歸模型對(duì)其進(jìn)行分析 。
(1).鳶尾花數(shù)據(jù)集
在Sklearn機(jī)器學(xué)習(xí)包中,集成了各種各樣的數(shù)據(jù)集,包括前面的糖尿病數(shù)據(jù)集,這里引入的是鳶尾花卉(Iris)數(shù)據(jù)集,它也是一個(gè)很常用的數(shù)據(jù)集 。該數(shù)據(jù)集一共包含4個(gè)特征變量,1個(gè)類別變量,共有150個(gè)樣本 。其中四個(gè)特征分別是萼片的長度和寬度、花瓣的長度和寬度,一個(gè)類別變量是標(biāo)記鳶尾花所屬的分類情況,該值包含三種情況 , 即山鳶尾(Iris-setosa)、變色鳶尾(Iris-versicolor)和維吉尼亞鳶尾(Iris-virginica) 。鳶尾花數(shù)據(jù)集詳細(xì)介紹如表2所示:

推薦閱讀