返回介绍

逻辑回归

发布于 2022-09-18 20:35:05 字数 5520 浏览 0 评论 0 收藏 0

全部代码

1、代价函数

$$\left{ \begin{gathered} J(\theta ) = \frac{1}{m}\sum\limits_{i = 1}^m {\cos t({h_\theta }({x^{(i)}}),{y^{(i)}})} \hfill \ \cos t({h_\theta }(x),y) = \left{ {\begin{array}{c} { - \log ({h_\theta }(x))} \ { - \log (1 - {h_\theta }(x))} \end{array} \begin{array}{c} {y = 1} \ {y = 0} \end{array} } \right. \hfill \ \end{gathered} \right.$$

可以综合起来为: $$J(\theta ) = - \frac{1}{m}\sum\limits_{i = 1}^m {[{y^{(i)}}\log ({h_\theta }({x^{(i)}}) + (1 - } {y^{(i)}})\log (1 - {h_\theta }({x^{(i)}})]$$ 其中: $${h_\theta }(x) = \frac{1}{{1 + {e^{ - x}}}}$$

为什么不用线性回归的代价函数表示,因为线性回归的代价函数可能是非凸的,对于分类问题,使用梯度下降很难得到最小值,上面的代价函数是凸函数

$${ - \log ({h_\theta }(x))}$$ 的图像如下,即 y=1 时:

可以看出,当 $${{h_\theta }(x)}$$ 趋于 1y=1 与预测值一致,此时付出的代价cost趋于0,若 $${{h_\theta }(x)}$$ 趋于0y=1,此时的代价cost值非常大,我们最终的目的是最小化代价值。

同理 $${ - \log (1 - {h_\theta }(x))}$$ 的图像如下(y=0):

2、梯度

同样对代价函数求偏导: $$\frac{{\partial J(\theta )}}{{\partial {\theta j}}} = \frac{1}{m}\sum\limits{i = 1}^m {[({h_\theta }({x^{(i)}}) - {y^{(i)}})x_j^{(i)}]} $$
可以看出与线性回归的偏导数一致

推到过程

3、正则化

  • 目的是为了防止过拟合
  • 在代价函数中加上一项 $$J(\theta ) = - \frac{1}{m}\sum\limits_{i = 1}^m {[{y^{(i)}}\log ({h_\theta }({x^{(i)}}) + (1 - } {y^{(i)}})\log (1 - {h_\theta }({x^{(i)}})] + \frac{\lambda }{{2m}}\sum\limits_{j = 1}^n {\theta _j^2} $$
  • 注意j是重1开始的,因为theta(0)为一个常数项,X中最前面一列会加上1列1,所以乘积还是theta(0),feature没有关系,没有必要正则化

正则化后的代价:

# 代价函数
def costFunction(initial_theta,X,y,inital_lambda):
  m = len(y)
  J = 0
  
  h = sigmoid(np.dot(X,initial_theta))  # 计算h(z)
  theta1 = initial_theta.copy()       # 因为正则化j=1从1开始,不包含0,所以复制一份,前theta(0)值为0 
  theta1[0] = 0   
  
  temp = np.dot(np.transpose(theta1),theta1)
  J = (-np.dot(np.transpose(y),np.log(h))-np.dot(np.transpose(1-y),np.log(1-h))+temp*inital_lambda/2)/m   # 正则化的代价方程
  return J

正则化后的代价的梯度

# 计算梯度
def gradient(initial_theta,X,y,inital_lambda):
  m = len(y)
  grad = np.zeros((initial_theta.shape[0]))
  
  h = sigmoid(np.dot(X,initial_theta))# 计算h(z)
  theta1 = initial_theta.copy()
  theta1[0] = 0

  grad = np.dot(np.transpose(X),h-y)/m+inital_lambda/m*theta1 #正则化的梯度
  return grad  

4、S型函数(即 $${{h_\theta }(x)}$$ )

实现代码:

# S型函数  
def sigmoid(z):
  h = np.zeros((len(z),1))  # 初始化,与z的长度一置
  
  h = 1.0/(1.0+np.exp(-z))
  return h

5、映射为多项式

  • 因为数据的feture可能很少,导致偏差大,所以创造出一些feture结合
  • eg:映射为2次方的形式: $$1 + {x_1} + {x_2} + x_1^2 + {x_1}{x_2} + x_2^2$$
  • 实现代码:
# 映射为多项式 
def mapFeature(X1,X2):
  degree = 3;           # 映射的最高次方
  out = np.ones((X1.shape[0],1))  # 映射后的结果数组(取代X)
  '''
  这里以degree=2为例,映射为1,x1,x2,x1^2,x1,x2,x2^2
  '''
  for i in np.arange(1,degree+1): 
    for j in range(i+1):
      temp = X1**(i-j)*(X2**j)  #矩阵直接乘相当于matlab中的点乘.*
      out = np.hstack((out, temp.reshape(-1,1)))
  return out

6、使用 scipy 的优化方法

  • 梯度下降使用 scipyoptimize 中的 fmin_bfgs 函数
  • 调用scipy中的优化算法fmin_bfgs(拟牛顿法Broyden-Fletcher-Goldfarb-Shanno
  • costFunction是自己实现的一个求代价的函数,
  • initial_theta表示初始化的值,
  • fprime指定costFunction的梯度
  • args是其余测参数,以元组的形式传入,最后会将最小化costFunction的theta返回
  result = optimize.fmin_bfgs(costFunction, initial_theta, fprime=gradient, args=(X,y,initial_lambda))  

7、运行结果

data1 决策边界和准确度

data2 决策边界和准确度

8、使用 scikit-learn 库中的逻辑回归模型实现

导入包

from sklearn.linear_model import LogisticRegression
from sklearn.preprocessing import StandardScaler
from sklearn.cross_validation import train_test_split
import numpy as np

划分训练集和测试集

  # 划分为训练集和测试集
  x_train,x_test,y_train,y_test = train_test_split(X,y,test_size=0.2)

归一化

  # 归一化
  scaler = StandardScaler()
  x_train = scaler.fit_transform(x_train)
  x_test = scaler.fit_transform(x_test)

逻辑回归

  #逻辑回归
  model = LogisticRegression()
  model.fit(x_train,y_train)

预测

  # 预测
  predict = model.predict(x_test)
  right = sum(predict == y_test)
  
  predict = np.hstack((predict.reshape(-1,1),y_test.reshape(-1,1)))   # 将预测值和真实值放在一块,好观察
  print predict
  print ('测试集准确率:%f%%'%(right*100.0/predict.shape[0]))      #计算在测试集上的准确度

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

列表为空,暂无数据
    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击“接受”或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。