第四课 数据可视化 逻辑回归 代码问题

# 负对数似然值
neg_ll = C * np.sum(np.log(1. + exp_XBeta) - y * XBeta, axis=0)
# 负对数似然值得梯度
grad_neg_ll = C*np.sum((1. / (1. + exp_XBeta))*exp_XBeta*X - y*X, axis=0) + beta
与损失函数和梯度的数据公式怎么看上去不一样?

wangxiaolei

赞同来自:

是计算机视觉的课吗?

要回复问题请先登录注册