Press "Enter" to skip to content

Posts published in “Math”

微积分(二)

写在前面 在上次的文章中, 大致的对微积分的思路与过程做了个介绍, 这次我们将进行更加深入的讨论. 关于d 如图, 在汽车行驶速度的讨论中( 为汽车行驶时间与距离的关系函数 ), 我们将速度定义成 . 则小车在当前点的行驶速度为 . 当dt的值非常小时, 我们近似的将其看做为这个点的切线. 而速度则是此切线的斜率. 在微积分里, 我们都会采用这种思路来分析解决问题, 这里的dt是个非常微小的值, 却又是真实存在, 且不为零的. 在微积分里, 用d表示一个变量趋近于零. 一个简单的求导过程 如图,…

微积分(一)

写在前面 这里开始补充一些机器学习中所会经常接触到的微积分知识. 最近在看B站本质系列, 链接贴一下微积分的本质 - 01, 有兴趣的童鞋也可以去看看, 讲得很基础. 关于圆的面积 对于圆的面积的算法一开始我们并不清晰, 如果用微积分的思路, 将其分为多个微小的同心圆, 则可将其展开. 下图为一个宽度非常小的同心圆(当然, 这里为了方便查看与学习, 将其放大了.), 将其从原型中抽离出来的模样. 将它拉直了之后, 可以近似的看成是一个长方形. 我们假设这个长方形的宽度是dr, 这里的dr如果取值越小, 划分越细, 就越接近与圆的真实面积. 已知圆的周长是可以用 来计算的,…

Accuracy, Precision, Recall, F-Score

写在前面 在这个章节中, 我们将讨论Accuracy(准确率), Precision(精确率), Recall(召回率), F-Score(F分数) 这几个对模型效果评价的指标. 在这章中, 我们将只讨论二元分类的情况. 混淆矩阵 Positive Negative True TP(True Positive) FN(True Negative) False FP(False Positive) TN(False Negative) 我们必须先了解混淆矩阵, 才能继续后面的计算. TP(True…

Information Gain

关于信息增益计算 Informatio_Gain = Entropy(parent) - [weighted_average] * Entropy(children) 现有数据集 Grade Bumpiness Speed_Limit? Speed steep bumpy yes slow steep smooth yes slow flat bumpy no fast…

Entropy

如何计算熵 两种特殊情况 最好的情况: 样本都是同类, 则Entropy值为0 最差的情况: 样本均匀分布在所有类中, 则Entropy值为1 现有数据集 Grade Bumpiness Speed_Limit? Speed steep bumpy yes slow steep smooth yes slow flat bumpy no fast…

Naive Bayes Rule

Example 得到癌症的概率是1%, 敏感性和特殊性都是90%, 癌症测试结果呈阳性的人患病的概率有多大? 得到癌症的概率:P(C) = 0.01 SENSITIVITY = 90%, 敏感性, 在P(C)中, 诊断的准确率为90%, 10%的人可能患有癌症, 却被诊断成正常人. SPECITIVITY = 90%, 特异性, 在P(¬C)中, 诊断的正确率为90%, 10%的正常人被误诊为有癌症. 画图分析 上图中, C表示患有癌症的人,…