Paul C's Blog

To be funny,to grow up!

0%

subject to s.t. 约束为

最优化问题= 目标函数+约束函数

运筹学里的一种

  • 无约束优化/约束优化

  • 线性/非线性优化 目标函数+约束函数有非线性函数

  • 连续优化(股票投资比例)/离散优化 (如整数规化:路径选择、生产车辆)

  • 单目标优化/多目标优化(考虑多个方面,比如租房)

  • 动态规划

  • 随机规划

  • 鲁棒优化

Read more »

RNN

RNN是一个链式结构,每个时间片使用的是相同的参数。常用的是LSTM和GLU。

输入数据要序列化;

具有记忆性、时间维度上权值共享且图灵完备,能够以极高的效率学习序列中的非线性特征。

image-20220518102240209

​ 1-1 循环神经网络示例

image-20220518102352284

1
h_{t}=\sigma\left(x_{t} \times w_{x t}+h_{t-1} \times w_{h t}+b\right)

其中,w_{h t},为状态权重。

存在的问题

长期依赖问题

隐藏状态h_t只能存储有限的信息,当记忆单元存储内容多时,它会逐渐以往之前所学到的知识(着数据时间片的增加,RNN丧失了连接相隔较远的层之间信息的能力)。

长期依赖的现象也会产生很小的梯度。

梯度消失。梯度爆炸

权值矩阵循环相乘导致。因为RNN中每个时间片使用相同的权值矩阵,相同函数的多次组合会导致极端的非线性行为。

  • 处理梯度爆炸可以采用梯度截断的方法。所谓梯度截断是指将梯度值超过阈值\theta的梯度手动降到\theta 。虽然梯度截断会一定程度上改变梯度的方向,但梯度截断的方向依旧是朝向损失函数减小的方向。
  • 处理梯度消失??

解决办法

引入门控机制,选择性遗忘一些无用信息,从而控制信息的累积。

以LSTM为元学习器

Huisman, M., Moerland, T.M., Plaat, A. et al. Are LSTMs good few-shot learners?. Mach Learn 112, 4635–4662 (2023). https://doi.org/10.1007/s10994-023-06394-x

隐状态和记忆单元

LSTM总结

参考https://easyai.tech/ai-definition/lstm/

1997年由Hochreiter & Schmidhuber提出

Hochreiter, S, and J. Schmidhuber. “Long short-term memory.” Neural Computation 9.8(1997):1735-1780.

image-20220526171733768

image-20220526174100054

LSTM详细内容

5月26日

1.门(F、I、O)

LSTM 可以通过所谓“门”的精细结构向细胞状态添加或移除信息。

LSTM 可以通过所谓“门”的精细结构向细胞状态添加或移除信息

门可以选择性地以让信息通过。它们由 S 形神经网络层和逐点乘法运算组成。

S 形网络的输出值介于 0 和 1 之间,表示有多大比例的信息通过。0 值表示“没有信息通过”,1 值表示“所有信息通过”。

一个 LSTM 有三种这样的门用来保持和控制细胞状态。

  • 忘记门(Forget gate):将值朝0减少。
  • 输入门(Input gate):决定是否忽略掉输入数据;
  • 输出门(Output gate):决定是否使用隐状态;

image-20220526173429277

image-20220526173647329

2.候选记忆单元(增加的部分)

没有用到任何Gate

读法:C_tilda

image-20220526173509561

image-20220526173323589

3.记忆单元Ct

LSTM 的关键是细胞状态,即图中上方的水平线

Ct的范围比较大,需要tanh规范到-1到1之间。

LSTM 的关键是细胞状态,即图中上方的水平线。

细胞状态有点像传送带。它贯穿整个链条,只有一些次要的线性交互作用。信息很容易以不变的方式流过。

image-20220526172126536

4.隐状态Ht

让隐藏状态放在+1到-1之间,避免梯度爆炸,降低模型复杂度。

image-20220526173904253

image-20220526174148608

QA

1.计算模型占用显存

取决于调用的库,对框架的优化,所以最好直接查看实际GPU占用;

这部分内容常用,所以做了一个系统整理;之后会陆续增加点其他内容

查看左边栏的目录进行快速跳转。

防火墙ban了大部分国外服务器的IP,可以轻易检测出没有伪装过的vmess流量,考虑效益,我购买了某机场的会员,价格为30元一个季度,每个月200GB流量。

image-20220426160329651

我的真机系统为Win11,使用v2rayN管理连接的服务器和代理端口。

如图所示,我的socks代理端口为10808,http端口为10809。这两种端口,http端口使用的最为频繁。

  • 设置v2rayNG->系统代理->清除系统代理;
  • 设置v2rayNG->路由->PAC分流模式。

虚拟机走代理

百度都是直接关闭防火墙,这样不安全,所以写下这一部分内容记录一下步骤。

Read more »

stacking&blending

机器学习比赛大杀器 —— 模型融合,目前只看到排名平均部分。

1.可以集成提交文件(对预测结果的文件进行集成)

2.投票集成(预测结果为类别时) 少数服从多数, 概率意义上相加值大于原来的准确率。

3.集成低相关度的模型(即使其性能较差)也可以提升模型的性能。

4.加权投票

原理理解:三个臭皮匠才可以稍微的对诸葛亮的看法做点改进。

通常我们希望模型越好,其权重就越高。比如,我们将表现最好的模型的投票看作3票,其它的4个模型只看作1票。

原因是:当表现较差的模型需要否决表现最好的模型时,唯一的办法是它们集体同意另一种选择。我们期望这样的集成能够对表现最好的模型进行一些修正,带来一些小的提高。

image-20220420182603405

5.Average

更愿意叫做”bagging Sumissions”。打包提交。

脚本:https://github.com/MLWave/Kaggle-Ensemble-Guide/tree/master/src

平均预测常常会降低过拟合

image-20220420195230457

图中黑线比绿线有更好的分割,绿色线已经从数据点中学习了一些噪声。

平均多个不同的绿线, 使其更接近黑线。

我们的目标不仅是去记住这些训练数据(这里有比在随机森林里更加有效的方法来存储数据),而且还要去对我们没有看到的数据进行良好的泛化。

https://zh.wikipedia.org/wiki/ROC%E6%9B%B2%E7%BA%BF

ROC空间

Receiver operating characteristic接收者操作特征

ROC空间将伪阳性率(FPR)定义为 X 轴,真阳性率(TPR)定义为 Y 轴。

  • 伪阳性率(FPR, false positive rate)

又称:错误命中率,假警报率 (false alarm rate)

FPR = FP / N = FP / (FP + TN)

  • 真阳性率 (TPR, true positive rate)

又称:命中率 (hit rate)、敏感度(sensitivity)

TPR = TP / P = TP / (TP+FN)

则(0,1)是完美情况,FP错误的肯定为0,FN错误的否定为0.

image-20220420192855473

image-20220420193035472

离左上角越近,即x越小、y越大,模型预测准确度越好;

三种模型中,A>B>C但是只要把C当作一个相反结果预测机,则C’>A>B;

ROC曲线

调整二分类模型的阈值,得出不同的FPR和TPR,将这些点全部作在一个ROC空间里,就成为特定模型的ROC曲线

  • 在同一个分类器之内当阈值设置为最高时没有样本被预测为阳性,FPR=0,TPR=0;得出ROC坐标系左下角的点 (0, 0)。
  • 当阈值设置为最低时,所有样本均为阳性,FPR=FP/N=FP/(TN+FP)=1;TPR=TP/(TP+FN)=1;得出ROC坐标系右上角的点 (1, 1)。
  • 随着阈值调低,FP、TP增大,FN、TN减小;ROC点 往右上(或右/或上)移动,或不动;但绝不会往左下(或左/或下)移动

AUC曲线下面积

Area Under the Curve of ROC,作为评价模型优劣的指针;取值范围为[0,1]

image-20220420192128438

AUC值越大的分类器,正确率越高。

从AUC判断分类器(预测模型)优劣的标准:

  • AUC = 1,是完美分类器,采用这个预测模型时,存在至少一个阈值能得出完美预测。绝大多数预测的场合,不存在完美分类器。
  • 0.5 < AUC < 1,优于随机猜测。这个分类器(模型)妥善设置阈值的话,能有预测价值。
  • AUC = 0.5,跟随机猜测一样(例:丢铜板),模型没有预测价值。
  • AUC < 0.5,比随机猜测还差;但只要总是反预测而行,就优于随机猜测。

全文选摘自:林20的CSDNblog

Linux下权限的粒度有 拥有者 、群组 、其它组 三种。每个文件都可以针对三个粒度,设置不同的rwx(读写执行)权限。

对于user、group、other分别设置三个粒度,则形成了000~777的不同授权数字,分别表示---------rwxrwxrwx

实际表示文件时,会采用10位表示法的八进制表示,最高的那一位实际上是拼接上的字母(还有12位二进制的八进制表示,此时要用四个八进制数字)。

Read more »

持续更新ing

xargs可以解析空格分隔的命令,类似于管道符,但是支持的广泛性上强于管道符。

代数系统

群环域

1.准则函数

把要最小化或最大化的函数称为目标函数(objective function)或准则(criterion)。

当对其进行最小化时,我们也把它称为代价函数(cost function)、损失函数(loss function)或误差函数(error function)。

知乎:飞鱼Talk

  • Classification Error(分类错误率) 错误分类占比
  • Mean Squared Error (均方误差),
  • Cross Entropy Loss Function(交叉熵损失函数)

Loss Func可以用来判断模型在样本上的表现;

1.1 Mean Squared Error (均方误差),

image-20220330142518870

Read more »

GD

Gradient Decent/Steepest Decent,求解无约束最优化问题。

image-20220330173751248

负梯度方向是使函数值下降最快的方向。

image-20220330181452563

否则,不断地找f(x)的极小值点x,办法是让x=x-df(x)* λ,最关键的是找到合适的λ。

举例如下:

image-20220330181942932

梯度下降法收敛速度不一定快,而牛顿法和拟牛顿法,收敛速度更快。

Newton Method

求解无约束最优化问题的迭代算法,每一步需要求解目标函数的海森矩阵的逆矩阵。

基本思想:在现有极小值估计值的附近对f(x)做泰勒展开,进而找到极小值的下一个估计值。

image-20220330182720475

quasi-Newton Method

通过正定矩阵近似海森矩阵(的逆矩阵)。