决策树
决策树是一颗依托决策而建立起来的树。
ID3
首先,针对当前的集合,计算每个特征的信息增益;
然后,选择信息增益最大的特征作为当前节点的决策特征;
根据特征不同的类别划分到不同的子节点(比如年龄特征有青年,中年,老年,则划分到3颗子树),然后继续对子节点进行递归,直到所有特征都被划分。
决策树是一颗依托决策而建立起来的树。
首先,针对当前的集合,计算每个特征的信息增益;
然后,选择信息增益最大的特征作为当前节点的决策特征;
根据特征不同的类别划分到不同的子节点(比如年龄特征有青年,中年,老年,则划分到3颗子树),然后继续对子节点进行递归,直到所有特征都被划分。
不同 node 输入相同数据,运行模型的不同部分
最近NLP领域发生了一件大事,一个叫BERT的预训练模型掀起了一场革命式的风波。基于这段时间参读大牛们精细的解析,简单总结下BERT的原理(What)和怎么应用到自己的数据中(How)。
BERT(Bidirectional Encoder Representation from Transformers),是谷歌AI团队新发布的应用于NLP领域的模型,在11项NLP任务均获得了相当不错的结果,文章于2018年10月发表,并提供了开源地址( https://github.com/google-research/bert ),致谢👏👏👏。
Corpus: BooksCorpus (800M words) + English Wikipedia (2,500M words).
可参考GitHub详细文档。
Ø 使用Transformer作为特征提取器
Ø 双向语言模型
由于BERT是基于Transformer模型的,而Transformer模型主要基于Attention机制,因此先需要了解下Attention机制。
这是一个探索了许久的问题,期间整了一些牛人的材料,希望可以有助于知识梳理。
身为跨行菜鸟,也迫切的感谢各位资深老鸟们可以给予一些建议。
以下是若干必要不充分条件: