用AI削弱跟单不确定性,深挖超兔CRM背后算法

信息论创始人克劳德·艾尔伍德·香农提出,信息是对不确定性的消除。香农开创了用数学描述信息的先河,让信息变得可测。

香农提出的信息熵成为如今机器学习的一大理论基础。

超兔CRM一直致力于研究用AI打单,本质上是用机器学习处理信息,通过算法解析数据,最终帮助销售削弱跟单过程中的不确定性。下面,与您分享一下超兔CRM正在使用的算法。纯干货!两大主题:1.LSTM 详解;2.传统机器学习与深度学习对比

LSTM 详解

1.RNN(循环神经网络):在介绍LSTM之前,先介绍RNN

a) 普通神经网络:

图片3.png

图为:神经网络的结构图

神经网络可以当做是能够拟合任意函数的黑盒子,只要训练数据足够,给定特定的x,就能得到希望的y。

举一个情感分析的例子,输入一句话,判断这句话的的情感是正向的还是负向的。

其中x就是输入层,如上图有3个输入,比如为 “我”,“喜欢”,“你”。经过隐藏层的计算,输出两个值:正向的概率和负向的概率。(在XTool中的客户意向,会设置三个输出)。

那么既然普通的神经网络(如上)已经可以完成意向判断的功能,为什么还要循环神经网络呢?

他们都只能单独的去处理一个个的输入,前一个输入和后一个输入是完全没有关系的。但是,某些任务需要能够更好的处理序列的信息,即前面的输入和后面的输入是有关系的。

比如,当我们在理解一句话意思时,孤立的理解这句话的每个词是不够的,我们需要处理这些词连接起来的整个序列

所以为了解决一些这样类似的问题,能够更好的处理序列的信息,就有了RNN:

b) 循环神经网络:

图片2.png图为:循环神经网络结构图

但看上图左边部分可能有点晕,右边为左边按序列展开的样式:

还拿上边情感分析为例:

Snipaste_2020-07-30_18-02-50.png以此往后推。

这样当输入完这句话时,最后的结果会把整个句子的信息都带上。

但是这样还不完美,为什么呢?上边的举的例子“我”,“喜欢”,“你”只有三个词,但在实际运用中一句话可能会很长,几十个词。

如果把每个词的信息都记录下来,数据会很大,而且最前边的词对最后边的词的意思可能也没影响。还有就是从算法上,反向求导时,可能会造成梯度消失或梯度爆炸。

这里简单介绍一下梯度问题:机器学习都是靠梯度来找最优模型的,梯度越小,模型越好。

为什么梯度会消失或爆炸呢,如果一句话很长,系数很小的话(比如0.002),一直相乘,会越来越接近0,最后消失,如果系数很大,一直相乘结果会越来越大,造成梯度爆炸。

2.LSTM:

图片1.png

图为:长短期记忆网

从上图和RNN对比发现,每个隐藏层内又做了许多的运算

1)第1个运算为忘记门:

就是决定什么信息应该被神经元遗忘。它会输出 “0”或“1”,“1”表示“完全保留这个”,“0”表示“完全遗忘这个”。

2)第2个就是输入门

就是决定我们要在神经元细胞中保存什么信息

3)然后就是输出门

决定哪一部分的神经元状态需要被输出

3.LSTM在思想上是与RNN相通的,不同之处都在算法上。

传统机器学习与深度学习对比

一、理论对比:

首先,深度学习是机器学习的一种

1. 数据:

a) 随着数据的增加,相比机器学习深度学习的性能会越来越好。

b) 深度学习不需要对数据处理,会自动学习提取特征,而机器学习需要先对数据进行 格式转化,数据清洗,压缩纬度等操作。

2. 规则:

a) 具有特定规则的数据,使用机器学习比较好。一些简单的场景没必要使用深度学习

3. 硬件

a) 深度学习需要进行大量的矩阵计算,对硬件要求比较高。

4. 执行时间

a) 深度学习训练模型需要的时间较长。

二、实践对比:

分别使用贝叶斯算法及深度学习算法进行文本分类预测:

图片4.png 

图为:神经网络与贝叶斯算法对意向分析对比图

实例1:

1.png分析:从结果可以看出,不同的数据顺序,预测的结果会不同。

实例2:

2.png分析:结果可以看出,神经网络对消极的判断的概率更高一些。

实例3:

3.png分析:结果可以看出,神经网络对积极的判断的概率更高一些。

如上,“LSTM 详解”“传统机器学习与深度学习对比”,非专业人士理解起来或许还有一定难度。不过,各位老板与管理者不用着急,以上纯干货理论知识,超兔已经将理论逐步落地实践,成为超兔CRM系统中的一部分功能,有「AI潜客意向判断」、「猛犸微助」,更多好功能持续开发中。

    本文作者:XTools超兔CRM 责任编辑:马亚蒙 本文来源:牛透社
声明:本文由入驻牛透社的作者撰写,观点仅代表作者本人,绝不代表牛透社赞同其观点或证实其描述。
意见反馈
返回顶部