admin管理员组文章数量:1130349
问题:同样的问题,不同的表述,生成的回复就不一致。
解决方法:在seq2seq的的decoder 加入了用户向量,类似词向量,利用用户帐号信息,如性别,方言等训练而成。
实验数据是Twtter的数据,所以会有这些用户数据。
Speaker Model
选取LSTM为Seq2Seq模型的基本单元,LSTM主要的公式如下:
作者给增加了一个向量,可以看做是把变成了,如下所示:
Speaker-Addressee Model
由于一个用户对不同的人说话的方式是不一样的,重新对用户进行建模,Vij 表示i对j说话的向量,和上种方法一样,加到decoder。
问题:同样的问题,不同的表述,生成的回复就不一致。
解决方法:在seq2seq的的decoder 加入了用户向量,类似词向量,利用用户帐号信息,如性别,方言等训练而成。
实验数据是Twtter的数据,所以会有这些用户数据。
Speaker Model
选取LSTM为Seq2Seq模型的基本单元,LSTM主要的公式如下:
作者给增加了一个向量,可以看做是把变成了,如下所示:
Speaker-Addressee Model
由于一个用户对不同的人说话的方式是不一样的,重新对用户进行建模,Vij 表示i对j说话的向量,和上种方法一样,加到decoder。
本文标签: 论文basedPersonaneuralModel
版权声明:本文标题:A Persona-Based Neural Conversation Model论文 内容由热心网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:https://it.en369.cn/jiaocheng/1754604848a2707625.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。


发表评论