admin管理员组文章数量:1130349
《论文阅读》SAPBERT: Speaker-Aware Pretrained BERT for Emotion Recognition in Conversation
-
-
- 前言
- 简介
- 思路出发点
- 相关知识
-
- Continuity
- 任务定义
- 预训练阶段
-
- Speaker Classification
- Masked Utterance Regression
- Last Utterance Generation
- 损失函数
- 预训练数据集
- 微调阶段
-
- 模型构架
- 微调阶段数据集
- 结论
-
前言
你是否也对于理解论文存在困惑?
你是否也像我之前搜索论文解读,得到只是中文翻译的解读后感到失望?
小白如何从零读懂论文?和我一起来探索吧!
今天为大家带来的是《SAPBERT: Speaker-Aware Pretrained BERT for Emotion Recognition in Conversation》
出版:mdpi Algorithms
时间: 2023
类型:对话中的情感识别
特点:turn 和 spearker 数量不受限制+多任务学习(speaker 预测、掩码、回复生成)
作者:Seunguook Lim and Jihie Kim
第一作者机构:Dongguk University Seoul
简介
思路出发点
下图为本文思路出发点,首先是情感捕获很难,具体难在情感说话人本身,有时我们的情感完全不受对方所干扰,但是有时却深受其影响
《论文阅读》SAPBERT: Speaker-Aware Pretrained BERT for Emotion Recognition in Conversation
-
-
- 前言
- 简介
- 思路出发点
- 相关知识
-
- Continuity
- 任务定义
- 预训练阶段
-
- Speaker Classification
- Masked Utterance Regression
- Last Utterance Generation
- 损失函数
- 预训练数据集
- 微调阶段
-
- 模型构架
- 微调阶段数据集
- 结论
-
前言
你是否也对于理解论文存在困惑?
你是否也像我之前搜索论文解读,得到只是中文翻译的解读后感到失望?
小白如何从零读懂论文?和我一起来探索吧!
今天为大家带来的是《SAPBERT: Speaker-Aware Pretrained BERT for Emotion Recognition in Conversation》
出版:mdpi Algorithms
时间: 2023
类型:对话中的情感识别
特点:turn 和 spearker 数量不受限制+多任务学习(speaker 预测、掩码、回复生成)
作者:Seunguook Lim and Jihie Kim
第一作者机构:Dongguk University Seoul
简介
思路出发点
下图为本文思路出发点,首先是情感捕获很难,具体难在情感说话人本身,有时我们的情感完全不受对方所干扰,但是有时却深受其影响
本文标签: 论文SpeakerAwarePretrainedSAPBERT
版权声明:本文标题:《论文阅读》SAPBERT: Speaker-Aware Pretrained BERT for Emotion Recognition in Conversation 内容由热心网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:https://it.en369.cn/jiaocheng/1754605003a2707650.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。


发表评论