报告题目:融合多时间尺度分析的音乐动态情感识别方法
报 告 人:徐明星 清华大学
报告时间:2019年6月22日14:00-15:00
报告地点:数学楼第二报告厅
报告摘要:
音乐是情感的载体,能调节人的情绪、丰富人的精神生活。音乐是音乐创作者和演奏者表达情感的艺术形式,能让音乐聆听者在欣赏音乐的过程中产生特别的情感反应。音乐的动态情感识别从音乐声学特征出发,预测随时间变化的音乐维度情感。音乐情感识别在音乐个性化推荐、电影游戏的特定场景配乐、音乐心理治疗等领域有着广泛应用。
本报告将介绍本研究小组近年来在音乐动态情感识别方面所开展的研究工作和取得的进展。我们基于2014、2015 年MediaEval国际评测任务“Emotion in Music”中的音乐情感数据集开展了一系列研究,包括基于情感空间分解的两级回归分析、基于双向长短时记忆网络模型BLSTM和极限学习机ELM融合的回归分析、基于音乐上下文和层次结构信息的情感建模预测方法、以及通过引入注意力机制来联合优化上下文时序模型建模等方法。
报告人简介:
徐明星,博士,清华大学人工智能研究院听觉智能研究中心常务副主任,副教授。主要研究方向:情感计算、说话人识别、语音识别和跨媒体计算等。承担和参加过多项973、863、自然基金项目,以及多个国际合作研究项目。目前在研的项目有:负责国家自然科学基金重点项目子课题1项、科技部重点研发计划子课题2项。在国际重要学术会议和期刊上发表相关学术论文近百篇。
国际比赛成绩:曾带领学生在2015年MediaEval国际音乐情感识别挑战赛第一,2017年国际多模态情感识别竞赛MEC获音频情感识别冠军,2019年国际说话人识别欺骗与防御对策挑战赛ASVspoof防录音攻击任务第一。