pdf文档 QCon北京2018-《深度学习在微博信息流排序的应用》-刘博

2.14 MB 21 页 0 评论
语言 格式 评分
中文(简体)
.pdf
3
摘要
文档介绍了深度学习在微博Feed流排序中的应用实践,重点讨论了技术挑战、模型选择与优化。 Feed流排序面临数据规模大、内容多样化、实时性要求高等挑战。传统CTR方法(如LR、GBDT、FM)在高维稀疏特征和特征关联性挖掘方面存在局限性。 Wide & Deep模型结合了线性模型的高效和深度学习的强表达能力,通过特征工程和样本采样(如基于用户阅读时间的负样本选择)优化模型性能。实验表明,随着网络深度增加,模型AUC在一定程度后小幅下降。文档还介绍了微博的用户规模,包括DAU 1.72亿和MAU 3.92亿的业务背景。
AI总结
《QCon北京2018-《深度学习在微博信息流排序的应用》-刘博》摘要ereum摘要:以下是对《QCon北京2018-《深度学习在微博信息流排序的应用》-刘博》的总结: ## 总结 本文由刘博(新浪微博机器学习研发部关系流算法负责人)介绍了深度学习在微博信息流排序中的应用实践,重点围绕以下内容进行了探讨: ### 1. 微博Feed流排序的技术挑战 - **规模大**:用户和Feed内容数量庞大。 - **指标量化**:难以直接量化用户体验。 - **实时性要求高**:内容更新速度快,需要快速排序。 - **内容形式多样**:包括博文、文章、图片、视频等非结构化数据。 - **海量计算**:需要处理超大规模模型和数据。 ### 2. 深度学习的选择与优势 - **相比传统CTR方法**:线性模型(如LR、GBDT、FM)特征工程繁琐,无法有效表达高维抽象特征。 - **深度学习模型优势**: - 泛化能力强。 - 表达能力强。 - 网络结构灵活。 ### 3. 微博Feed流排序场景介绍 - **信息获取方式**:包括主动获取(关注)和被动获取(推荐)。 - **内容形式多样**:涵盖博文、文章、图片、视频等。 - **微博规模**:DAU达1.72亿,MAU达3.92亿。 ### 4. 深度学习在排序中的应用 - **Wide & Deep模型**:结合浅层网络(Wide)和深层网络(Deep),处理离散特征和连续特征。 - Wide输入:离散特征离散化 + 手动交叉特征。 - Deep输入:连续特征离散化 + 非连续特征嵌入。 - **样本采样**:基于用户平均阅读时间,将未阅读的微博作为负样本。 - **网络复杂度控制**:网络深度过高可能导致过拟合,需平衡模型复杂度与效果。 ### 5. 实践效果 - 深度学习模型在CTR预估和排序任务中表现优异,显著提升了用户体验和产品效果。 总结来看,本文通过深度学习模型(尤其是Wide & Deep框架)解决了微博Feed流排序中的技术挑战,实现了更好的排序效果和用户体验。
P1
P2
P3
P4
P5
P6
P7
P8
P9
P10
P11
P12
下载文档到本地,方便使用
- 可预览页数已用完,剩余 9 页请下载阅读 -
文档评分
请文明评论,理性发言.