QCon北京2018-《深度学习在微博信息流排序的应用》-刘博
2.14 MB
21 页
0 评论
语言 | 格式 | 评分 |
---|---|---|
中文(简体) | .pdf | 3 |
摘要 | ||
文档介绍了深度学习在微博Feed流排序中的应用实践,重点讨论了技术挑战、模型选择与优化。 Feed流排序面临数据规模大、内容多样化、实时性要求高等挑战。传统CTR方法(如LR、GBDT、FM)在高维稀疏特征和特征关联性挖掘方面存在局限性。 Wide & Deep模型结合了线性模型的高效和深度学习的强表达能力,通过特征工程和样本采样(如基于用户阅读时间的负样本选择)优化模型性能。实验表明,随着网络深度增加,模型AUC在一定程度后小幅下降。文档还介绍了微博的用户规模,包括DAU 1.72亿和MAU 3.92亿的业务背景。 | ||
AI总结 | ||
《QCon北京2018-《深度学习在微博信息流排序的应用》-刘博》摘要ereum摘要:以下是对《QCon北京2018-《深度学习在微博信息流排序的应用》-刘博》的总结:
## 总结
本文由刘博(新浪微博机器学习研发部关系流算法负责人)介绍了深度学习在微博信息流排序中的应用实践,重点围绕以下内容进行了探讨:
### 1. 微博Feed流排序的技术挑战
- **规模大**:用户和Feed内容数量庞大。
- **指标量化**:难以直接量化用户体验。
- **实时性要求高**:内容更新速度快,需要快速排序。
- **内容形式多样**:包括博文、文章、图片、视频等非结构化数据。
- **海量计算**:需要处理超大规模模型和数据。
### 2. 深度学习的选择与优势
- **相比传统CTR方法**:线性模型(如LR、GBDT、FM)特征工程繁琐,无法有效表达高维抽象特征。
- **深度学习模型优势**:
- 泛化能力强。
- 表达能力强。
- 网络结构灵活。
### 3. 微博Feed流排序场景介绍
- **信息获取方式**:包括主动获取(关注)和被动获取(推荐)。
- **内容形式多样**:涵盖博文、文章、图片、视频等。
- **微博规模**:DAU达1.72亿,MAU达3.92亿。
### 4. 深度学习在排序中的应用
- **Wide & Deep模型**:结合浅层网络(Wide)和深层网络(Deep),处理离散特征和连续特征。
- Wide输入:离散特征离散化 + 手动交叉特征。
- Deep输入:连续特征离散化 + 非连续特征嵌入。
- **样本采样**:基于用户平均阅读时间,将未阅读的微博作为负样本。
- **网络复杂度控制**:网络深度过高可能导致过拟合,需平衡模型复杂度与效果。
### 5. 实践效果
- 深度学习模型在CTR预估和排序任务中表现优异,显著提升了用户体验和产品效果。
总结来看,本文通过深度学习模型(尤其是Wide & Deep框架)解决了微博Feed流排序中的技术挑战,实现了更好的排序效果和用户体验。 |
P1
P2
P3
P4
P5
P6
P7
P8
P9
P10
P11
P12
下载文档到本地,方便使用
- 可预览页数已用完,剩余
9 页请下载阅读 -
文档评分