小白必看:一文读懂推荐系统负采样

  © 作者|潘星宇

 机构|中国人民大学信息学院硕士一年级

导师|赵鑫教授  

 研究方向 | 推荐系统  

引言

推荐系统负采样作为推荐模型训练的重要一环,对模型的训练效果有着重要影响,也是推荐系统领域的一个重要研究分支。本文将从研究背景到现有的经典工作对推荐系统负采样进行一个概括性的介绍。为了降低本文的阅读门槛,让更多“科研小白”也可以理解文章内容,笔者将尽可能使用通俗的语言来代替论文公式对算法进行描述,希望可以让读者对推荐系统负采样有一个基本的了解。 

1. 研究背景

推荐系统的目的在于根据用户的兴趣爱好向用户进行个性化推荐,以提升用户在网上购物,新闻阅读,影音娱乐等场景下的体验。在推荐场景中,推荐模型主要依赖用户的历史反馈信息来建模用户的兴趣。一般来说,在模型训练过程中,我们需要同时提供正例(用户喜欢的商品)和负例(用户不喜欢的商品)给模型,然后基于损失函数来学习用户和商品的表示,最终完成模型的训练。但在实际推荐场景中,考虑到数据收集的难度,我们很难获取用户的显式反馈信息(例如用户对商品的评分)来确切知道用户喜欢哪些商品,不喜欢哪些商品,绝大部分的数据都是用户的隐式反馈信息(例如用户消费过的商品记录)。

对于隐式反馈来说,数据没有明确的标签,为了进行模型训练,我们一般假设用户交互过的商品都是正例,并通过采样的方式,从用户未交互过的商品集中选择一部分作为负例。从用户未交互商品集中基于一定策略进行负例选择的这一过程,就被称为负采样(Negative Sampling)

推荐系统负采样示意图

2. 推荐系统负采样中的研究方向

在推荐系统负采样中,主要有三方面的研究方向:采样质量,采样偏差和采样效率。

1、采样质量:

一般来说,在负采样过程中,采样的质量主要是指采到的负例所包含的信息量。相比于低信息量的负例,采到信息量更高的负例将显著提升模型训练的效率,加速模型收敛。从近几年推荐系统负采样领域的论文数量来看,提升采样质量是目前该领域的主要研究方向。

2、采样偏差:

在推荐系统负采样中,我们的基本假设是用户交互过的商品都是该用户的正例,未交互过的都是负例。但容易发现,这个假设还是比较强的,与真实场景存在一定偏差,例如用户未购买过的商品并不一定是不喜欢的,也有可能是用户在未来想要发生交互的商品,这一偏差可以被称为伪负例(False Negative)问题。这些采样中的偏差会对模型训练造成影响,因此缓解或消除采样中的偏差是该领域一个重要的研究方向。

3、采样效率:

在推荐场景中,用户的历史交互数据是比较稀疏的,一般来说,用户平均交互的商品数量不会超过整个商品集大小的10%。因此,对于负采样而言,需要在一个较大的采样池中进行采样,一旦采样过于复杂,会导致模型训练的开销增大,这也与实际工业场景下的要求不符。因此,采样算法的设计需要控制好复杂度,提升采样效率也是该领域一个有重要研究意义的方向。

3. 主流推荐系统负采样算法

负采样算法的本质就是基于某些方式来设置或调整负采样时的采样分布。根据负采样算法设置采样分布的方式,我们可以将目前的负采样算法分为两大类:启发式负采样算法和基于模型的负采样算法。

(一)启发式负采样算法:

启发式负采样算法主要指通过设定一些启发式的规则来设置采样分布,这类算法的特点就是开销较小,易于理解和实现,但在效果上会有一定的瓶颈。下面介绍两种经典的启发式负采样算法。

1、随机负采样(Random Negative Sampling, RNS)[1]:

RNS是最基本的负采样算法,它的思想就是平等地对待采样池内的每一个商品,按相等的概率进行采样。RNS的算法逻辑非常简单,在效率上有着很大的优势,同时也避免在采样过程中引入新的偏差,是一个被广泛使用的采样算法。

2、基于流行度的负采样(Popularity-biased Negative Sampling, PNS)[2]

PNS也是一个启发式的负采样算法,它的思想是以商品流行度作为采样权重对采样池内的商品进行带权采样,流行度越高的商品越容易被采到。这里的流行度有很多种定义方式,一种常见的定义方式该商品的历史交互次数,即商品被消费次数越多,其流行度就越高。这种算法相比于RNS,就是将均匀分布替换成一个基于流行度的采样分布,只需要在采样前计算出每个商品的流行度作为采样分布,然后就按照这个分布进行采样即可,在开销上没有增加特别多。

相比于RNS, 按照流行度采样的目的是为了提高所采负例的信息量,提高采样质量。例如一个非常流行的商品,却出现在某个用户的未交互商品集中,那么这个商品就很大概率是用户不喜欢的商品,那么通过这个负例就可以很好的学习到用户的喜好;相反,一个大家都不喜欢的商品,将它作为负例进行学习,其实能够带给模型的信息量就很少了,很难学习到该用户的个性化特征。

但也有文献指出[3],PNS也有一定的局限性。首先,因为PNS的采样分布是提前计算好的,在模型训练过程中,采样分布不会变化。因此那些在训练初期能够提高更高信息量的负例,在经过多次训练后,其带来信息量可能会有所下降。其次,流行度的引入也可能会引入新的偏差,因为流行度的计算是全局的,而在用户中,不同用户类别之间的兴趣可能是有差异的,如果所给数据中的用户类别分布不均匀,就可能导致流行度的定义出现偏差。

(二)基于模型的负采样算法:

相比于前面提到的两种启发式算法,基于模型的负采样算法更容易采到质量高的负例,也是目前较为前沿的采样算法。下面介绍几种基于模型的负采样算法:

1、动态采样(Dynamically Negative Sampling, DNS)[4]

在模型训练过程中,负例能够带给模型的信息量是会随着模型的训练情况不断变化的。DNS的思路就是根据模型当前的情况动态地改变采样分布,提升每一轮的采样质量。对于模型来说,我们最后希望的模型是能够给正例打更高的分,给负例打更低的分。因此,对于每一轮训练,那些会被模型打高分的采样池中的商品更应该被挑出来让模型进行学习,它们对于模型而言包含更多的信息量。基于这样的思路,DNS会在每次采样时使用当前模型作为一个采样模型,对样例进行打分,然后选择分数更高的样例来作为负例对当前模型进行训练,得到新一轮的模型,并这样迭代下去。

2、基于GAN的负采样算法

在模型训练过程中,模型的训练目标是将损失函数的值降低,而采样器的采样目标是将能使得模型损失函数的值增大的负例选出来,这就蕴含着一种对抗的思想。自然的,生成对抗网络(Generative Adversarial Networks,GAN)也就被运用到了负采样中。IRGAN [5] 是信息检索负采样领域的一篇经典工作,它首次将GAN的思想运用到信息检索领域来进行负采样。具体来说,在IRGAN的设计中,它包含了两个推荐模型,一个作为判别器(Discriminator),一个作为生成器(Generator),基于对抗的思想进行训练。生成器的目的在于从负例池中选择负例混入正例中来迷惑判别器,而判别器则是要区分出正例和生成器混入的负例,并将反馈给予生成器。

IRGAN结构示意图

在这个框架中,原则上生成器和判别器可以是任意结构的推荐模型,最终生成器和判别器也都可以作为最后的推荐模型进行使用。而DNS可以理解为一种判别器和生成器是相同模型结构的,共享同一套参数的特殊的IRGAN。受到IRGAN的影响,后续也出现了很多基于GAN的负采样算法 [6][7],他们从效率,性能等不同方面对IRGAN的结构进行了优化和改进。

3、SRNS (Simplify and Robustify Negative Sampling)[8]

虽然前面提到的两种基于模型的采样算法通过模型学习的方法可以提升采样质量,获得强负例(Hard Negative),但也存在着两个关键问题:1)由于借助模型评分来选择负例,会加重采样时的伪负例(False Negative)问题。因为单从评分上来看,伪负例和强负例都会得到较高的分数,按照模型评分得到的分布进行采样会提升伪负例被采到的概率。2)这种基于模型的算法,特别是基于GAN的算法,会有很大的时间开销,影响模型的训练。针对这两个问题,nips 2020上的一篇工作提出了一种命名为“简单且具有较强鲁棒性的负采样算法”。在这个算法中,它以观察到的统计学特征作为先验知识对伪负例和强负例进行区分,以增强模型的鲁棒性,并使用了类似DNS的结构进行采样,以保证采样质量。在时间复杂度的分析上,SRNS也优于GAN类型的方法。本篇工作将视角放在了采样去偏和采样效率优化,同时创新性地引入统计学指标来尝试区分伪负例和强负例,是一篇具有启发意义的工作。

4. 结语

本文主要围绕推荐系统负采样这个主题,从研究背景到目前的经典工作进行了较为细致通俗的概况,希望可以通过这篇文章让读者对该领域有一个简单认识。同时欢迎对文章内容有疑问或想法的同学在评论区积极留言讨论!

在最后,也向大家安利一款非常好用的,特别适合刚刚入门推荐系统方向的“科研小白”的推荐算法工具包“伯乐” (RecBole)。希望大家可以多多支持!

一起交流

想和你一起学习进步!『NewBeeNLP』目前已经建立了多个不同方向交流群(机器学习 / 深度学习 / 自然语言处理 / 搜索推荐 / 图网络 / 面试交流 / 等),名额有限,赶紧添加下方微信加入一起讨论交流吧!(注意一定要备注信息才能通过)

易用又强大的伯乐二期来啦!

参考文献

[1] Steffen Rendle, Christoph Freudenthaler, Zeno Gantner, and Lars Schmidt-Thieme. 2009. BPR: Bayesian Personalized Ranking from Implicit Feedback. In UAI. AUAI Press, 452–461.

[2] Ting Chen, Yizhou Sun, Yue Shi, and Liangjie Hong. 2017. On Sampling Strategies for Neural Network-based Collaborative Filtering. In KDD. ACM, 767–776.

[3] Steffen Rendle and Christoph Freudenthaler. 2014. Improving pairwise learning for item recommendation from implicit feedback. In WSDM. 273–282

[4] Weinan Zhang, Tianqi Chen, Jun Wang, and Yong Yu. 2013. Optimizing topn collaborative filtering via dynamic negative item sampling. In SIGIR. ACM,

785–788.

[5] Jun Wang, Lantao Yu, Weinan Zhang, Yu Gong, Yinghui Xu, Benyou Wang, Peng Zhang, and Dell Zhang. 2017. IRGAN: A Minimax Game for Unifying Generative and Discriminative Information Retrieval Models. In SIGIR. ACM, 515–524.

[6] Dae Hoon Park and Yi Chang. 2019. Adversarial Sampling and Training for Semi-Supervised Information Retrieval. In WWW. ACM, 1443–1453.

[7] Jingtao Ding, Yuhan Quan, Xiangnan He, Yong Li, and Depeng Jin. Reinforced negative sampling for recommendation with exposure data. In IJCAI, pages 2230–2236, 2019.

[8] Jingtao Ding, Yuhan Quan, Quanming Yao, Yong Li, and Depeng Jin. 2020. Simplify and Robustify Negative Sampling for Implicit Collaborative Filtering. In NeurIPS.

END -



微软亚研院 | 智能信息检索综述

2021-07-05

我是如何寻找数据集的,一些个人私藏

2021-07-02

茫茫社招路,硕士毕业半年的抉择

2021-06-29

2021最新 武汉互联网公司

2021-06-27

kaiyuan_sjtu
关注 关注
  • 8
    点赞
  • 35
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
推荐系统之BRP模型训练-负样本采样
qq_40341502的博客
05-14 644
1:调用负样本采样函数进行负采样。 def _neg_sampling(self, inter_feat): inter_feat参数值为: The batch_size of interaction: 2048 user_id, torch.Size([2048]), cpu, torch.int64 item_id, torch.Size([2048]), cpu, torch.int64 rating, torch.Size([2048]), cpu, torch.float32 timesta
KGPolicy:用于推荐的负采样模型(知识图谱策略网络)WWW 2020
u013602059的专栏
07-27 2586
论文链接:https://arxiv.org/pdf/2003.05753.pdf 代码链接:https://github.com/xiangwang1223/kgpolicy 摘要 合理的处理缺失数据在推荐系统中是的一个根本挑战。 目前的大多数工作都是从未观察到的数据中进行负采样,以提供带有负信号的推荐模型训练 。 然而,现有的负采样策略,无论是静态的还是自适应的,都不足以产生高质量的负样本-这既有助于模型训练,也有助于反映用户真实的需求。 在这项工作中,我们假设项目知识图(KG),它提供了项目和KG实.
推荐系统负采样
qq_39125106的博客
12-27 2182
负采样1.随机负采样1.1 存在的问题1.2 失效原因1.3 基于其他用户点击的负采样 1.随机负采样 1.1 存在的问题 头部效应非常重。热文被大量分发,个性化能力大幅减弱。站在一个用户的角度看,用户的样本可以通过一些手段做到均衡化。站在一篇文章的角度看,就不是这么回事了,被频繁点击的文章有大量正样本,因为负样本是随机采样,冷文章和热文章被采到的几率相等,那么被频繁点击的文章正样本相对负样本就会多很多,多到均衡化都带不动。 1.2 失效原因 库中有1000个item,我需要随机负采样5000次,那么理论上
解决方案:对数据进行负采样随机抽取1000W,用Pandas如何实现
最新发布
weixin_42504788的博客
05-11 232
解决方案:对数据进行负采样随机抽取1000W,用Pandas如何实现
推荐系统】双塔模型中的负采样
fengdu78的博客
08-27 1125
作者:十方推荐模型中双塔模型早已经普及.一个塔学用户表达.一个塔学item表达.很多双塔模型用各种各样的in-batch负采样策略.十方也是如此.往往使用比较大的batchsize,效果会...
负采样
aikudexue的博客
03-02 2874
参考: https://www.imooc.com/article/29453 https://blog.csdn.net/itplus/article/details/37998797 (这个博客里有很多关于word2vec论文的细节,很值得阅读)
技术向:一文读懂卷积神经网络
02-25
自今年七月份以来,一直在实验室负责卷积神经网络(ConvolutionalNeuralNetwork,CNN),期间配置和使用过theano和cuda-convnet、cuda-convnet2。为了增进CNN的理解和使用,特写此博文,以其与人交流,互有增益。...
一文读懂Tesla数据标注系统
04-02
一文读懂Tesla数据标注系统
深度:一文看懂Linux内核!Linux内核架构和工作原理详解
02-23
理解Linux内核最好预备的知识点:懂C语言懂一点操作系统的知识熟悉少量相关算法懂计算机体系结构Linux内核的特点:结合了unix操作系统的一些基础概念Linux内核的任务:1.从技术层面讲,内核是硬件与软
干货:一文看懂网络爬虫实现原理与技术
02-23
首先我们来看通用网络爬虫的实现原理。通用网络爬虫的实现原理及过程可以简要概括如下(见图3-1)。获取初始的URL。初始的URL地址可以由用户人为地指定,也可以由用户指定的某个或某几个初始爬取网页决定。根据初始...
推荐算法中常用负采样策略
qq_43398345的博客
02-16 933
流行度越高的item受到用户喜爱的概率也越大,因此如果流行度高的item出现在负样本里可以认为它的信息量越大。1、曝光未点击行为不一定能代表user真正不感兴趣的信息,曝光未点击有可能的原因是user已经看过该内容或者准备下次再看,也有一些user不感兴趣的内容因为没有曝光而没有被采样到负样本里。1、除了采用曝光未点击数据作为负样本以外,也可以从召回结果中user未点击且未曝光的item作为负样本,这种全局采样的方法可以在一定程度上消除一些item由于没有曝光造成的样本偏差问题。1、平衡正负样本比例。
基于增益的动态负采样方法用于推荐系统A Gain-Tuning Dynamic Negative Sampler for Recommendation
weixin_45305068的博客
06-27 92
由于常用方法存在假负例的情况,因此本文希望找到一种更可靠的衡量方式来找到负样本。提出的相关方法,现有的方法通常侧重于保持具有高梯度的难负样本进行训练,导致优先选择假负样本。假阴性噪声可能导致模型的过拟合和较差的泛化性。为了解决这个问题,本文提出了一种增益调整动态负采样方法。设计了一个增益感知函数来计算商品j是一个真正的负样本的概率,如下式,其中α是使训练稳定的平滑超参数,ϵ防止分母为0。以前的工作通常优化成对的基于边际的损失,将高分分配给正实例,将低分分配给负实例。考虑到一下两方面,作者提出分组损失。
负采样方式
weixin_39586997的博客
10-27 1897
一、随机负采样 二、曝光未点击 三、混合负采样 四、重要性采样 五、有偏采样 六、NCE采样 参考: [mixed negative sampling] Mixed Negative Sampling for Learning Two-tower Neural Networks in Recommendations(2020) [Youtube] Sampling-Bias-Corrected Neural Modeling for Large Corpus Item Recomme
数据科学个人笔记:推荐系统之推荐算法(基于图+隐语义)
humothetrader的博客
08-13 1254
一、隐语义模型(LFM算法) (一)基础算法 隐语义分析采取基于用户行为统计的自动聚类,计算出用户和隐类的关系和物品和隐类的关系。 此处使用LFM算法,通过如下公式计算用户u对物品i的兴趣: Preference(u,i)=r(ui)=sum(p(u,k)*q(i,k)) p(u,k)和q(i,k)时模型的参数,分别度量了类别与用户和物品的关系。 我们优化以下的损失函数来找到最合适的参...
上百篇论文概览『负采样方法』的前世今生
Kaiyuan_sjtu的博客
12-31 2129
Efficient and Effective: 百篇论文概览负采样方法的前世今生 © 作者|徐澜玲研究方向|推荐系统引言:负采样方法最初是被用于加速 Skip-Gram 模型的训练...
负采样(Negative Sampling)
热门推荐
csdn_xmj的博客
07-13 1万+
来源:Coursera吴恩达深度学习课程 在Word2Vec文章中,我们见到了Skip-Gram模型如何构造一个监督学习任务,把上下文映射到了目标词上,它如何学到一个实用的词嵌入(word embedding)。但是它的缺点(downside)就在于softmax计算起来很慢。因此,学习一个改善过的学习问题叫做负采样(negative sampling),它能做到与Skip-Gram模型相似的事情,但是用了一个更加有效的学习算法,让我们来看看。 在本视频中大多数的想法源于这篇论文:Distribut
说说Skip-gram中的负采样技术
附子Jun的博客
04-16 856
一、什么是负采样? 对于有监督神经网络,训练过程就是不断调参的过程,然而,当网络规模过大时,反向更新权重是比较困难的,有没有什么方法能够每次只对部分节点的权重进行更新而不影响最终结果呢?这就是负采样技术。 首先,把所有的节点分为两类,一类为正样本(也就是原始输入和预测输出一致的节点),一类为负样本() ...
负采样,yyds!
夕小瑶科技说
02-17 6426
文 | 徐澜玲源 | RUC AI Box引言:负采样方法最初是被用于加速 Skip-Gram 模型的训练,后来被广泛应用于自然语言处理 (NLP)、计算机视觉 (CV) 和推荐系统 (R...
目标检测:一文读懂yolov5loss原理
09-03
Yolov5 是一种广泛应用于目标检测的算法,其 loss 原理相对简单。Yolov5 通过将目标检测问题转化为一个回归问题,通过预测 bounding box 的坐标来实现目标检测。 Yolov5 的 loss 主要包括三个部分:分类损失、定位损失和目标置信度损失。 分类损失是用来衡量预测的类别与真实类别之间的差异。Yolov5 使用交叉熵损失函数来计算分类损失。对于每个边界框(bounding box),它将计算预测类别的 softmax 概率与真实类别的 one-hot 向量之间的交叉熵。 定位损失用于衡量预测的边界框位置与真实边界框位置之间的差异。Yolov5 使用 Smooth L1 损失函数来计算定位损失。它通过对预测边界框的坐标与真实边界框的坐标之间进行平滑处理,减小了异常值的影响。 目标置信度损失用于衡量预测的边界框与真实边界框之间的 IoU(Intersection over Union)之间的差异。Yolov5 使用 Binary Cross-Entropy 损失函数来计算目标置信度损失。它将预测的边界框是否包含目标与真实边界框是否包含目标之间的差异进行衡量。 最终,Yolov5 的总损失是通过将三个部分的损失加权求和得到的。这些权重可以根据具体的任务和数据集进行调整。 通过最小化 Yolov5 的 loss 函数,模型可以学习到更准确的目标检测结果。这样,我们就可以在图像中准确地检测和定位不同类别的目标。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
写文章

分类专栏

  • 面试
  • 剑指Offer--Python
  • ML算法总结 28篇
  • Git学习
  • 数据结构 8篇
  • 数据分析 2篇
  • 经典算法 4篇
  • Computer Vision 2篇
  • Deep Learning 48篇
  • NLP 64篇
  • Linux 1篇
  • paper review 29篇
  • Python 4篇
  • Target offer 1篇

最新评论

  • 扩散模型和Transformer梦幻联动!一举拿下新SOTA

    m0_66542829: 请问这种对diffusion的backbone的创新以及应用啥的,目前有啥论文推荐嘛

  • 【周末送新书】基于BERT模型的自然语言处理实战

    哒哒哒2777: 请问有电子版的吗???我很需要

  • 基于文本和语音的双模态情感分析

    骑着母猪上高速~: 请问该篇博客有相对应的已发表的学术论文吗

  • NLP之NER:商品标题属性识别探索与实践

    sakura_BAI: 很有用,我现在是需要对电商里面的商品名称,进行识别。不过我是药名。

  • BERT模型实战之多文本分类(附源码)

    leaves_a: 博主你好,可以给我发一份数据集吗?邮箱1287405931@qq.com,非常感谢!

您愿意向朋友推荐“博客详情页”吗?

  • 强烈不推荐
  • 不推荐
  • 一般般
  • 推荐
  • 强烈推荐
提交

最新文章

  • 电商知识图谱建设及大模型应用探索
  • 聊一聊搜推广粗排思考
  • 用最酷的LR,训最猛的模型
2024
06月 6篇
05月 24篇
04月 27篇
03月 25篇
02月 29篇
01月 23篇
2023年242篇
2022年228篇
2021年333篇
2020年26篇
2019年34篇
2018年54篇

目录

目录

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

PHP网站源码黑河网站推广工具报价大同SEO按效果付费多少钱南澳关键词按天计费报价泸州至尊标王价格汉中推广网站多少钱济源seo优化哪家好龙岗网站搜索优化公司楚雄网站排名优化价格民治建网站价格永湖网站优化按天计费报价飞来峡网站优化按天扣费哪家好梧州网站优化软件多少钱榆林企业网站建设公司马鞍山seo排名果洛网站优化按天收费价格佛山SEO按天扣费公司驻马店网站推广系统哪家好蚌埠百姓网标王报价遂宁网站seo优化报价汕尾网站seo优化多少钱株洲网站推广方案多少钱海南seo网站优化推荐绍兴SEO按天收费公司双龙百度竞价价格衡水营销型网站建设价格河池百度标王哪家好鹤壁英文网站建设多少钱包头推广网站价格成都网站建设哪家好酒泉营销型网站建设公司歼20紧急升空逼退外机英媒称团队夜以继日筹划王妃复出草木蔓发 春山在望成都发生巨响 当地回应60岁老人炒菠菜未焯水致肾病恶化男子涉嫌走私被判11年却一天牢没坐劳斯莱斯右转逼停直行车网传落水者说“没让你救”系谣言广东通报13岁男孩性侵女童不予立案贵州小伙回应在美国卖三蹦子火了淀粉肠小王子日销售额涨超10倍有个姐真把千机伞做出来了近3万元金手镯仅含足金十克呼北高速交通事故已致14人死亡杨洋拄拐现身医院国产伟哥去年销售近13亿男子给前妻转账 现任妻子起诉要回新基金只募集到26元还是员工自购男孩疑遭霸凌 家长讨说法被踢出群充个话费竟沦为间接洗钱工具新的一天从800个哈欠开始单亲妈妈陷入热恋 14岁儿子报警#春分立蛋大挑战#中国投资客涌入日本东京买房两大学生合买彩票中奖一人不认账新加坡主帅:唯一目标击败中国队月嫂回应掌掴婴儿是在赶虫子19岁小伙救下5人后溺亡 多方发声清明节放假3天调休1天张家界的山上“长”满了韩国人?开封王婆为何火了主播靠辱骂母亲走红被批捕封号代拍被何赛飞拿着魔杖追着打阿根廷将发行1万与2万面值的纸币库克现身上海为江西彩礼“减负”的“试婚人”因自嘲式简历走红的教授更新简介殡仪馆花卉高于市场价3倍还重复用网友称在豆瓣酱里吃出老鼠头315晚会后胖东来又人满为患了网友建议重庆地铁不准乘客携带菜筐特朗普谈“凯特王妃P图照”罗斯否认插足凯特王妃婚姻青海通报栏杆断裂小学生跌落住进ICU恒大被罚41.75亿到底怎么缴湖南一县政协主席疑涉刑案被控制茶百道就改标签日期致歉王树国3次鞠躬告别西交大师生张立群任西安交通大学校长杨倩无缘巴黎奥运

PHP网站源码 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化