机器学习模型的超参数优化 | 原力计划

作者 | deephub

责编 | 王晓曼

出品 | CSDN博客

头图 | CSDN付费下载自东方IC

引言

 

模型优化是机器学习算法实现中最困难的挑战之一。机器学习和深度学习理论的所有分支都致力于模型的优化。

机器学习中的超参数优化旨在寻找使得机器学习算法在验证数据集上表现性能最佳的超参数。超参数与一般模型参数不同,超参数是在训练前提前设置的。举例来说,随机森林算法中树的数量就是一个超参数,而神经网络中的权值则不是超参数。

其它超参数有:

  • 神经网络训练中的学习率

  • 支持向量机中的 c cc 参数和 γ \gammaγ 参数

  • k 近邻算法中的 k kk 参数

  • ……

超参数优化找到一组超参数,这些超参数返回一个优化模型,该模型减少了预定义的损失函数,进而提高了给定独立数据的预测或者分类精度。

分类算法中的超参数

 

超参数优化方法

 

超参数的设置对于模型性能有着直接影响,其重要性不言而喻。为了最大化模型性能,了解如何优化超参数至关重要。接下来介绍了几种常用的超参数优化方法。

1.手动调参

很多情况下,工程师们依靠试错法手动对超参数进行调参优化,有经验的工程师能够很大程度上判断超参数如何进行设置能够获得更高的模型准确性。但是,这一方法依赖大量的经验,并且比较耗时,因此发展出了许多自动化超参数优化方法。

2. 网格化寻优(Grid Search)

网格化寻优可以说是最基本的超参数优化方法。使用这种技术,我们只需为所有超参数的可能构建独立的模型,评估每个模型的性能,并选择产生最佳结果的模型和超参数。

网格化寻优方法:

以一个典型的核函数为 RBF 的 SVM 分类模型为例,其至少有两个超参数需要优化——正则化常数 c cc 和 核函数参数 γ \gammaγ。

这两个超参数都是连续的,需要执行网格化寻优为每个超参数选择合理取值。假设 c∈10,100,1000,γ∈0.1,0.2,0.5,1.0c\in {10,100,1000}, \gamma \in {0.1,0.2,0.5,1.0}c∈10,100,1000,γ∈0.1,0.2,0.5,1.0。

那么网格化寻优方法将对每一对( c cc ,γ \gammaγ)赋值后的 SVM 模型进行训练,并在验证集上分别评估它们的性能(或者在训练集内进行 cross-validation)。

最终,网格化寻优方法返回在评估过程中得分最高的模型及其超参数。

通过以下代码,可以实现上述方法:

首先,通过 sklearn 库调用 GridSearchCV 。

from sklearn.datasets import load_iris
from sklearn.svm import SVC
iris = load_iris()
svc = SVR()
from sklearn.model_selection import GridSearchCV
from sklearn.svm import SVR
grid = GridSearchCV(
        estimator=SVR(kernel='rbf'),
        param_grid={
            'C': [0.1, 1, 100, 1000],
            'epsilon': [0.0001, 0.0005, 0.001, 0.005, 0.01, 0.05, 0.1, 0.5, 1, 5, 10],
            'gamma': [0.0001, 0.001, 0.005, 0.1, 1, 3, 5]
        },
        cv=5, scoring='neg_mean_squared_error', verbose=0, n_jobs=-1)

然后拟合网格:

grid.fit(X,y)

输出结果:

#print the best score throughout the grid search
print grid.best_score_
#print the best parameter used for the highest score of the model.
print grid.best_param_

网格化寻优的一个缺点是,当涉及到多个超参数时,计算数量呈指数增长。并且这一方法并不能保证搜索会找到完美的超参数值。

 

随机寻优(Random Search)

 

通常并不是所有的超参数都有同样的重要性,某些超参数可能作用更显著。

而随机寻优方法相对于网格化寻优方法能够更准确地确定某些重要的超参数的最佳值。

随机寻优方法:

随机寻优方法在超参数网格的基础上选择随机的组合来进行模型训练。

可以控制组合的数量,基于时间和计算资源的情况,选择合理的计算次数。

这一方法可以通过调用 sklearn 库中的  RandomizedSearchCV 函数来实现。

尽管 RandomizedSearchCV 的结果可能不如 GridSearchCV 准确,但它令人意外地经常选择出最好的结果,而且只花费 GridSearchCV 所需时间的一小部分。

给定相同的资源,RandomizedSearchCV 甚至可以优于的结果可能不如GridSearchCV准确。当使用连续参数时,两者的差别如下图所示。

网格化寻优 VS 随机寻优

随机寻优方法找到最优参数的机会相对更高,但是这一方法适用于低维数据的情况,可以在较少迭代次数的情况下找到正确的参数集合,并且花费的时间较少。

通过以下代码,可以实现上述方法:

首先,通过 sklearn 库调用 RandomizedSearchCV 。

from sklearn.datasets import load_iris
from sklearn.ensemble import RandomForestRegressor
iris = load_iris()
rf = RandomForestRegressor(random_state = 42)
from sklearn.model_selection import RandomizedSearchCV
random_grid = {'n_estimators': n_estimators,
               'max_features': max_features,
               'max_depth': max_depth,
               'min_samples_split': min_samples_split,
               'min_samples_leaf': min_samples_leaf,
               'bootstrap': bootstrap}
rf_random = RandomizedSearchCV(estimator = rf, param_distributions = random_grid, n_iter = 100, cv = 3, verbose=2, random_state=42, n_jobs = -1)# Fit the random search model

然后进行计算:

rf_random.fit(X,y)

输出结果:

#print the best score throughout the grid search
print rf_random.best_score_
#print the best parameter used for the highest score of the model.
print rf_random.best_param_

Output:
{'bootstrap': True,
 'max_depth': 70,
 'max_features': 'auto',
 'min_samples_leaf': 4,
 'min_samples_split': 10,
 'n_estimators': 400}

贝叶斯优化方法(Bayesian Optimization)

 

前面两种方法能够针对单独超参数组合模型进行训练,并评估各自的性能。每个模型都是独立的,因此很易于进行并行计算。

但是每个模型都是独立的,也导致模型之间不具有指导意义,前一模型的计算结果并不能影响后一模型的超参数选择。

而贝叶斯优化方法(顺序优化方法的一种,sequential model-besed optimization, SMBO)则可以借鉴已有的结果进而影响后续的模型超参数选择。

这也限制了模型训练评估的计算次数,因为只有有望提高模型性能的超参数组合才会被进行计算。

贝叶斯优化是通过构造一个函数的后验分布(高斯过程)来工作的,该后验分布最好地描述了要优化的函数。

随着观测次数的增加,后验分布得到改善,算法更加确定参数空间中哪些区域值得探索,哪些区域不值得探索。

当反复迭代时,算法会在考虑到它对目标函数的了解的情况下,平衡它的探索和开发需求。

在每个步骤中,高斯过程被拟合到已知的样本(先前探索的点),后验分布与探索策略(例如UCB(上置信限,upper confidence bound)或EI(预期改善, expected improvement))被用于确定下一个应该探索的点。

通过贝叶斯优化方法,可以更高效的探索超参数变量空间,降低优化时间。

 

基于梯度的优化方法(Gradient-based Optimization)

 

基于梯度的优化方法经常被用于神经网络模型中,主要计算超参数的梯度,并且通过梯度下降算法进行优化。

这一方法的应用场景并不广泛,其局限性主要在于:

  • 超参数优化通常不是一个平滑的过程

  • 超参数优化往往具有非凸的性质

进化寻优(Evolutionary Optimization)

 

进化寻优方法的思想来源于生物学概念,由于自然进化是不断变化的环境中发生的一个动态过程,因此适用于超参数寻优问题,因为超参数寻优也是一个动态过程。

进化算法经常被用来寻找其他技术不易求解的近似解。优化问题往往没有一个精确的解决方案,因为它可能太耗时并且计算资源占用很大。

在这种情况下,进化算法通常可以用来寻找一个足够的近似最优解。

进化算法的一个优点是,它们可以产生出不受人类误解或偏见影响的解决方案。

作为一个一般性的经验法则,任何时候想要优化调整超参数,优先考虑网格化寻优方法和随机寻优方法!

总结

 

在本文中,我们了解到为超参数找到正确的值可能是一项令人沮丧的任务,并可能导致机器学习模型的欠拟合或过拟合。我们看到了如何通过使用网格化寻优、随机寻优和其他算法来克服这一障碍。

版权声明:本文为CSDN博主「deephub」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。

原文链接:https://blog.csdn.net/m0_46510245/article/details/105910907

6月2日20:00,CSDN 创始人&董事长、极客帮创投创始合伙人蒋涛携手全球顶级开源基金会主席、董事,聚焦中国开源现状,直面开发者在开源技术、商业上的难题,你绝不可错过的开源巅峰对谈!立即免费围观

推荐阅读
你点的每个“在看”,我都认真当成了喜欢
AI科技大本营
关注 关注
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
为什么要进行参数调优?
CSDN 精品推荐
08-09 357
适当的正则化参数(如L1、L2正则化、Dropout等)可以帮助减少模型的过拟合问题,提高模型的泛化能力。参数调优是深度学习模型训练过程中的一个重要步骤,它对于获得更好的模型性能和泛化能力至关重要。较大的学习率可以使模型更快地逼近最优解,而较小的学习率可以提高收敛的稳定性。通过合适的参数调优,可以使模型在训练数据上表现更好,提高模型的准确度、精度等指标。通过调整参数,可以使模型更好地适应不同的数据分布和样本特点,从而提高模型的泛化能力,使其在新数据上表现良好。
机器学习优化方法及参数设置综述v1.pdf
08-25
优化方法和参数作为观察训练模型的窗口,能够探索学习模型的结构和训练机制,是机器学习研究的重点之一。对机器学习优化器与参数理论研究进行了综述,回顾了参数的一般搜索方法,对和优化器直接关联的批量...
机器学习——参数调优
樱缘之梦
05-11 4936
参数是在开始学习过程之前设置值的参数,而不是通过训练得到的参数数据。参数可以分为两种类型:定义模型及结构本身的参数,目标函数与与优化算法所需的参数,前者用于训练和预测阶段,后者用于训练阶段。 在实战过程中,需要对机器学习模型进行优化以确保模型的最高准确率,因此,参数调优参数应运而生,常见的参数搜索算法有网格搜索、随机搜索、贝叶斯优化等。参数搜索算法一般包括三个要素: 目标函数,即算法需要最大化/最小化目标; 搜索范围,一般通过上限和下限来确定; 算法的其他参数,如搜索步
什么是元学习 (Meta Learning)
热门推荐
蓝鲸鱼的博客
05-02 1万+
目录元学习(Meta Learning)元学习介绍元学习目的元学习流程 元学习(Meta Learning) 元学习介绍 元学习希望使得模型获取调整参数的能力,使其可以在获取已有知识的基础上快速学习新的任务。 元学习目的 元学习和机器学习的区别在于:机器学习是先人为调参,之后直接训练特定任务下深度模型。元学习则是先通过其它的任务训练出一个较好的参数,然后再对特定任务进行训练。 这些参数可以是初始化参数、选择优化器、定义损失函数、梯度下降更新参数等。 元学习流程 在机器学习中,训练单位是样本数据,通
机器学习模型选择和模型优化
最新发布
m0_63997099的博客
03-02 757
有监督学习
深度学习中参数介绍,过拟合、欠拟合、梯度消失及梯度爆炸的理解
weixin_41796280的博客
12-22 3109
参数的设置对训练的影响 (1)学习率(learning rate) 学习率(learning rate)是指在优化算法中更新网络权重的幅度大小。学习率可以是恒定的、逐渐降低的,基于动量的或者是自适应的,不同的优化算法决定不同的学习率。为了能够使得梯度下降法有较好的性能,我们需要把学习率的值设定在合适的范围内。学习率过小,会极大降低收敛速度,增加训练时间;学习率过大,可能导致参数在最优解两侧来回振荡,所以学习率对于算法性能的表现至关重要。 (2)学习率调整策略 一般情况下,初始参数所得目标值与要求的
元学习 Meta-Learning 学习笔记
jacke121的专栏
05-29 1371
这个也不错: 一文入门元学习(Meta-Learning)(附代码) - 知乎 以下内容转自: 一文通俗讲解元学习(Meta-Learning)_PaperWeekly的博客-CSDN博客 元学习(meta-learning)是过去几年最火爆的学习方法之一,各式各样的 paper 都是基于元学习展开的。深度学习模型训练模型特别吃计算硬件,尤其是人为调参数时候,更需要大量的计算。另一个头疼的问题是在某个任务下大量数据训练的模型,切换到另一个任务后,模型就需要重新训练,这样非常耗时耗力。工业界财大
机器学习模型参数优化
deephub
05-04 7922
引言 模型优化机器学习算法实现中最困难的挑战之一。机器学习和深度学习理论的所有分支都致力于模型优化机器学习中的参数优化旨在寻找使得机器学习算法在验证数据集上表现性能最佳的参数参数与一般模型参数不同,参数是在训练前提前设置的。举例来说,随机森林算法中树的数量就是一个参数,而神经网络中的权值则不是参数。 其它参数有: 神经网络训练中的学习率 支持向量机中的 ccc 参数和 γ...
参数调优和元学习在性能优化中的作用、局限性以及当前研究的最新进展
禅与计算机程序设计艺术
07-17 1443
作者:禅与计算机程序设计艺术 人工智能(AI)技术的研究已经取得了令人瞩目的成果。伴随着AI技术的飞速发展、应用的广泛性、高速增长率以及高科技创新能力的不断提升,人们对其性能的关注也在逐渐上升。因此,如何设计高效、鲁棒、智能的人工智能系统成为各行业和领域的重点关注之一。然而,如何保证人工智能系统的高性能,尤其是当面临复杂、多样化的场景和多
元学习和机器学习的对比
小刘的博客
12-19 1259
本篇博客主要介绍了元学习的基本概念、元学习的建模流程以及元学习和机器学习的对比。 元学习将数据以任务的形式进行划分,将数据集分为很多个任务。而这些任务在类别上又可以分为**训练任务**和**测试任务**。每个任务自身可以分为**支持集**和**查询集**。 元学习不是学习一个函数,而是学习一个学习函数。
元学习 Meta Learning
sky_ying的博客
10-21 483
以李宏毅老师的课程为主,主要是学习记录
机器学习常用模型优化.doc
09-05
机器学习常用模型优化
机器学习算法的参数优化:理论与实践.pdf
09-24
机器学习算法的参数优化:理论与实践.pdf
有指导机器学习参数的交叉验证智能优化.pdf
09-24
有指导机器学习参数的交叉验证智能优化.pdf
机器学习认知-模型评估与优化
07-08
机器学习是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为...(3)机器学习是用数据或以往的经验,以此优化计算机程序的性能标准。
机器学习中的参数优化算法和工具介绍
zhuguiqin1的专栏
03-09 775
参数调参
机器学习中的参数
诚朴勇毅
10-04 2311
在学习机器学习的时候常常看到“参数,hyper parameter”,它到底是什么呢? 在机器学习的过程中, 参= 在开始机器学习之前,就人为设置好的参数。例如卷积神经网络中的卷积核的大小,深度神经网络中隐层的数量。 模型参数=通过训练得到的参数数据。例如卷积核的权重和阈值。 通常情况下,需要对参数进行优化,给学习机选择一组最优参数,以提高学习的性能和效果。 参数也是一种参数,它具有参数的特性,比如未知,也就是它不是一个已知常量。是一种手工可配置的设置,需要为它根据已有或现有的经验,指定“正确
机器学习参调优:常用8种方法
算法channel
08-29 3115
参数调优是机器学习例程中的基本步骤之一。该方法也称为参数优化,需要搜索参数的最佳配置以实现最佳性能。机器学习算法需要用户定义的输入来实现准确性和通用性之间的平衡。这个过程称为参数调整。有多种工具和方法可用于调整参数。我们整理了一份用于调整机器学习模型参数的前八种方法的列表。1 贝叶斯优化贝叶斯优化已成为机器学习算法参数调整的有效工具,更具体地说,适用于深度神经网络等复杂模型。它提供了...
【深度学习】参数优化简单介绍
点赞的都能无bug通过!
03-22 4425
介绍 参数优化也称作参数调整。往往机器学习/深度学习的算法中包含了成千上百万的参数,这些参数有的可以通过训练来优化,例如神经网络中的权重(Weight)等,我们称为参数(Parameter),也有一部分参数不能通过训练来优化,例如学习率(Learning rate)等,我们称为参数(Hyper parameter)。举些例子,机器学习算法中的参数是用来调整数据的。深度神经网络由许多神经元组成,输入的数据通过这些神经元来传输到输出端。在神经网络训练时候,每个神经元的权重会随着损失函数的值来优化从而减小损
机器学习模型参数优化方法
05-24
机器学习模型参数优化是指在给定数据集和模型的情况下,寻找最优的模型参数使得模型的性能最好。常用的参数优化方法包括: 1. 梯度下降法(Gradient Descent):梯度下降是一种迭代的优化算法,它通过求解模型...

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
2122
原创
1万+
点赞
4万+
收藏
3万+
粉丝
关注
私信
写文章

热门文章

  • 深度学习面试必备的25个问题 143089
  • 清华周界详解《基于图神经网络的事实验证》 | 百万人学AI 129767
  • PornHub:修复百年前情色电影 117326
  • 感动!有人将吴恩达的视频课程做成了文字版 104438
  • 用AI给黑白照片上色,复现记忆中的旧时光 66765

分类专栏

  • 行业资讯 251篇
  • 芯片 14篇
  • 物联网 10篇
  • 测试 2篇
  • 笔记 11篇
  • 软硬件 2篇
  • 百度智能云 5篇
  • 新能源
  • ADAS
  • 自然语言处理 3篇
  • 大数据 5篇
  • 光线追踪 1篇
  • GPU 1篇
  • 多线程 1篇
  • OpenAI 2篇
  • GPT-3 2篇
  • Golang 1篇
  • facebook 1篇
  • 算法 5篇
  • 微软 2篇
  • chrome 1篇
  • firefox 1篇
  • 搜索引擎 1篇
  • html 1篇
  • 超链接 1篇
  • 图片识别 1篇
  • http 1篇
  • DDoS 1篇
  • 无人驾驶 1篇
  • 人群密度 1篇
  • 金融科技 2篇
  • 评人工智能如何走向新阶段? 33篇
  • 数据众包 2篇
  • 电动车 1篇
  • 知乎 1篇
  • AI优秀案例奖 1篇
  • 多场景匹配 1篇
  • 微软小冰 3篇
  • 音乐 1篇
  • OPPO 1篇
  • 特步 1篇
  • 工作站 1篇
  • 华为 1篇
  • 竞赛 1篇
  • AI 548篇
  • 人工智能 543篇
  • 机器人 9篇
  • 神经网络 10篇
  • 机器学习 51篇
  • Python 24篇
  • 百度 30篇
  • 图像开放平台 2篇
  • 区块链 1篇
  • 开源 6篇
  • 深度学习 25篇
  • 语音识别 7篇
  • 云计算 5篇
  • AI名人堂 5篇
  • AI聚变 1篇
  • NLP 12篇
  • 数据科学 6篇
  • 强化学习 4篇
  • 计算机视觉 12篇

最新评论

  • 苹果将在iPhone上安装ChatGPT;中国大模型团队首登ICLR演讲 | AI 头条

    中国宁哥: "花了数周时间测试 ChatGPT 并发现 Siri 已经过时之后"

  • 苹果将在iPhone上安装ChatGPT;中国大模型团队首登ICLR演讲 | AI 头条

    Ng -honor: 深圳接等保项目 还有云服务器租赁 坐标高新南地铁站 需要联系哈~

  • 字节携港大南大升级 LLaVA-NeXT:借 LLaMA-3 和 Qwen-1.5 脱胎换骨,轻松追平 GPT-4V

    征途黯然.: This article about 字节携港大南大升级LLaVANeXT借LLaMA3和Qwen15脱胎换骨轻松追平GPT4V is very deep and insightful!表情包

  • 苹果将在iPhone上安装ChatGPT;中国大模型团队首登ICLR演讲 | AI 头条

    普通网友: 博主的文章不仅质量高,而且启发人心,我已经通过点赞和收藏来表达我的支持。此外,我建议可以采用物质奖励的方式,以鼓励博主继续创作出更多高质量的内容。我特别推荐您阅读我置顶的文章,其中探讨了知识变现的新途径,期待您的反馈。

  • 字节携港大南大升级 LLaVA-NeXT:借 LLaMA-3 和 Qwen-1.5 脱胎换骨,轻松追平 GPT-4V

    One010101: 请问你们用的显卡在哪里买的

您愿意向朋友推荐“博客详情页”吗?

  • 强烈不推荐
  • 不推荐
  • 一般般
  • 推荐
  • 强烈推荐
提交

最新文章

  • 李开复:所有应用都应该 AI-First、大模型要更关注 TC-PMF
  • DLRover 如何拯救算力浪费?10 分钟自动定位故障机,1 秒内保存 Checkpoint!
  • 苹果将在iPhone上安装ChatGPT;中国大模型团队首登ICLR演讲 | AI 头条
2024
05月 26篇
04月 63篇
03月 64篇
02月 20篇
01月 12篇
2023年367篇
2022年625篇
2021年867篇
2020年1111篇
2019年1727篇
2018年1197篇
2017年309篇

目录

目录

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

PHP网站源码白城网站制作价格遂宁百姓网标王哪家好三亚seo网站推广哪家好东营外贸网站建设推荐东莞优化价格通辽如何制作网站阳泉百度关键词包年推广价格玉溪百度seo公司哈密网站搭建价格辽源网站优化推广价格莱芜网站优化按天计费多少钱沧州百搜标王哪家好常德seo排名推荐松原网站制作报价坑梓模板推广青岛建设网站哪家好咸阳企业网站制作价格光明网站制作多少钱江门百度网站优化排名多少钱六安seo排名多少钱淮安SEO按天收费报价铜仁SEO按天收费报价珠海关键词按天扣费报价临猗网站定制凉山企业网站制作报价九江网站建设设计公司嘉兴百度标王海南关键词排名包年推广哪家好鹰潭网站改版宣城SEO按效果付费推荐歼20紧急升空逼退外机英媒称团队夜以继日筹划王妃复出草木蔓发 春山在望成都发生巨响 当地回应60岁老人炒菠菜未焯水致肾病恶化男子涉嫌走私被判11年却一天牢没坐劳斯莱斯右转逼停直行车网传落水者说“没让你救”系谣言广东通报13岁男孩性侵女童不予立案贵州小伙回应在美国卖三蹦子火了淀粉肠小王子日销售额涨超10倍有个姐真把千机伞做出来了近3万元金手镯仅含足金十克呼北高速交通事故已致14人死亡杨洋拄拐现身医院国产伟哥去年销售近13亿男子给前妻转账 现任妻子起诉要回新基金只募集到26元还是员工自购男孩疑遭霸凌 家长讨说法被踢出群充个话费竟沦为间接洗钱工具新的一天从800个哈欠开始单亲妈妈陷入热恋 14岁儿子报警#春分立蛋大挑战#中国投资客涌入日本东京买房两大学生合买彩票中奖一人不认账新加坡主帅:唯一目标击败中国队月嫂回应掌掴婴儿是在赶虫子19岁小伙救下5人后溺亡 多方发声清明节放假3天调休1天张家界的山上“长”满了韩国人?开封王婆为何火了主播靠辱骂母亲走红被批捕封号代拍被何赛飞拿着魔杖追着打阿根廷将发行1万与2万面值的纸币库克现身上海为江西彩礼“减负”的“试婚人”因自嘲式简历走红的教授更新简介殡仪馆花卉高于市场价3倍还重复用网友称在豆瓣酱里吃出老鼠头315晚会后胖东来又人满为患了网友建议重庆地铁不准乘客携带菜筐特朗普谈“凯特王妃P图照”罗斯否认插足凯特王妃婚姻青海通报栏杆断裂小学生跌落住进ICU恒大被罚41.75亿到底怎么缴湖南一县政协主席疑涉刑案被控制茶百道就改标签日期致歉王树国3次鞠躬告别西交大师生张立群任西安交通大学校长杨倩无缘巴黎奥运

PHP网站源码 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化