谷歌推出新优化器Lion:优化算法的符号发现

50 篇文章 8 订阅
订阅专栏
36 篇文章 6 订阅
订阅专栏
4 篇文章 1 订阅
订阅专栏

谷歌推出新优化器Lion:优化算法的符号发现

优化器即优化算法,优化器怎么选对模型的好坏起着重要的作用。优化器对梯度进行优化更新,不仅使模型找到最优点,而且能大大提升模型收敛速度。当然不同的优化器找到的最优点可能不同,有可能是局部最优点,有可能是全局最优点,这个是决定模型好坏的重要因素之一。

近年来提出了很多不同的优化算法,分别利用不同的公式来更新模型的参数。Adam(Kingma and Ba,2015)自从2015年被推出后,一直到今天仍然是最常用的优化算法之一。这表明从机器学习从业者的角度来看,深度学习的优化的最好的方法在很大程度上并没有多大改变。

然而,今年已经产生了一些新的想法来改进深度学习的优化方法,这可能会成为未来我们模型的优化方式。来自谷歌、 UCLA 的研究者提出了一种通过程序搜索发现深度神经网络训练的优化算法,来自论文《Symbolic Discovery of Optimization Algorithms》。通过数千TPU小时的算力搜索并结合人工干预,得到一个更省显存且速度更快的优化器 Lion(EvoLved Sign Momentum),其在图像分类、图文匹配、扩散模型、语言模型预训练和微调等诸多任务上做了充分的实验,多数任务都显示 Lion 比目前主流的 AdamW 等优化器有着更好的效果。

论文:Symbolic Discovery of Optimization Algorithms
组织:Google, UCLA
作者:Xiangning Chen, Chen Liang, Da Huang, Esteban Real, Kaiyuan Wang, Yao Liu, Hieu Pham, Xuanyi Dong, Thang Luong, Cho-Jui Hsieh, Yifeng Lu, Quoc V. Le
论文地址:https://arxiv.org/abs/2302.06675
代码地址:https://github.com/google/automl/tree/master/lion

关于常见的优化器Optimizer/优化算法的介绍,可以查看之前的文章:
传送门: 各种优化器SGD,AdaGrad,Adam,AdamW,LBFGS都做了什么?

Lion VS AdamW

先来看看优化器本身,Lion 的更新过程:
L i o n : = { μ t = sign ( β 1 m t − 1 + ( 1 − β 1 ) g t ) + λ t θ t − 1 θ t = θ t − 1 − η t μ t m t = β 2 m t − 1 + ( 1 − β 2 ) g t Lion:= \begin{cases} \mu_t=\text{sign}(\beta_1 m_{t-1}+(1-\beta_1)g_t) + \lambda_t \theta_{t-1}\\ \theta_t = \theta_{t-1} - \eta_t \mu_t\\ m_t = \beta_2 m_{t-1} + (1-\beta_2)g_t \end{cases} Lion= μt=sign(β1mt1+(1β1)gt)+λtθt1θt=θt1ηtμtmt=β2mt1+(1β2)gt

对比主流优化器 AdamW 的更新过程:
A d a m W : = { m t = β 1 m t − 1 + ( 1 − β 1 ) g t ν = β 2 ν t − 1 + ( 1 − β 2 ) g t 2 m ^ t = m t / ( 1 − β 1 t ) ν ^ t = ν t / ( 1 − β 2 t ) μ t = m ^ t / ( ν ^ t + ϵ ) + λ t θ t − 1 θ t = θ t − 1 − η t μ t AdamW:= \begin{cases} m_t =\beta_1 m_{t-1} + (1-\beta_1)g_t \\ \nu = \beta_2 \nu_{t-1} + (1-\beta_2)g_t^2 \\ \hat{m}_t= m_t / (1-\beta_1^t)\\ \hat{\nu}_t= \nu_t / (1-\beta_2^t)\\ \mu_t=\hat{m}_t / (\sqrt{\hat{\nu}_t}+\epsilon) +\lambda_t\theta_{t-1} \\ \theta_t = \theta_{t-1} - \eta_t \mu_t \end{cases} AdamW= mt=β1mt1+(1β1)gtν=β2νt1+(1β2)gt2m^t=mt/(1β1t)ν^t=νt/(1β2t)μt=m^t/(ν^t +ϵ)+λtθt1θt=θt1ηtμt

两者对比,可以发现 Lion 比 AdamW 参数更少:

  • Lion 少了一个 ϵ \epsilon ϵ,少缓存一组参数 ν \nu ν,所以更省显存;
  • Lion 去掉了 AdamW 更新过程中计算量最大的除法和开根号运算,所以速度更快;

另外,值得注意的是 Lion 更新规则有所不同,Lion 使用符号函数sign处理更新量,尤其是动量的更新放在了变量的更新之后,并且在充分的实验中显示出了它在效果上的优势。

在这里插入图片描述

与 AdamW 和各种自适应优化器(这些优化器需要同时保存一阶和二阶矩)相比,Lion 只需要动量并利用符号操作来计算更新,并且将额外的内存占用减半。这在训练大模型或大批量时很有用。例如,AdamW 需要至少 16 个 TPU V4 来训练图像大小为 224、批大小为 4096 的 ViT-B/16,而 Lion 只需要 8 个。另一个实际好处是,由于 Lion 的简单性,Lion 在实验中具有更快的运行时间(steps /sec),通常比 AdamW 和 Adafactor 提速 2-15%,具体取决于任务、代码库和硬件。

论文实验

论文将 Lion 与广泛使用的优化器(如Adam和Adafactor)进行比较,以训练不同任务的各种模型。

1.图像分类

在图像分类方面,Lion 将 ImageNet上 的ViT精度提高了2%,并将JFT上的预训练计算节省了5倍。

研究者在 ImageNet 上从头开始训练,在更大的数据集 ImageNet-21K 和 JFT 上进行预训练。图片大小默认为 224。如下表 2 所示,Lion 在各种架构上显著优于 AdamW,即使训练集扩大 10 倍,Lion 仍然优于 AdamW。下图4显示了 JFT-300M 上不同预训练预算下三种 ViT 模型(ViT-B/16、ViT-L/16 和 ViT-H/14)的准确率。Lion 使 ViT-L/16 能够与 AdamW 在 ImageNet 和 ImageNet V2 上训练的 ViT-H/14 性能相匹配,但预训练成本降低了 3 倍。

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

2.视觉语言对比学习

在视觉语言对比学习方面,Lion 在ImageNet上实现了88.3%的零样本和91.1%的微调精度,分别超过了SOTA 2%和0.1%。

在 CLIP 风格的视觉语言对比训练上,研究者没有从头开始学习所有参数,而是使用强大的预训练模型初始化图像编码器。

对于锁定图像文本调整 (LiT) ,研究者通过使用相同的 frozen 预训练 ViT 以对比方式训练文本编码器,进而在 LiT 上对 Lion 和 AdamW 进行比较。下表 4 显示了 3 种模型尺度上的零样本图像分类结果,Lion 展示出了对 AdamW 的持续改进。下图 5(左)展示了 LiT-B/16-B 的示例零样本学习曲线,并在其他两个数据集上得到了类似的结果。

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

3.扩散模型

在扩散模型上,Lion 通过获得更好的FID分数和将训练计算减少2.3倍而优于Adam。

因为扩散模型在图像生成上的成功出圈(如DALL-E 2),研究者测试了 Lion 在无条件图像合成(Image synthesis on ImageNet)和多模式文本到图像生成(Text-to-image generation)方面的表现。

研究者在 ImageNet 上执行 64x64、128x128、256x256图像生成。如上图 5(中和右)所示,Lion 可以在 FID 分数上实现更好的质量和更快的收敛速度。

在文本到图像生成上,下图 6 展示了学习曲线。虽然 64 × 64 base 模型没有明显改进,但 Lion 在文本条件超分辨率模型上优于 AdamW。与 AdamW 相比,Lion 获得了更高的 CLIP 分数并且具有更小的噪声 FID 指标。
在这里插入图片描述

4.语言建模和微调

对于自回归、掩码语言建模和微调,Lion 表现出与 Adam 相似或更好的性能。

研究者重点关注 Lion 在语言建模和微调的性能表现,特别地,在纯语言任务上,研究者发现调整 β_1 和 β_2 可以提高 AdamW 和 Lion 的质量。

对于自回归语言建模(Autoregressive language modeling),下图7展示了 Wiki-40B 的 token 级困惑度(Perplexity)和 PG-19 的 word 级困惑度。Lion 始终实现比 AdamW 更低的验证困惑度。在 Wiki-40B 和 PG-19 上训练中型模型时,它分别实现了 1.6 倍和 1.5 倍的加速。当模型增加到大尺寸时,PG-19 进一步实现了 2 倍加速。

在这里插入图片描述

对于掩蔽语言建模(Masked language modeling),研究者还在 C4 数据集上执行 BERT 训练,其中 Lion 在验证困惑度方面的表现略好于 AdamW,如下图 11(左)所示。右图是 ImageNet 上的训练曲线, Lion 尽管验证集效果更好,但训练集上的效果未必会优于AdamW。

在这里插入图片描述

对于微调(Fine-tuning),研究者在 GLUE 基准上微调 Base(220M)、Large(770M)和最大的 11B T5 模型。下表 6 显示了 GLUE 开发集上的结果,平均而言,Lion 在所有 3 个模型规模上都击败了 AdamW。

在这里插入图片描述

5.与其他流行优化器的比较

论文中还将 Lion 与四种流行的优化器 RAdam、NAdam、AdaBelief 和 AMSGrad 进行比较,分别在 ImageNet 上训练 ViT-S/16 和 ViT-B/16(使用 RandAug 和 Mixup)。如下表 7 所示,Lion 仍然是表现最好的。

在这里插入图片描述

超参数设置

通过对 Lion 的分析表明,它的性能增益随着训练批量的增加而增加。它还需要比Adam更小的学习率,因为符号函数产生的更新范数更大。

论文就 Lion 优化器推导出来一些“炼丹策略”:一些超参数的组合设置,比如关键的学习率 η \eta η和权重衰减率 λ \lambda λ,参数 β 1 \beta_1 β1 β 2 \beta_2 β2。具体的细节可以看原论文。

优化器的另一个潜在限制——批量大小(batch size)。通过实验,论文指出 Lion 在小batch_size(小于64)的时候效果不如AdamW。如图8(左)所示,AdamW的最佳批量大小为256,而Lion的最佳批量为4096。这表明 Lion 适合更大的batch_size,但即使在batch_size=64的情况下,其性能仍保持稳定。此外,当批量大小扩大到32K(导致仅包含11K个训练步骤)时,Lion 比 AdamW 获得了显著的2.5%的准确率增益(77.9%对75.4%),这证明 Lion 在大批量训练环境中的有效性。

在这里插入图片描述

Lion 只保存动量,比 AdamW 等流行的自适应优化器占用的内存更小,这在训练大模型和 / 或使用大批量时非常有用。

小结

Google 新提出的一个简单有效的优化算法 Lion,利用高效的搜索技术来探索无限且稀疏的程序空间。相比主流的 AdamW,Lion 有着速度更快且更省内存的特点;Lion 还能够取得更好的泛化性能。该研究采用了一系列技术,包括具有热启动和重启的进化搜索、抽象执行、funnel 选择和程序简化策略。

参考:
https://arxiv.org/abs/2302.06675
https://github.com/google/automl/tree/master/lion
https://www.163.com/dy/article/HTUKVDAG0542QSJ0.html
https://spaces.ac.cn/archives/9473
https://www.jianshu.com/p/a2ce9a117f0a

欢迎各位关注我的个人公众号:HsuDan,我将分享更多自己的学习心得、避坑总结、面试经验、AI最新技术资讯。

Lion优化算法符号发现
m0_47867638的博客
04-23 86
本文提出一种将算法发现表述为程序搜索的方法,并将其应用于发现用于深度神经网络训练的优化算法。利用高效的搜索技术来探索无限和稀疏的程序空间。为弥合代理任务和目标任务之间的巨大泛化差距,还引入了程序选择和简化策略。该方法发现了一种简单有效的优化算法Lion (evolutionary Sign Momentum)。它比Adam更节省内存,因为它只记录动量。与自适应优化器不同,通过符号操作计算的每个参数的更具有相同的幅度。
YOLOv8 引入谷歌 Lion 优化器:提速、优化、卓越!
一直在水些技术小文
11-09 781
Lion 优化器谷歌公司最近提出的一种优化算法,它旨在提高深度学习模型的训练效率和性能。Lion 优化器基于均方误差和一种型的梯度方向方法,能够更好地处理复杂的损失函数和训练数据,从而提高模型的泛化能力。
涨点神器!超越Adam!谷歌提出Lion炼丹优化器,内存更小、效率更高!
阿木寺的博客
02-21 4102
点击下方卡片,关注“CVer”公众号AI/CV重磅干货,第一时间送达点击进入—>【计算机视觉】微信技术交流群转载自:机器之心 |编辑:杜伟、陈萍谷歌的 Lion 优化器将成为训练大模型或大批量的「福音」。优化器优化算法,在神经网络训练中起着关键作用。近年来,研究者引入了大量的手工优化器,其中大部分是自适应优化器。Adam 以及 Adafactor 优化器仍然占据训练神经网络的主流,尤其在...
Lion : 超越 AdamW 的优化算法
ZILLIZ
03-23 943
优化算法,即优化器,在训练神经网络中起着基础作用。近年来引入了大量手工优化器,其中大部分是自适应优化器。然而,具有解耦权重衰减的 Adam,也称为 AdamW,和具有因数二次矩的 Adafactor,仍然是训练大多数深度神经网络的事实上的标准优化器,尤其是最近最先进的语言、视觉和多模态模型。另一个方向是自动发现这样的优化算法。学习优化 (L2O) 方法建议通过训练参数化模型(例如神经网络)来发现优化器以输出更
RTDETR更换优化器——Lion
最新发布
锁我喉是吧
06-27 537
参数分布均衡:Lion优化器通过分析模型参数的梯度分布情况,对梯度进行动态调整,以实现参数分布的均衡。这有助于避免某些参数过于稀疏或过于密集的问题,提高模型的泛化能力。自适应学习率:Lion优化器能够自动调整学习率,根据每个参数的梯度情况来自适应地更学习率。动量加速:Lion优化器引入了动量概念,通过积累历史梯度的一部分来加速梯度更。是一种基于梯度的优化算法,旨在提高梯度下降法在深度学习中的优化效果。将上述代码复制粘贴在ultralytics/engine下创建lion_pytorch.py文件。
机器学习笔记:优化器Lion(EvoLved Sign Momentum)
qq_40206371的博客
02-20 1947
2023 Google&UCLA 参考内容:Google搜出的优化器Lion:效率与效果兼得的“训练狮”
Symbolic Discovery of Optimization Algorithms翻译
nopSled
02-25 283
优化算法,即优化器,在训练神经网络中起着基本作用。近年来有大量人工设计的优化器被提出,主要是自适应的优化器。但是,具有解藕权重衰减的Adam(即AdamW),以及使用分解的第二动量的Adafactor仍然是训练大多数深度神经网络的标准优化器,尤其是最近的SOTA语言,视觉和多模态模型。另一个方向是自动发现这种优化算法。learning to optimize(L2O)方法提出通过训练参数化模型(例如神经网络)来作为优化器,该模型能输出更的参数梯度。
深度学习】Google Brain提出的优化器“Lion”,效果要比Adam(W)更好
fengdu78的博客
02-26 1698
Google Brain提出的优化器“Lion”,效果要比Adam(W)更好论文地址:https://arxiv.org/abs/2302.06675代码地址:https://github.com/google/automl/blob/master/lion/lion_pytorch.py1简单、内存高效、运行速度更快与 AdamW 和各种自适应优化器需要同时保存一阶和二阶矩相比,Lion 只...
蚁狮优化器 Ant Lion Optimizer
01-02
蚁狮优化器(Ant Lion Optimizer, ALO)是一种受自然界蚁狮捕食行为启发的优化算法,广泛应用于解决复杂工程问题中的全局优化任务。该算法源于对蚁狮在沙土中构建漏斗状陷阱以捕获猎物过程的模拟,它通过迭代过程逐步...
灰狼优化算法和粒子群优化算法比较
09-12
压缩包中的文件可能是关于这些算法的进一步资料,如DA.pdf、SCA.pdf等可能包含不同的优化算法介绍,ALO.pdf可能涉及另一个名为“Artificial Lion Optimization”的算法,而WOA.pdf、MOALO.pdf、MOGWO.pdf等可能是...
main.rar_lion optimization_蚁狮优化_蚁狮优化算法_蚁狮算法_蚁狮算法、
07-15
蚁狮优化算法源码 matlab仿真 算法发明人写的程序
蚁狮算法(Ant Lion Algorithm)Python实现和matlab实现
12-22
蚁狮算法(Ant Lion Algorithm)原创者论文 及相应的Python实现和matlab实现
Python_谷歌大脑使用遗传算法发现的Lion优化器,据称比Pytorch中的Adamw更好.zip
05-24
标题中的“Python_谷歌大脑使用遗传算法发现的Lion优化器,据称比Pytorch中的Adamw更好”提到了两个关键概念:遗传算法和Lion优化器。这里,我们来详细探讨这两个主题以及它们与PyTorch中的AdamW优化器的关系。 *...
基于matlab实现蚁狮优化算法
04-14
蚁狮优化算法(Ant Lion Optimizer,ALO)是一种生物启发式优化算法,源自自然界中蚁狮建造陷阱捕食蚂蚁的现象。在MATLAB环境中实现这种算法,可以解决各种工程问题和数学优化问题。MATLAB是一种强大的数值计算软件...
Symbolic Discovery of Optimization Algorithms 中所提出优化器Lion的代码
m0_47452894的博客
02-23 515
Lion谷歌最近提出的一个优化器,声称对大批量或大模型的训练效果挺好的,官方提供有各个版本的代码(包括pytorch版本的)。
Google搜出的优化器Lion:效率与效果兼得的“训练狮”
Paper weekly
02-17 1003
©PaperWeekly 原创 ·作者 | 苏剑林单位 | 追一科技研究方向 | NLP、神经网络昨天在 Arixv 上发现了 Google 发的一篇论文《Symbolic Discovery of Optimization Algorithms》,主要是讲自动搜索优化器的,乍看上去没啥意思,因为类似的工作也有不少,大多数结果都索然无味。然而,细读之下才发现别有洞天,原来作者们通过数千 TP...
技术横空出世:探秘Yolov8/Yolov5引入的优化器Lion,内存更小、效率更高,秒杀Adam(W)
一直在水些技术小文
11-10 521
Lion谷歌公司最推出的一款优化器,它在梯度下降算法的基础上进行了巧妙的改进,旨在解决传统优化器在内存占用和计算效率方面的痛点。相比于传统优化器,Lion注重在大规模深度学习任务中的性能表现。Yolov8和Yolov5是目标检测领域最为知名的算法之一,以其高效的目标检测能力而受到广泛关注。近期,为了进一步提升模型性能,Yolov8和Yolov5纷纷引入Lion优化器,以期在内存占用和计算效率方面实现质的飞跃。
Google Brain提出的优化器“Lion”,效果要比Adam(W)更好
zenRRan的博客
03-06 700
来自:ChallengeHub进NLP群—>加入NLP交流群Google Brain提出的优化器“Lion”,效果要比Adam(W)更好论文地址:https://arxiv.org/abs/2302.06675代码地址:https://github.com/google/automl/blob/master/lion/lion_pytorch.py1简单、内存高效、运行速度更快与 Ada...
写文章

热门文章

  • ChatGPT的平替来了?一文总结 ChatGPT 的开源平替,你值得拥有 21879
  • Apple MacBook M1 Anaconda安装 Tensorflow 18019
  • 2021「AI中国」评选 14440
  • MacOS系统下matplotlib中SimHei中文字体缺失报错的解决办法 14009
  • 各种优化器SGD,AdaGrad,Adam,LBFGS都做了什么? 11321

分类专栏

  • 聊天机器人 6篇
  • AI 50篇
  • 开源大模型 21篇
  • 大模型 21篇
  • 学术论文 6篇
  • 生成式AI 10篇
  • Machine Learning 17篇
  • ChatGPT 4篇
  • 诺贝尔 1篇
  • AI绘画 1篇
  • 深度学习 36篇
  • NLP 31篇
  • 软件工具 19篇
  • Python 18篇
  • 算法和数据结构 4篇
  • 数据挖掘 7篇
  • 数据可视化 4篇
  • CV

最新评论

  • CVPR 2024 获奖名单揭晓:北大上交获「最佳论文提名」,上海科技大学夺得「最佳学生论文」

    Goddard Wen: 官网还没有更新获奖论文

  • NLP文本生成的评价指标有什么?

    A56437994: 这不是seq2seq的指标吗,decoder-only能用这类指标吗

  • CVPR 2024 获奖名单揭晓:北大上交获「最佳论文提名」,上海科技大学夺得「最佳学生论文」

    征途黯然.: 表情包对CVPR2024获奖名单揭晓北大上交获最佳论文提名上海科技大学夺得最佳学生论文的解释非常清晰,有了更深入的了解。

  • ChatTTS:对话式文本转语音模型,开源啦!突破开源语音天花板...

    快乐小码农: 谢谢,一起共同进步!

  • ChatTTS:对话式文本转语音模型,开源啦!突破开源语音天花板...

    普通网友: 写的很好,细节很到位!【我也写了一些相关领域的文章,希望能够得到博主的指导,共同进步!】

最新文章

  • 谷歌上新!最强开源模型Gemma 2,27B媲美LLaMA3 70B,挑战3140亿Grok-1
  • 最新综述:多模态引导的基于文生图大模型的图像编辑算法
  • 国产开源多模态大模型来了!浦语灵笔 InternLM-XComposer-2.5,超过GPT-4V
2024年26篇
2023年24篇
2022年19篇
2021年24篇
2020年10篇
2019年2篇

目录

目录

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

PHP网站源码罗湖seo优化布吉网站开发大芬百度seo爱联企业网站改版观澜企业网站制作南山优秀网站设计荷坳阿里店铺托管大运网站建设惠州百搜词包广州外贸网站制作福田优秀网站设计松岗企业网站制作民治阿里店铺托管福永外贸网站建设南联网络推广荷坳SEO按天收费石岩网络营销大浪网站优化推广西乡百度标王福永SEO按天收费布吉百度网站优化排名大芬网站优化按天扣费同乐网站搭建塘坑推广网站南联英文网站建设大浪网站搭建南山外贸网站制作福永网站推广工具坪地至尊标王大浪网页设计歼20紧急升空逼退外机英媒称团队夜以继日筹划王妃复出草木蔓发 春山在望成都发生巨响 当地回应60岁老人炒菠菜未焯水致肾病恶化男子涉嫌走私被判11年却一天牢没坐劳斯莱斯右转逼停直行车网传落水者说“没让你救”系谣言广东通报13岁男孩性侵女童不予立案贵州小伙回应在美国卖三蹦子火了淀粉肠小王子日销售额涨超10倍有个姐真把千机伞做出来了近3万元金手镯仅含足金十克呼北高速交通事故已致14人死亡杨洋拄拐现身医院国产伟哥去年销售近13亿男子给前妻转账 现任妻子起诉要回新基金只募集到26元还是员工自购男孩疑遭霸凌 家长讨说法被踢出群充个话费竟沦为间接洗钱工具新的一天从800个哈欠开始单亲妈妈陷入热恋 14岁儿子报警#春分立蛋大挑战#中国投资客涌入日本东京买房两大学生合买彩票中奖一人不认账新加坡主帅:唯一目标击败中国队月嫂回应掌掴婴儿是在赶虫子19岁小伙救下5人后溺亡 多方发声清明节放假3天调休1天张家界的山上“长”满了韩国人?开封王婆为何火了主播靠辱骂母亲走红被批捕封号代拍被何赛飞拿着魔杖追着打阿根廷将发行1万与2万面值的纸币库克现身上海为江西彩礼“减负”的“试婚人”因自嘲式简历走红的教授更新简介殡仪馆花卉高于市场价3倍还重复用网友称在豆瓣酱里吃出老鼠头315晚会后胖东来又人满为患了网友建议重庆地铁不准乘客携带菜筐特朗普谈“凯特王妃P图照”罗斯否认插足凯特王妃婚姻青海通报栏杆断裂小学生跌落住进ICU恒大被罚41.75亿到底怎么缴湖南一县政协主席疑涉刑案被控制茶百道就改标签日期致歉王树国3次鞠躬告别西交大师生张立群任西安交通大学校长杨倩无缘巴黎奥运

PHP网站源码 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化