自适应线性神经网络(Adaline)

95 篇文章 17 订阅
订阅专栏

参考  自适应线性神经网络(Adaline) - 云+社区 - 腾讯云

目录

对比Rosenblatt

梯度下降最小化代价函数

学习率的影响和选择


对比Rosenblatt

憋说话,先上图 -.-

Rosenblatt的计算模型

 

Rosenblatt

Adaline的计算模型

 

Adaline

找不同:激活函数用阶跃函数换成了连续型函数,用一个Quantizer函数进行类别预测

激活函数:用线性函数代替阶跃函数进行误差计算和权值更新
量化函数:类似Rosenblatt模型的激活函数,能预测对应输入的类别

梯度下降最小化代价函数

  • Adaline模型相比Rosenblatt模型,定义了代价函数(cost function),最小化代价函数是许多机器学习算法的主要思想。
  • Adaline模型中,代价函数用的是均方误差(Sum of Squared Errors :SSE)

Paste_Image.png

好处:可以微分,是凸函数
可以用梯度下降的方法找到均方误差最小的权值

寻找最小均方误差就像下山一样,每次算法循环都相当于下降一步,下降一步的歩幅取决于学习率,与图中的权值点的切线斜率相关

梯度下降示意图

每次权值逼近均方误差最小点的过程就是梯度下降(Gradient Descent)

Paste_Image.png

证明一下偏导函数计算方法

证明偏导函数计算方法

最终的权值更新公式如下

权值更新公式

Adaline算法是基于全部的训练数据,而感知器算法是每个样本都要计算一次误差,Adaline的处理方法有点像批处理的感觉。

Adaline的更新
self.w_[1:] += self.eta * X.T.dot(errors)
Perceptron的更新
update = self.eta * (target - self.predict(xi))

学习率的影响和选择

学习率设置为0.01的时候,结果如左图,均方误差最小的点是第一个点,然后越来越大。当学习率设置为0.0001的时候,结果如右图,误差在逐渐减小,但是没有收敛的趋势。

对比学习率对于误差的影响

学习率设置,偏大偏小都会大幅降低算法效率。采取的方法是进行数据标准化(standardization)公式如下

标准化公式

经过标准化的数据,会体现出一些数学分布的特点。标准化后,我们再次使用0.01的学习率进行训练分类。

标准化后的误差收敛

最后的分类平面如下图

Adaline分类结果

# encoding:utf-8
__author__ = 'Matter'

import numpy as np

class AdalineGD(object):
    # 自适应线性神经网络:ADAptive LInear NEuron (Adaline)

    # --------  参数  --------#
    # 参数1   eta:float   学习率
    # 参数2   n_iter:int  循环次数
    # --------  属性  --------#
    # 属性1   w_:1d_array     拟合后权值
    # 属性2   errors_:list    每次迭代的错误分类

    # 初始化
    def __init__(self,eta=0.01,n_iter=10):
        self.eta = eta
        self.n_iter = n_iter

    # 训练模型
    def fit(self,X,y):
        self.w_ = np.zeros(1+X.shape[1])
        self.errors_ = []
        self.cost_ = []

        for i in range(self.n_iter):
            output = self.net_input(X)
            errors = (y-output)
            self.w_[1:] += self.eta * X.T.dot(errors)
            self.w_[0] += self.eta * errors.sum()
            cost = (errors ** 2).sum()/2.0
            self.cost_.append(cost)
        return self


    # 输入和权值的点积,即公式的z函数,图中的net_input
    def net_input(self,X):
        return np.dot(X,self.w_[1:]) + self.w_[0]

    # 线性激活函数
    def activation(self,X):
        return self.net_input(X)

    # 利用阶跃函数返回分类标签
    def predict(self,X):
        return np.where(self.activation(X)>=0.0,1,-1)

神经网络自适应线性单元——Adaline
Ono_bing的博客
07-05 1147
自适应线性单元–Adaptive Linear Units–Adaline 模型结构 在M-P模型的基础上 s(k)=∑i=1nwixi(k)−θ=∑i=0nwixi(k)=WTX(k)\begin{aligned}s(k)&=\sum_{i=1}^nw_ix_i(k)-\theta\\&=\sum_{i=0}^nw_ix_i(k)\\&=W^TX(k)\end{aligned}s(k)​=i=1∑n​wi​xi​(k)−θ=i=0∑n​wi​xi​(k)=WTX(k)​ y(k)
系统学习机器学习神经网络(八) --ADALINE网络
工作笔记
01-09 1万+
转自:http://www.jianshu.com/p/3c271d59b14c 自适应线性神经网络:ADAptive LInear NEuron (Adaline) 大纲 1. look --- 比Rosenblatt感知器算法的优势 2. write --- 吐槽实验结果 3. code --- python 对比Rosenblatt 憋说话,先上图 -.- Rosen
Adaline神经网络简单介绍和MATLAB简单实现
记录学习的过程
05-07 8064
Adaline神经网络Adaline利用了最小二乘法的思想,相较于感知机神经网络,对于数据的线性可分的要求更低一些,可以允许一些异常数据。 上面描述了迭代求解的过程,但是在x0(k+1)x_0(k+1)这里没看懂,如果是更新θ\theta应该是w0(k+1)w_0(k+1)才对。应该是PPT有错。 我们来说明下迭代求解需要注意的地方。 首先,将θ\theta并入到ww中去,因为θ\th
神经网络变得轻松(第七部分):自适应优化方法
herzqt的博客
06-26 409
这就是为什么我们不会重新计算每个神经元的因子,而是在主程序代码中对其进行一次性计算,并将其传递给内核,以便依据该值调整后续的学习系数的原因。但与 RMSProp 不同,此方法彻底拒绝更新公式中的学习率,并在所分析参数中用之前修改的平方和的指数均值来替代。为了避免学习率跌落到 0,在更新权重的公式分母中,已用梯度平方的指数均值替换过去的梯度平方和。它是随机梯度下降法的一种变体。经由比较这些方法的数学公式,我们轻易注意到一个不同之处:对于所有之前的训练迭代,AdaGrad 的学习率除以梯度平方和的平方根。
自适应优化算法在深度神经网络训练中的应用
最新发布
xiehewe的博客
02-25 386
为解决这些问题,研究人员提出了各种自适应优化算法,如Adam、Ada grad、RMS prop等,这些算法能够根据参数的历史梯度信息来自适应地调整学习率,从而提高深度神经网络的训练效果。相比于传统的固定学习率算法,自适应优化算法可以根据参数的历史梯度信息来自适应地调整学习率,从而更好地适应不同参数的特性和训练过程的变化。自适应优化算法相比传统的固定学习率算法具有以下优势:一是能够根据参数的特性动态调整学习率,提高模型训练的收敛速度和性能;二是能够应对不同参数的梯度变化,提高模型的鲁棒性和泛化能力。
自适应网络与自适应滤波
深未来技术
09-04 297
 自适应网络小结                           
自适应线性神经网络Adaline的python实现详解
09-18
主要介绍了自适应线性神经网络Adaline的python实现详解,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
神经网络自适应线性神经元Adaline的LMS算法(PDF).pdf
07-09
"神经网络自适应线性神经元Adaline的LMS算法" 本文将对神经网络自适应线性神经元Adaline的LMS算法进行详细的介绍和分析。 1. 算法基本原理 Adaline是一种自适应线性神经元,采用硬限幅函数的单个神经元模型无法...
自适应线性神经网络LMM算法的谐波辨识技术研究.pdf
09-25
自适应线性神经网络LMM算法的谐波辨识技术研究主要关注于电力设备中的谐波问题,提出了一种基于自适应线性神经网络Adaline)的谐波辨识技术。该技术通过对电力设备的信号进行拟合分析,来识别和评估电力设备中的...
一种基于自适应线性神经网络算法的永磁同步电机电流谐波提取和抑制方法.pdf
09-25
在该方法中,自适应线性神经网络ADALINE)算法发挥着核心作用。ADALINE算法是一种基于最小均方误差的自适应算法,能够在线性和非线性系统中实时地估计和跟踪系统参数。该算法在永磁同步电机电流谐波提取和抑制中,...
自适应预测神经网络matlab程序
12-19
自适应神经网络做预测.................................................
一种改进的结构自适应自组织神经网络算法
05-08
一种改进自适应神经网络算法,资源共享,希望大家互相利用资料,好好学习,我是要传别人的
神经网络算法基本原理及其实现
热门推荐
qq_55041016的博客
01-15 2万+
目录 背景知识 人工神经元模型 激活函数 网络结构 工作状态 学习方式 BP算法原理 算法实现(MATLAB) 背景知识 在我们人体内的神经元的基本结构,相信大家并不陌生,看完下面这张图,相信大家都能懂 什么是人工神经网络? 人工神经网络是具有适应性的简单神经元组成的广泛并互连的网络,它的组织能够模拟生物神经系统对真实世界物体作出的交互式反应。人工神经网络具有自学习、自组织、较好的容错性和优良的非线性逼近能力。 人工神经网络能干什么? 1、拟合数据——>预测 2.
机器学习算法--用Python实现转换的Adaline用于逻辑回归算法
糯米君的博客
11-23 281
机器学习算法(3)用Python实现转换的Adaline用于逻辑回归算法 当拟合逻辑回归模型时,必须记住该模型只适用于二元分类。所以,只考虑Iris-setosa和Iris-versicolor两种花(类0和类1),并验证逻辑回归的有效性: import numpy as np from matplotlib.colors import ListedColormap import matplotlib.pyplot as plt from sklearn import datasets from sklea
十三、机器学习进阶知识:神经网络之反向传播算法(自适应梯度算法Adagrad)
weixin_42051846的博客
03-06 918
本文主要介绍了反向传播算法中的自适应梯度算法(Adagrad),同时以神经网络数据预测为例对它的实现过程进行了说明,通俗易懂,适合新手学习,附源码及实验数据集。
【Python-ML】自适应线性神经网络(Adaline)
医疗影像检索
12-21 5529
# -*- coding: utf-8 -*- ''' Created on 2017年12月21日 @author: Jason.F @summary: 自适应线性神经网络学习算法 ''' import numpy as np import time import matplotlib.pyplot as plt import pandas as pd class AdalineGD(obj
机器学习神经网络(三):自适应线性神经元的介绍和Python代码实现
huakai16的博客
08-30 6156
本篇博文主要介绍自适应线性神经元的相关知识,采用理论+代码实践的方式,进行相关的学习。本文首先介绍线性神经元的模型,然后介绍LMS学习规则(最小均方规则),最后通过Python代码实现线性神经元模型,从而给读者一个更加直观的认识。
神经网络(二)—— 神经元、Logistic回归模型
HikariXuXu的博客
08-06 871
本期对神经元和二分类Logistic回归模型进行介绍。
使用Adaline神经网络识别印刷体数字
huoji555的博客
04-25 812
1.创建Adaline神经网络 /** * @author Ragty * @param 设置Adaline神经网络 * @serialData 2018.4.24 * @param inputNeuralCount * @param outputNeuralNetwork */ public void creatNetwork(int inputNeuralCount...
adaline自适应
09-16
Adaline是一种自适应神经网络模型,它是由美国心理学家Bernard Widrow和Ted Hoff于1960年提出的。Adaline的全称为Adaptive Linear Neuron,它是感知机模型的改进版。 Adaline的特点是它能够自适应地调整自身的权重,以更好地适应输入数据。它使用连续值而非二进制输出,并且通过对权重的非线性函数进行连续调整,实现对数据的更好拟合。这使得Adaline能够更好地处理非线性问题,并且有较好的收敛性能。 Adaline的原理是基于最小均方误差(Mean Square Error,MSE)准则进行训练。具体来说,Adaline通过优化权重,使得模型的输出与真实值之间的均方误差最小化。它使用梯度下降算法来寻找误差函数的最小值,通过对权重进行更新来不断优化模型。关键的更新规则是根据损失函数对权重的导数来进行的。 Adaline的应用非常广泛,特别在处理连续值输出的问题上有较好的表现。它可以应用于模式识别、信号处理、预测分析等领域。在实际应用中,Adaline一般需要进行特征缩放和归一化处理,以便更好地适应不同尺度的输入数据。 总结来说,Adaline是一种自适应神经网络模型,它通过优化权重和最小化均方误差准则来实现对输入数据的拟合。它具有较好的收敛性能和适用性,广泛应用于模式识别、信号处理等领域。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
写文章

热门文章

  • latex 公式如何换行 86678
  • latex百分号符号怎么输入 76919
  • Matlab如何调整坐标轴刻度 71965
  • MATLAB中生成随机数方法总结 71247
  • LaTeX的斜体,粗体 63570

分类专栏

  • C/C++ 6篇
  • 异常处理 175篇
  • Pytorch 193篇
  • 数据集处理 57篇
  • 科学计算 127篇
  • 文件与协议处理 56篇
  • Shell 4篇
  • Slim 16篇
  • Keras 14篇
  • Detectron2 2篇
  • VR/AR 4篇
  • Python 235篇
  • TensorFlow 222篇
  • Opencv 40篇
  • 计算机视觉 219篇
  • 操作系统 65篇
  • 机器学习理论 95篇
  • 图像与视频处理 22篇
  • 写作与图表制作 49篇
  • 资源 2篇
  • 工程数学 39篇
  • C++/C 128篇
  • MATLAB 17篇
  • 算法理论与程序设计 117篇
  • IDE与开发环境配置 61篇
  • 科研杂谈 31篇

最新评论

  • Python的内置函数(二十六)、write()

    俺去码头整点薯条: 可能他用的是Python2的

  • 编译bibtex时报错“I couldn‘t open file name `xxxx.aux‘.”对应。已亲测可用。

    weixin_59821611: 家人们,还是不理解怎么解决,救救~!

  • IndexError: The shape of the mask [32, 8732] at index 0does not match the shape of the indexed tenso

    Rycbar77: 补充一下,205行的print('iter ' + repr(iteration) + ' || Loss: %.4f ||' % (loss.data[0]), end=' ')也要和上面一样改成item()

  • DSNet:Joint Semantic Learning for Object Detection in Inclement Weather Conditions

    凌花钱: 我也想要源码

  • DSNet:Joint Semantic Learning for Object Detection in Inclement Weather Conditions

    凌花钱: 源码有吗,方便的话麻烦请发一下 谢谢

您愿意向朋友推荐“博客详情页”吗?

  • 强烈不推荐
  • 不推荐
  • 一般般
  • 推荐
  • 强烈推荐
提交

最新文章

  • C++ for 循环
  • Color exploitation in HOG-based traffic sign detection
  • C++的STL(二)
2024年9篇
2023年157篇
2022年1777篇
2021年1篇

目录

目录

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Wanderer001

ROIAlign原理

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或 充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

PHP网站源码西乡高端网站设计多少钱晋中至尊标王价格衡阳网络营销公司马鞍山seo网站优化报价遂宁营销型网站建设临沧关键词排名包年推广价格珠海高端网站设计价格南平网站定制安庆网站改版公司永新网络推广大理SEO按天计费推荐百色外贸网站建设渭南关键词按天扣费公司重庆关键词按天扣费多少钱泉州网站建设设计价格巢湖百度网站优化排名价格鞍山百姓网标王公司霍邱外贸网站设计价格贺州设计网站推荐辽源企业网站建设价格株洲网站优化按天计费飞来峡网站设计价格大同网站推广系统哪家好贵阳阿里店铺运营推荐开封网站设计报价新余网站优化推广喀什seo网站推广公司上饶网站关键词优化价格沧州SEO按效果付费上饶百姓网标王推广推荐歼20紧急升空逼退外机英媒称团队夜以继日筹划王妃复出草木蔓发 春山在望成都发生巨响 当地回应60岁老人炒菠菜未焯水致肾病恶化男子涉嫌走私被判11年却一天牢没坐劳斯莱斯右转逼停直行车网传落水者说“没让你救”系谣言广东通报13岁男孩性侵女童不予立案贵州小伙回应在美国卖三蹦子火了淀粉肠小王子日销售额涨超10倍有个姐真把千机伞做出来了近3万元金手镯仅含足金十克呼北高速交通事故已致14人死亡杨洋拄拐现身医院国产伟哥去年销售近13亿男子给前妻转账 现任妻子起诉要回新基金只募集到26元还是员工自购男孩疑遭霸凌 家长讨说法被踢出群充个话费竟沦为间接洗钱工具新的一天从800个哈欠开始单亲妈妈陷入热恋 14岁儿子报警#春分立蛋大挑战#中国投资客涌入日本东京买房两大学生合买彩票中奖一人不认账新加坡主帅:唯一目标击败中国队月嫂回应掌掴婴儿是在赶虫子19岁小伙救下5人后溺亡 多方发声清明节放假3天调休1天张家界的山上“长”满了韩国人?开封王婆为何火了主播靠辱骂母亲走红被批捕封号代拍被何赛飞拿着魔杖追着打阿根廷将发行1万与2万面值的纸币库克现身上海为江西彩礼“减负”的“试婚人”因自嘲式简历走红的教授更新简介殡仪馆花卉高于市场价3倍还重复用网友称在豆瓣酱里吃出老鼠头315晚会后胖东来又人满为患了网友建议重庆地铁不准乘客携带菜筐特朗普谈“凯特王妃P图照”罗斯否认插足凯特王妃婚姻青海通报栏杆断裂小学生跌落住进ICU恒大被罚41.75亿到底怎么缴湖南一县政协主席疑涉刑案被控制茶百道就改标签日期致歉王树国3次鞠躬告别西交大师生张立群任西安交通大学校长杨倩无缘巴黎奥运

PHP网站源码 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化