预测方法范文10篇

时间:2023-03-20 06:42:53

预测方法

预测方法范文篇1

【关键词】实施网络;安全态势;预测

1网络安全态势安全预测简述

1.1网络安全态势预测概念

网络安全态势预测作为一种预测网络安全问题的方法能够有效地保证计算机和网络的安全,通过这项工作能够帮助用户确定网络中人存在的问题,结合问题实质进一步分析出根本原因,然后在这个过程中找出能够反映网络安全问题的信息内容,在结合数学模型的形式下预测相关的网络安全问题和发展态势,为计算机网络安全的发展提供可参考的信息,保证网络环境的安全发展。支持向量机预测主要是借助非线性映射函数[?]进而将非线性向量xi映射到一个具有较高维度的映射空间H中,并在H内对相关数据进行预测和分析,预测函数表示为f(x)=[ωT][?](x)+b,式中,为支持向量机超出平面的权值,偏置量为b,由此将支持向量的预测转化为如下优化问题的求解,即[min]([ω],b,[ξi],[ξ?i])=[12][ωT][ω]+c[i=1n(ξi+ξ?i)],将约束条件设定为:①yi-[ω]xi-b≤[ε]+[ξi],②[ω]xi+b-yi≤[ε]+[ξ?i],③[ξi]≥0,≥0。

1.2网络安全态势预测的基本原理

如果需要分析的目标过大或者结构比较繁琐的情况下,就要通过“态势”来分析目标对象。态势这个词最开始是形容军事状况的,一般在军事环境较为复杂或者受到多方面影响的时候会预测其后续的发展状况。但是在信息网络发展环境下,想要构建安全可靠的网络环境就要引入网络态势体系这一概念,由此进一步掌握目前网络安全的整体情况。整体说来就是在研究网络安全事件出现的概率、频率和数量等方面研究这些因素对网络的威胁程度,进一步结合加权原理融合不同的网络安全信息,展示整体的运行状况,总结出目前网络安全运行的历史数据同时预测其今后的安全发展态势。

2实时网络安全态势预测模型的构建

2.1基于支持向量机算法的网络安全态势预测模型

我们可以设定目前网络安全态势的训练样本是{(x1,y1)(x2,y2)...(xn,yn)},不同的两项代表的是网络态势的输出向量和输出值,值得注意的是xn是一个时间序列,n为所训练样本的个数。

2.2基于支持向量机算法的网络安全态势预测过程

第一要进行数据的收集和与处理,首先我们要掌握并收集能够展示网络安全态势预测的数据,重点研究出现异常的数据,我们要注意这些数据当中受到不同因素影响而产生的不同差异;第二要通过嵌入维和时间延迟的方法实现多维网络环境的安全态势数据的转化,要强化数据的分析和转化;第三要完成分组,也就是把网络安全态势的所有数据进行整理,分成训练和测试两部分,将前面的数据输入到支持向量机种展开学习,结合遗传算法选择参数优化,将所得到的最优参数带入到所研究模型中,实现网络安全态势模型的构建;最后一点就是要结合之前总结的最优模型,测试内部数据,根据所得结果预测数据展开分析并转化,使预测值有效分布在各个区间,实现其整体网络安全态势预测的顺利完成。

3实例分析

3.1选取网络安全态势数据

选择某公司互联网在在2016年10月1日-10月30日的边界安全监测数据,固定每日抽取四次样本,在一个月的时间内分析其网络安全态势检测数值。人为确定前90次的测试值作为支持向量机的训练样本,之后的测试值作为支持样本,同时要保证这个实验要在matlab7.0平台上进行。

3.2实现最优模型

将这个公司的网络安全态势数据传输的延迟时间设定为固定数值,在这里面我们暂且将它设成1,另外可以在态势数据中嵌入8这个数字作为维数,在这个时候,支持向量机拥有7个输入变量和1个输入变量。结合固定时间和嵌入数值分析网络安全状况形成最终样本,根据前面的步骤将训练和测试样本输入到向量机种展开分析,进一步优化计算,同时结合相对应的计算形式确定最终数值。

3.3利用模型进行网络安全态势的预测

根据上一条内容可以得出网络安全态势的最优参数,将这个参数带入到所预测的模型当中,就能够形成最优网络安全态势预测模型。这一模型能够有效地分析相关的安全态势数值,能够展现出安全态势的所有变化,从而分析出公司的安全检测数据状况,提高预测数据的准确度。

4结论

本文主要研究在网络安全态势预测的概念和原理的同时,提出了基于支持向量机的实时网络安全态势预测模型,同时从模型的构建、应用和优化预测等方面展开分析。由此可知,今后在这方面研究的力度要有所加强,只有这样才能有效地维护网络安全,构建良好的网络环境和秩序。

作者:张晓晓 庞婷 单位:新乡医学院现代教育技术中心

【参考文献】

[1]陈凤兰.基于小世界回声状态网络的网络安全态势预测技术研究[D].兰州:兰州大学,2014.

[2]石波,谢小权.基于D-S证据理论的网络安全态势预测方法研究[J].计算机工程与设计,2013,3(12):821-825.

[3]曾斌,钟萍.网络安全态势预测方法的仿真研究[J].计算机仿真,2012,5(25):170-173.

预测方法范文篇2

[关键词]锅炉故障故障预测

一、锅炉故障的可预测性

锅炉是由汽水、燃烧及烟风等子系统组成的复杂多层次系统,而每个子系统又可以划分为若干次级子系统和部件,各层次子系统是相互关联的,只要某一个子系统出现异常或失效,就可能会使其它子系统产生功能异常或失效,甚至使整个机组处于故障状态,并且从原发性故障到系统级故障的发生、发展是一个量变到质变的过程。故锅炉故障具有层次性、相关性、延时性的特点。

锅炉故障一般具有一定的时延性,即从原发性故障到系统故障的发生、发展与形成,是一个渐变过程。以其高温过热器壁温为例,其某一时刻的壁温值,与其在过去时刻的壁温值有一定的关系,使其壁温序列间有一定的关联性(确定性),这种关联性是锅炉故障预测的基础。另外,由于影响高温过热器壁温的因素很多,如负荷、烟气温度、主蒸汽温度等,它们之间相互关联,且在锅炉运行中还受一些不确定因素的影响,使其故障预测具有一定的随机性,这种随机性使壁温序列间的关联性减弱,这就决定了高温过热器壁温值小能准确地预测,而只能从统计意义上做出最佳预测,使预测误差满足一定的精度要求。故障预测是故障诊断的一部分,故障诊断的最终目的就是为了指导运行和维修,因此,进行锅炉故障预测,对提高锅炉现代化运行水平和机组可用率具有重要意义。

二、锅炉故障预测相关知识

人工智能故障诊断与预测技术是随着现代化技术、经济高速发展而出现的一门新型技术,它能鉴别设备的状态是否正常,发现和确定故障的部位和性质并提出相应的对策,以提高设备运行的可靠性,延长其使用寿命,降低设备全寿命周期费用。且采用故障预测技术可以实现对故障的早期发现并预测其未来的发展趋势,便于对火电机组及时调整以避免恶性事故的发生,使机组能安全可靠的运行,同时提高机组的经济性。

根据预测期限长短的不同可将故障预测分为:长期预测,为了制定锅炉机组的长远维修计划和维修决策而进行的预测。时间一般为一个月以上。预测精度要求低;中期预测,对锅炉机组在未来比较长的时间内的状态进行预测,为机组的中期维修计划和维修决策服务。时间一般为一周左右。预测精度要求较低;短期预测,对锅炉机组的近期发展情况进行预测。时间为一大左右。对预测精度要求高。对于中、长期预测,由于精度要求不高,可考虑采取简单的预测模型,建立单变量时间序列模型进行预测。而对于短期预测,由于对精度要求较高,同时也由于各相关因素对当时的状态值影响较大,因此在进行短期预测时,除了要考虑时间序列本身外,还应适当将其他相关因素考虑进去,这就需要建立多变量时间序列模型进行预测,以满足短期预测对精度的要求。

三、常用的锅炉故障预测方法

近年来不少研究者采用线性回归分析法、时间序列分析法、灰色模型预测法、专家系统、人工神经网络等方法进行锅炉设备故障诊断研究,以探索快速有效的故障诊断与预测方法。常用的预测方法有:

(一)线性回归分析法

回归分析是寻找几个不完全确定的变量间的数学关系式之间进行统计推断的一种方法。在这种关系式中最简单的是线性回归分析。

(二)时间序列分析法

时间序列是指按时间顺序排列的一组数据:时间序列分析法是指采用参数模。型对所观测到的有序的随机数据进行分析与处理的一种数据处理方法。时间序列。分析法主要参数模型有以下四种:①曲线拟合②指数平滑③季节模型④线性随机模型。时间序列分析法主要适用于进行单因素预测,而对锅炉故障预测这种既有确定性趋势,又有一定的随机性的多因素预测时,需要进行确定性趋势的分离,计算比较复杂,同时还需对分离残差的零均值及平稳性进行假定,且其预测的精度不高。

(三)灰色模型预测法

灰色模型预测法是按灰色系统理论建立预测模型,它是根据系统的普遍发展。规律,建立一般性的灰色微分方程,然后通过对数据序列的拟合,求得微分方程的系数,从而获得灰色预测模型方程。

应用灰色系统理论作故障预测主要有两种方法,一是基于灰色系统动态方程GM(或DM)的灰色预测模型,二是基于残差信息数据列的残差辨识预测模型。其中,GM(1,1)预测模型即1阶1个变量的微分方程描述的灰色模型比较常用。灰色预测的解从数学的角度看,相当于幂级数的叠加,它包含了一般线性回归和幂级数回归的内容,故灰色预测模型优于一般的线性回归或指数曲线拟合,也好于确定性时间序列分析法。灰色预测模型不要很多的原始数据,短数据GM(1,1)模型有较高的预测精度,并具有计算简单速度快的优点。

(四)专家系统

专家系统能成功地解决某些专门领域的问题,也有很多优点,但经过多年的实践表明,它离专家的水平总是相差一段距离,有时在某些问题上还不如一个初学者。分析其原因,主要有以下几方面:知识获取的“瓶颈”问题;模拟专家思维过程的单一推理机制的局限性;系统缺乏自学习能力。

(五)人工神经网络预测法

神经网络的故障诊断存在很多问题,它不能很好的利用领域专家积累的经验知识,只利用一些明确的故障诊断实例,而且需要一定数量的样本学习,通过训练最后得到的是一些阑值矩阵和权值矩阵,而不是像专家经验知识那样的逻辑推理产生式,所以缺乏对诊断结果的解释能力。目前应用神经网络进行故障预测的网络训练收敛速度慢,因此无法应用于实时诊断,只能处理历史记录数据。

(六)专家系统和人工神经网络相结合

专家系统和人工神经网络的相结合的方法是目前研究的热点。由神经网络与专家系统构成的神经网络专家系统,它可以利用神经网络的大规模并行分布处理和知识获取自动化等特点,解决专家系统存在的知识获取的“瓶颈”、推理能力弱、容错能力差、处理大型问题较为困难等问题,实现并行联想和自适应推理,提高系统的智能水平,使系统具有实时处理能力和较高的稳定性。同传统的专家系统相比,基于神经网络的专家系统具有以下几种优点:具有统一的内部知识表示形式,任何知识规则都可通过对范例的学习存储于同一个神经网络的各连接权中,便于知识库的组织和管理,通用性强;知识容量大,可把大量知识存储于一个相对小得多的神经网络中;便于知识的自动获取,能够自适应环境的变化;推理过程为并行的数值计算过程,避免了推理速度慢效率低等问题;推理速度快;具有联想、记忆、类比等形象思维能力,可工作于所学习过的知识以外的范围;实现了知识表示、存储和推理三者融为一体,即都由一个神经网络来实现。

参考文献:

[1]蒋宗礼,《人工神经网络导论》高等教育出版社,2001。

预测方法范文篇3

关键词:冰蓄冷气象参数形状系数人工神经网络

1前言

对北京市冬夏季典型日电力负荷构成情况的调查表明:民用建筑用电是构成电力峰荷的主要因素[1]。目前,我国城市建筑夏季的空调用电量占其总用电量的40%以上。解决电力不足的途径有很多种,根据有关资料,在采用电能储存解决电力峰谷差的成熟技术中,冰蓄冷的转换效率最高[2]。在建筑物空调中应用冰蓄冷技术是改善电力供需矛盾最有效措施之一。

冰蓄冷空调系统的设计前提是设计日的负荷分布,系统主要设备的容量都是按设计日进行的。然而,100%的设计冷负荷出现时间仅占总运行时间的o%[3]。同时,由于分时电价或实时电价(RTP)的引入,建筑物中各种设备的运行控制更为复杂,运行决策必须以天、甚至小时为基础[4].1993年,ASHRAE研究项目RP776对美国蓄冷(水蓄冷、优态盐。冰蓄冷)系统的调查显承;冰蓄冷系统约占近对m个蓄冰系统总数的86.7%。从设计到运行、维护,控制及控制相关问题是蓄冷系统的首要问题。在蓄冷系统满意程度的调查中,冰蓄冷系统满意率最低,仅有50%的冰蓄冷用户认为达到了预期的设计目的人正确地运用优化和控制技术至关重要[5]

一些研究报告指出,某些蓄冷系统在降低电力峰值需求的同时,显著地增加了总的年电力消耗。因此,将最终导致发电量增加,自然资源浪费和环境污空失这些批评导致了对蓄冷系统及相关研究项目资助的减少[6].1994年,Brady根据实测数据证明,上述消极影响可以通过充分的利用蓄冰系统的优点来消除。蓄冰系统可以降低年能量消耗、峰值电力需求、年运行费用[7][8]和系统对环境的影响[6][9]。1993年,Fiorino对Dallas某(水)蓄冷进行了改造,使蓄冷系统不但减少了运行费用,而且节约了用电量[10][11]。冰蓄冷空调也是如此[12][13]。

随着《中华人民共和国节约能源法》的公布施行,冰蓄冷系统节能问题受到更加广泛的重视。冰蓄冷系统优化和控制的目的是在满足建筑物供冷要求的同时,使系统空调期运行费用最小。准确的预测是蓄体系统优化和控制的基础和前提,主要包括下列内容。

2室外逐时气象参数的预测

2.l室外逐时温度

许多研究结果表明:室外温度直接影响负荷大小、能量消耗和高峰期用电量。以往温度预测算法大多建立在室外温度按正弦曲线变化的假设上。Chen通过对蒙特利尔最近十年气象数据的分析,得出了室外温度波的三种模式:近正弦波模式、降温模式、升温模式。他发现该市1月和12月份每日温度最高温度孵出现在午夜12:00.将温度波简单地假设为正弦曲线不能反映室外温度实际变化的趋势[14]。全球“温室效应”和城市的“热岛”效应的影响,需要对室外温度变化做进一步的分析和研究。况且,我们所指的室外温度是针对某个实际建筑而言的,而气象预报是一个大区域内的整体平均,二者存在着差异,因此。需要一个有针对性的预测手段。

预测中通常采用的模型包括回归模型(线性回归、多元回归等)、时间序列模型(ARIMA、ARMA、AR、MA等)、Kalman滤波模型、模糊集模型、人工神经网络模型等。

1985年Rawlingr指出对蓄冰系统,为了防止冰在热天提前耗尽,一种预测热天的办法是观察当天早晨的气温(主观预测法)。例如,在新泽西地区,如果上午8:00的温度为29℃,统计数据表明当天很可能接近“设计日”[15]

用于客观天气预测的模型输出统计(Modeloutputstatistics)可以给出精确的未来天气撒尼“然而,这种方法需要大量的气象数据和超级计算机;而不适于在线控制。实时控测。气象参数和负荷预测的方法大多数基于最小M乘回归分析。1989年MacA-rthur[16]等利用以前测量的环境温度和当地气预报的最高、最低温度来预测未来温度曲线。1995年Kawashima等采用预报的最高,最低温度和ASHRAE建议的形状系数预测环境逐时温度[17].因为利用了更有效的信息,他们的方法优于仅采用过去测量气象数据的方法。Chen对天气预报的最高、最低温度作了更详尽的修正。由数据采集系统实测室外温度,并根据算法是未来几个小时的逐时温度;同时将室外温度变化分为上升阶段和下降阶段,分别计算各时刻的形状系数;二者共同用于室外温度的预测,取得了较好的效果。

2.2逐时太阳辐射的预测

1996年,Kawshima将天气分为晴、阴、多云、雨四种典型情况。首先根据实测数据拟合出用于预测次日太阳辐射总量的多项式,然后乘以逐时的系数来预测次日的太阳辐射[18].Chen将太阳辐射细分为10个级别,并给出了它们的相对于各时刻历史最大太阳辐射强度的中值,用于太阳辐射的预测,他发现对于晴朗小时或天晴间多云(sunnyhourorday)预测效果较好;而对于不确定的天气状况,如晴间多云(clearingandclouding)则有一定的偏差[14].在建筑物能耗预测结果的报告中[19],前六名分别为英国剑桥卡文迪许实验室的Mackay[20]、瑞典Lund大学理论物理系的Ohlsson[2]、普林斯顿大学中心研究实验室汽车研究和发展公司的Feuston[22],南非的Stevenson[23]、日本东京电气工程部的Iijima[24]、日本东京技术大学的Kawashima[25].他们分别在各自的文章中介绍了自己的模型和预测方法。其中,只有Iijima采用了非ANN的分段线性回归方法。虽然算法取得了较为满意的结果,但是作者指出线性算法的在解决实际非线性问题时,还是有限局性的。

温度和太阳辐射是影响建筑物冷负荷的主要因素,其他参数的预测,如相对湿度等,本文不再赘述。

3建筑物逐时冷负荷的预测

简单的负荷预测方法是将当天的负荷作为第二天冷负荷的预测值。1985年Tamblyn利用测量仪器,如流量计和温差传感器产生准确的冷吨一小时冷负荷曲线,然后建立冷负荷与环境温度和内部负荷之间的函数关系,用于负荷预测[26].1989年Meredith等在利用BASIC程序进行蓄冷系统模拟时,根据ASHRAE通用负荷曲线(ASHRAE1987),采用四阶多项式回归得到方程来预测模拟日的负荷[27]。

RuChti[28]采用了标准日、最热日负荷预测器进行负荷预测。这种方法实际上是将一定时期内(如一个月)某一特殊的负荷图样作为该时期每天的负荷图样。此方法简单、计算量小、比较适合于一般的工程应用,对运行管理水平要求不高,但远不能满足优化和控制的要求。

1989年Boonyatikam等指出采用数学模型预测空调冷负荷的缺陷,包括①详细模型需要内存的增加;②数学方程不容易适应外界条件或运行状况的改变;③计算机处理时间过长;④有精度要求时,对建筑物的输人描述过多等。为了避免这些问题,作者采用基于实际空间响应(负荷)而不是理论模型的预测函数。收集相关变量的历史数据用于分析。将每一个变量,如:室外干球温度、相对温度、人射太阳辐射、风速、风向、负荷等的数值记录到数据文件中,最后采用多元线性回归导出预测方程[29]。

1989年MacArthur等采用ARMAX时序模型进行负荷预测,预测误差在5%以内[16].

1989年Spethmann[7]和1994年Simmonds[3]采用第二天预报的最高、最低温度、历史形状因子曲线,并区分了工作日与周末。首先预测室外温度,然后通过温度曲线和历史形状因子进行负荷预测,并将算法集成于预测优化蓄冷控制器。实际运行时,测量温度和负荷用于对预测值的在线修正。

1990年Ferrano采用ANN预测次日总冷负荷,并与实时专家系统结合用于迈阿密一幢建筑冰蓄冷系统控制。根据每天24小时的温度波动情况,分三种温度模式:冷(COld)10℉、暖(warm)14℉下和普通(normal)2.5℉,对神经网络进行训练。神经网络训练完成后,预测值与理想值的偏差为4%[30]。

以上研究工作具有各自的特点,然而各预测模型间没有性能对比。1993年,在ASHRAE首届建筑物能量预测竞赛中,在对比多个参赛选手的预测结果后,Kreider指出为了达到更为精确的预测效果,传统方法将让位于新的预测方法,如ANN.1995年Ka-washima采用完全相同的数据集,对包括ANN模型在内的七种预测模型(ARIMA、LR、EWMA)进行比较论证,指出ANN模型预测最精确[17]。

预测方法范文篇4

[关键词]锅炉故障故障预测

一、锅炉故障的可预测性

锅炉是由汽水、燃烧及烟风等子系统组成的复杂多层次系统,而每个子系统又可以划分为若干次级子系统和部件,各层次子系统是相互关联的,只要某一个子系统出现异常或失效,就可能会使其它子系统产生功能异常或失效,甚至使整个机组处于故障状态,并且从原发性故障到系统级故障的发生、发展是一个量变到质变的过程。故锅炉故障具有层次性、相关性、延时性的特点。

锅炉故障一般具有一定的时延性,即从原发性故障到系统故障的发生、发展与形成,是一个渐变过程。以其高温过热器壁温为例,其某一时刻的壁温值,与其在过去时刻的壁温值有一定的关系,使其壁温序列间有一定的关联性(确定性),这种关联性是锅炉故障预测的基础。另外,由于影响高温过热器壁温的因素很多,如负荷、烟气温度、主蒸汽温度等,它们之间相互关联,且在锅炉运行中还受一些不确定因素的影响,使其故障预测具有一定的随机性,这种随机性使壁温序列间的关联性减弱,这就决定了高温过热器壁温值小能准确地预测,而只能从统计意义上做出最佳预测,使预测误差满足一定的精度要求。故障预测是故障诊断的一部分,故障诊断的最终目的就是为了指导运行和维修,因此,进行锅炉故障预测,对提高锅炉现代化运行水平和机组可用率具有重要意义。

二、锅炉故障预测相关知识

人工智能故障诊断与预测技术是随着现代化技术、经济高速发展而出现的一门新型技术,它能鉴别设备的状态是否正常,发现和确定故障的部位和性质并提出相应的对策,以提高设备运行的可靠性,延长其使用寿命,降低设备全寿命周期费用。且采用故障预测技术可以实现对故障的早期发现并预测其未来的发展趋势,便于对火电机组及时调整以避免恶性事故的发生,使机组能安全可靠的运行,同时提高机组的经济性。

根据预测期限长短的不同可将故障预测分为:长期预测,为了制定锅炉机组的长远维修计划和维修决策而进行的预测。时间一般为一个月以上。预测精度要求低;中期预测,对锅炉机组在未来比较长的时间内的状态进行预测,为机组的中期维修计划和维修决策服务。时间一般为一周左右。预测精度要求较低;短期预测,对锅炉机组的近期发展情况进行预测。时间为一大左右。对预测精度要求高。对于中、长期预测,由于精度要求不高,可考虑采取简单的预测模型,建立单变量时间序列模型进行预测。而对于短期预测,由于对精度要求较高,同时也由于各相关因素对当时的状态值影响较大,因此在进行短期预测时,除了要考虑时间序列本身外,还应适当将其他相关因素考虑进去,这就需要建立多变量时间序列模型进行预测,以满足短期预测对精度的要求。

三、常用的锅炉故障预测方法

近年来不少研究者采用线性回归分析法、时间序列分析法、灰色模型预测法、专家系统、人工神经网络等方法进行锅炉设备故障诊断研究,以探索快速有效的故障诊断与预测方法。常用的预测方法有:

(一)线性回归分析法

回归分析是寻找几个不完全确定的变量间的数学关系式之间进行统计推断的一种方法。在这种关系式中最简单的是线性回归分析。

(二)时间序列分析法

时间序列是指按时间顺序排列的一组数据:时间序列分析法是指采用参数模。型对所观测到的有序的随机数据进行分析与处理的一种数据处理方法。时间序列。分析法主要参数模型有以下四种:①曲线拟合②指数平滑③季节模型④线性随机模型。时间序列分析法主要适用于进行单因素预测,而对锅炉故障预测这种既有确定性趋势,又有一定的随机性的多因素预测时,需要进行确定性趋势的分离,计算比较复杂,同时还需对分离残差的零均值及平稳性进行假定,且其预测的精度不高。

(三)灰色模型预测法

灰色模型预测法是按灰色系统理论建立预测模型,它是根据系统的普遍发展。规律,建立一般性的灰色微分方程,然后通过对数据序列的拟合,求得微分方程的系数,从而获得灰色预测模型方程。

应用灰色系统理论作故障预测主要有两种方法,一是基于灰色系统动态方程GM(或DM)的灰色预测模型,二是基于残差信息数据列的残差辨识预测模型。其中,GM(1,1)预测模型即1阶1个变量的微分方程描述的灰色模型比较常用。灰色预测的解从数学的角度看,相当于幂级数的叠加,它包含了一般线性回归和幂级数回归的内容,故灰色预测模型优于一般的线性回归或指数曲线拟合,也好于确定性时间序列分析法。灰色预测模型不要很多的原始数据,短数据GM(1,1)模型有较高的预测精度,并具有计算简单速度快的优点。

(四)专家系统

专家系统能成功地解决某些专门领域的问题,也有很多优点,但经过多年的实践表明,它离专家的水平总是相差一段距离,有时在某些问题上还不如一个初学者。分析其原因,主要有以下几方面:知识获取的“瓶颈”问题;模拟专家思维过程的单一推理机制的局限性;系统缺乏自学习能力。

(五)人工神经网络预测法

神经网络的故障诊断存在很多问题,它不能很好的利用领域专家积累的经验知识,只利用一些明确的故障诊断实例,而且需要一定数量的样本学习,通过训练最后得到的是一些阑值矩阵和权值矩阵,而不是像专家经验知识那样的逻辑推理产生式,所以缺乏对诊断结果的解释能力。目前应用神经网络进行故障预测的网络训练收敛速度慢,因此无法应用于实时诊断,只能处理历史记录数据。

(六)专家系统和人工神经网络相结合

专家系统和人工神经网络的相结合的方法是目前研究的热点。由神经网络与专家系统构成的神经网络专家系统,它可以利用神经网络的大规模并行分布处理和知识获取自动化等特点,解决专家系统存在的知识获取的“瓶颈”、推理能力弱、容错能力差、处理大型问题较为困难等问题,实现并行联想和自适应推理,提高系统的智能水平,使系统具有实时处理能力和较高的稳定性。同传统的专家系统相比,基于神经网络的专家系统具有以下几种优点:具有统一的内部知识表示形式,任何知识规则都可通过对范例的学习存储于同一个神经网络的各连接权中,便于知识库的组织和管理,通用性强;知识容量大,可把大量知识存储于一个相对小得多的神经网络中;便于知识的自动获取,能够自适应环境的变化;推理过程为并行的数值计算过程,避免了推理速度慢效率低等问题;推理速度快;具有联想、记忆、类比等形象思维能力,可工作于所学习过的知识以外的范围;实现了知识表示、存储和推理三者融为一体,即都由一个神经网络来实现。

参考文献:

[1]蒋宗礼,《人工神经网络导论》高等教育出版社,2001。

预测方法范文篇5

关键词:软件故障预测;贝叶斯信念网;软件度量

1引言

当前关于软件故障预测的研究大都集中于软件工程领域的某个方面,毕业论文如面向对象系统中利用各种度量属性建立模型预测故障数和故障倾向,利用测试过程中用例的覆盖率预测模块故障,利用专家经验建立专家知识库预测故障等等.软件故障的原因贯穿于软件开发全过程,仅从一个方面来考察软件故障是不充分的.近十几年备受关注的贝叶斯网络(BBNs)对于解决复杂系统不确定因素引起的故障具有很大的优势,被认为是目前不确定知识表达和推理领域最有效的理论模型.本文提出基于BBNs的故障预测方法,综合利用软件开发过程信息预测软件故障.

2软件故障预测的研究现状

预测故障的方法可以分为两大类:(1)基于数量的技术,关注预测软件系统中的故障数;硕士论文(2)基于分类的技术,关注于预测哪些子系统具有故障倾向.第一类已经有一些研究,但是开发一个有效的模型比较困难.第二类方法更成功一些.利用软件度量来预测故障倾向是一个重要的趋势和研究内容,当前的预测模型涉及软件设计度量,代码度量和测试度量.软件维护的历史数据,例如软件改变历史[1]和过程质量数据[2]也被用于软件故障预测.很多专家认为开发过程的质量是产品质量(这里默认是残留故障密度)最好的预测器.AhmedE.Hassan等人提出利用启发式规则预测软件子系统故障倾向[3].还有文献提出利用测试过程中的各种数据(如测试覆盖率)来预测故障[2].

分析已有的故障预测模型,它们大多基于软件开发过程中的某一个或几个阶段的数据,或者基于一种或者几种度量,如软件复杂性度量和测试度量.但显而易见,影响软件质量的关键因素不仅仅是其几个度量.软件故障与软件开发全过程往往具有不确定的因果关联关系,导致软件故障的因素很多,单纯从软件开发过程的某个阶段或基于几种度量来预测软件故障是不充分的.BBNs本身是一种不确定性因果关联模型,具有强大的不确定性问题处理能力,能有效进行多源信息表达与融合.因此本文提出基于BBNs构建软件故障预测模型,综合利用软件开发过程信息预测软件故障.

3贝叶斯网络

一个BBNs是一个有向无环图,由代表变量的节点及连接这些节点的有向边构成.节点代表随机变量,可以是任何问题的抽象,医学论文如问题复杂度,观测现象,意见征询等.节点间的有向边代表了节点间的相互关联关系.有向图蕴涵了条件独立性假设,用A(vi)表示非vi后代节点构成的任何节点集合,用∏(vi)表示vi的直接双亲节点集合,则P(vi|(A(vi)∪∏(vi)))=P(vi|∏(vi)).用条件概率表(conditionalprobabilitiestable,CPT)来描述点与点之间关联,条件概率表可以用P(vi|∏(vi))来描述,它表达了节点同其父节点的相关关系———条件概率.没有任何父节点的节点概率为其先验概率.图1用BBNs描述了一个简单的关于软件产品质量的例子[4],产品质量由管理能力和开发能力确定,表1为其CPT.BBNs对构造者的信念(专家知识和经验)建模,基于这个模型它能够提供精确的数学计算和预测.

4基于BBNs的软件故障预测方法

将BBNs应用于软件故障预测的步骤是:(1)确定变量及其顺序;(2)建立BBNs结构;(3)确定BBNs的参数(CPT).本文从软件开发过程来建立一个BBNs基本模型,并以此模型为基础扩展节点.

4·1一个BBNs故障预测的基本模型

影响软件项目风险的基本因素可分为两组,一是与组织相关的因素,包括组织文化,管理经验和能力以及过程成熟度.二是与项目相关的因素[4].影响软件故障的基本因素可以描述为图2的基本模型.方框是可以扩展的基点.“项目特征”和“验证和确认”影响到软件开发的需求分析,设计,实现和测试过程,软件故障受开发过程的影响,这个模型涵盖了软件开发过程

4·2扩展的BBNs故障预测模型

我们用已探测的故障数,残留故障数,职称论文残留故障密度和测试中故障密度四个节点来描述软件故障,分别用“问题复杂度”,“设计功效”和“测试功效”节点描述需求分析,设计和测试过程.V&V[4]与问题复杂度,设计功效和测试功效三个变量关系紧密,因此本文去掉V&V节点,将这些描述V&V节点的变量(如测试覆盖率,员工能力等)用来确定问题复杂度,设计功效和测试功效的参数.

本文采用如图3所示的BBNs故障预测模型,这个模型可以解释为两个阶段:第一个阶段覆盖了软件生命周期的规约,设计和编码;第二个阶段覆盖了测试.设计规模和缺陷数节点为整数或者一个限定的范围,故障密度为实数,其他节点有下面的状态:很高,高,中等,低,很低.问题复杂度表示待开发问题集中内在的复杂度,这些问题是规约中离散的功能需求,问题复杂度和设计功效之间的不匹配将导致引入故障数和设计规模增大.测试阶段在设计阶段之后,实践中实际分配的测试功效比所要求的少得多.测试功效和设计规模之间的不匹配将会影响已探测故障的数目,引入故障是其边界条件.已探测故障和引入故障之差是残留故障数.测试中故障密度是已探测故障和设计规模的函数(已探测故障/设计规模),同样,残留故障密度是残留故障数/设计规模.这里的问题复杂度,设计功效和测试功效的粒度仍然较大,不利于确定其状态,将其继续扩展,建立相应子网来描述这些节点:(1)问题复杂度子网(图4);(2)设计功效子网(图5);(3)测试功效子网(图6).

4·3确定BBNs参数

接下来的问题是确定变量状态的概率和变量之间关系的强度.从对软件开发过程的各种文档记录中我们可以得到一些确定性知识.对于不确定性知识,传统的方法是根据专家经验主观确定.研究人员定义了大量软件度量描述软件质量[2,5,6],将这些研究与专家知识和经验结合起来确定BBNs参数.

4·4推理规则

采用应用最广的随机模拟采样法(PearlsandGibbs算法).首先,为网络上的节点做初始实例化,证据节点实例化为观察值,非证据节点实例化为随机值;然后,开始遍历图,对每一非证据节点Y,计算在其他节点给定值的情况下Y的后验概率分布:

P(Y|WY)=αP(Y|Pa(Y))∏iP(si|Pa(si))

式中,WY表示除Y的节点集合,Si表示Y的第i个子女,工作总结为正规化因子,其余乘积项为条件概率.公式表明了本节点的概率仅与其父母节点,子节点及其子节点的父母节点有关;Pearl使用上式结果对节点进行采样,结果作为Y的新实例化,反复进行,直到近似过程收敛(设进行了m次遍历),这时查询结果为:P(Y|e)=1m∑mi=1fi,fi为第i次遍历Y的条件概率,e为证据向量的观察值.

5仿真实验

本文在AgenaRisk[7]系统中对该模型进行仿真实验.实验部分采用了AgenaRisk中关于软件故障预测和软件项目风险管理的数据.由于具体的项目数据难以收集,我们根据图3所描述的简化模型来做仿真实验.在实验中我们用软件需求复杂性度量和软件需求变更度量来描述问题复杂度[6].利用各种度量来描述设计功效,包括对象(模块)之间的耦合数(耦合度量),不使用公共属性的方法的个数(内聚度量),继承树的深度和继承的平均深度(继承度量)[5].用代码覆盖度量来描述测试功效,定义一个相应策略的测试有效率(testeffective-nessratio,TER),TER1是语句覆盖的测试有效率,TER2是分支覆盖的测试有效率,TER3是线性代码顺序和跳转覆盖测试有效率.我们设定的是一个中等规模的系统,严格按照软件工程开发过程开发,花费了大量资源在设计和测试上,尽量减少耦合,增加内聚,TER1,TER2达到100%,TER3达到90%,因此可以判定设计功效为很高(概率为100%),测试功效很高(概率为100%),如图7所示.从仿真结果可以看到设计规模较小,引入故障数较少(期望值为17.8),已探测故障密度相对较高,剩余故障数较小(期望值为6.6),这与实际情况是相符合的.当我们将设计功效设置为较低时(概率为100%),如图8所示,明显设计规模变大,引入故障数增加(期望值为43.1),相应的剩余故障数增加(期望值13.0),已探测故障密度减少.表2是两者的对比结果.在实验中我们分别对问题复杂度,测试功效和设计功效赋值,以检查模型对各种环境下的变化,其结果与实际较为符合,说明了模型的合理性.

6结语

本文从软件开发全生命周期来考察故障,给出了一个BBNs故障预测原型系统,并在AgenaRisk系统中对该模型进行仿真实验.从实验结果可以看到,BBNs能够使用来自主观和客观的概率分布和不充分的数据预测软件故障数.仿真实验还只是基于一个简化的模型,将实际项目数据应用于模型,探讨建立完备网络结构和确定节点状态的方法,建立适应具体项目便于数据收集和确定节点状态的网络是需要进一步探讨的问题.

参考文献:

[1]ToddLGraves,AlanFKarr,JSMarron,HarveySiy.Predict-ingfaultincidenceusingsoftwarechangehistory[J].IEEETransactionsonSoftwareEngineering,2000,26(7):653-661.

[2]Fenton,NE,NeilM.Acritiqueofsoftwaredefectpredictionmodels[J].IEEETransactionsonSoftwareEngineering,1999,25(5):675-689.

[3]AhmedEHassan,RichardCHolt.Thetoptenlist:dynamicfaultprediction[A].Proceedingsofthe21stIEEEInternationalConferenceonSoftwareMaintenance(ICSM’2005)[C].Bu-dapest,Hungary:IEEE,2005.263-272.

[4]Chin-FengFan,Yuan-ChangYu.BBN-basedsoftwareprojectriskmanagement[J].JournalofSystemsandSoftware,2004,73(2):193-203.

[5]MunsonJC,NikoraAP.Towardaquantifiabledefinitionofsoftwarefaults[A].Proceedingsof13thInternationalSympo-siumonSoftwareReliabilityEngineering(ISSRE2002)[C].Annapolis,MD,USA:IEEE,2002.388-395.

预测方法范文篇6

关键词:铁路交通;信息预测;数据融合;神经网络

在城市地铁交通中,各车站交通流量信息(如候乘数量、下车数量等)的准确预测有利于地铁运行高效、及时地调度,从而既达到增加效益的经济目的,又可以更好地满足人们的乘车需求。传统的预测方法有回归分析算法以及Kalman滤波等。这些方法假定过程是平稳的,系统是线性的,系统的干扰是白噪声,因此在线性系统平稳的随机时间序列预测中能够获得满意的结果。然而,交通问题是有人参与的主动系统,具有非线性和扰动性强的特征,前述方法难以奏效,表现为以下缺点:①每次采样的数据变化较小时适用,数据变化大误差就大;②预测值的变化总是滞后于实测值的变化;③无法消除奇异信息的影响。基于小波分析的动态数据预测方法以小波变换后的数据进行预测,克服了传统预测方法不能消除奇异信息的缺点,有效地预测动态的流量信息[1]。但该方法只能对单个的数据序列进行处理,而事实上能够用于预测的数据可以是多方面的。

数据融合(Data2Fusion)技术起源并发展于军事领域,主要用于目标的航迹跟踪、定位与身份识别以及态势评估等[2]。传统的数据融合技术大多采用概率理论(如Bayes决策理论)对多种信息的获取与处理进行研究,从而去掉信息的无用成分,保留有用成分[3]。在信息处理中,分别运用各种体现数据不同属性特征的方法处理(如预测)后进行融合是一个有待深入研究的问题。为了充分利用各方面已有的数据,获得可靠的交通流量动态预测,本文借鉴数据融合的基本思想,提出了在数据处理方法上的融合预测方法。

1流量融合预测模型

1.1预测模型的结构

由于预测对象的复杂性,为了表现与预测对象相关联的其他对象或属性,每个关联对象(属性)用一个时间序列来表示,作为预测对象的相关序列。所有用于预测的相关序列构成预测对象的相关序列集。由于在预测中具有不同的作用,各相关序列将使用不同的处理和预测方法。在相关序列集上的地铁客流量融合预测模型结构,如图1所示。

下面针对城市地铁车站客流量的预测进行论述。

1.2构造相关序列集

为了预测车站(序号为0)在第i天t时刻的流量^F0i(t)(实测值为F0i(t)),设t时刻^F0i(t)的相关时间序列集为f(t)={fj(t),1≤j≤n}(1)式中,fj(t)为t时刻^F0i(t)的相关时间序列;n为相关时间序列数。

为了获得精确的预测,可以根据关联特性构造任意多个相关时间序列。本文意在阐明本算法的基本思想,将流量数据仅仅构造为3类相关序列:当前序列、历史序列和邻站序列。

当前序列预测时刻t之前本站最近k次流量按时间先后记录下来的数据构成的时间序列为当前序列,即

f1(t)={F0i(t-l),1≤l≤k}(2)

该序列数据的主要影响因素是时刻,同时还受人为、气温、天气等其他扰动因素的影响,数据分布的非线性特性较大,频带较宽。第l班列车的流量如图2所示。

历史序列同为工作日或同为节假日的相邻数天,其流量曲线形状相对类似,流量曲线相似的日期在预测中具有较大的参考意义。本站最近m天在时刻t的流量按日期先后记录下来的数据构成的时间序列为历史序列,即f2(t)={F0i-p(t),1≤p≤m}(3)工作日和节假日流量差别较大,可将它们分类处理。该序列整体分布较平稳,有震荡,但频带较窄。第p个工作日在时刻t的流量如图3所示。

邻站序列图4为本站与邻近2个车站24h的流量曲线经DB2小波3层变换后的近似分量,可见各分量关联性较大。如果根据以前的数据将各邻近车站相互关系解算出来,就可以利用这种函数关系预测时刻t在本站的流量。最近m天在时刻t的流量按日期先后记录下来的各邻站历史序列为本站的邻站序列,即

qf2+q(t)={Fi-p(t),1≤p≤m,1≤q≤s}(4)

q式中,Fi-p(t)表示第q个邻近站的第(i-p)天的流量;s表示邻近站数。

1.3相关序列的预测

由于各相关序列在预测中具有不同的影响,且分布规律和特点差异较大,因而各序列使用不同的预测方法。本文对当前序列进行小波分解后用Kalman预测,对历史序列直接进行Kalman预测,对邻站序列用幂级数多项式进行拟合。

1.3.1小波分析

根据设置的分解指数η对序列进行小波N尺度分解,得到一组低频信号和N组高频信号,对这N+1组信号分别用Mallat塔式算法重构到原尺度上,得到N+1组在原始尺度上的经过分解重构处理的信号。分别对信号用Kalman滤波进行预测,得到N+1个预测值,再将这N+1个预测值用权系数合成最终的预测值。具体算法请参见文献[1]。

1.3.2Kalman滤波离散线性Kalman滤波方程为

F(t)=Φ(t-1)F(t-1)+W(t-1)(5)式中,Φ(t)为系统状态转移量;W(t)为系统误差。Kalman滤波通过t-1时刻的状态F(t-1)估计t时刻的状态F(t)。具体算法请参见文献[1]。

1.3.3多项式拟合

分别对各邻站序列用幂级数多项式拟合本站数据,拟合模型如下

n

i

p

^Fp(t)=αp,i(t)F(t)(6)

i=0

i

6式中,Fp(t)为对第p个邻站在时刻t的流量的i次i幂;αp,i(t)为Fp(t)的系数。当n=2时,上述拟合算法简化为线性回归模型。

1.4流量的融合预测设预测对象共有n个相关的时间序列fi(t),经过预处理分别为fi(t),融合预测模型可表示^F(t)在f(t)上的映射,即^F(t)=ζ(f(t))=ζ(f1(t),f2(t),fn(t))(7)式中,ζ(·)表示映射关系。特别地,式(7)可简化为如下的线性映射组合^F(t)=αi(t)ξ(fi(t))(8)i=16

式中,αi(t)为t时刻的序列fi(t)的权系数;ξ(fi(t))为以fi(t)为依据的局部预测值。为了确定上述算法中映射关系ζ(·),本文采用神经网络进行解算。

2模型的神经网络解算

神经网络是由大量简单的神经元以某种拓扑结构广泛地相互连接而成的非线性动力学系统[4]。神经网络在数据融合技术中具有无法替代的作用,通过神经网络对各相关序列的局部预测进行最终融合,具体过程如下。

2.1数据的局部处理

广州市地铁某站一个方向的流量数据是以每班列车到站上车的人数记录的(流量单位:人/班)。根据2002年5月1日2003年3月2日的流量数据,运用本文算法进行预测。按照1.2节的方法构造了4个相关序列:当前序列f1(t)、历史序列f2(t)以及相邻2个车站的邻站序列f3(t)和f4(t)。

2.2神经网络的设计

因为3层神经网络可以一致逼近任何非线性函数[5]。采用具有单隐层的3层神经网络作为模型,即输入层、隐层和输出层。

以各相关序列的局部预测值作为输入向量,实测值F(t)为期望输出,有4个输入节点,1个输出节点。隐层神经元数量关系到网络的训练速度和精度问题。对于一定数量的样本,需要一定数量的隐层神经元数,神经元少了,不能反映样本的规律;多了,则神经网络以过于复杂的非线性关系来拟合输入输出之间的关系,使得模型的学习时间大大增加。本例中,8个隐层神经元数是最好的。以误差平方和SSE(Sum2SquaredError)作为训练评价标准,SSE=pj(Ypj-Opj)2,其中Ypj和Opj分别为输出层第j个神经元的第p个样本的期望输出和实际输出(本例中j=1,p=60)。

用MATLAB的ANN工具箱构造神经网络。隐层神经元的激励函数为tansig函数(正切S型传递函数),输出层神经元的激励函数为purelin函数(线性传递函数),这样整个网络的输出可以取任意值。采取批处理学习方式和快速BP算法训练。

2.3神经网络的训练

将网络的训练标准SSE设为64(60组训练样本),利用上述样本对神经网络进行训练,训练6000次时网络的权值和阈值将达到最佳值,即达到了训练目标。神经网络训练目标接近过程,如图5所示。

从图5中可以看出,训练开始时,网络收敛速度较快,接近目标时收敛速度会减慢。可见,训练次数越多,得到的结果越好。当然,这是以训练时间的增长作为代价的。

3实验对比分析

采用本文算法和传统的Kalman算法分别对2003年3月2日的各整点时刻的流量进行预测。算法各时刻均通过训练后的神经网络预测,预测与实测结果的比较,如图6所示。

传统的Kalman滤波是直接在当前序列的基础上进行预测的,预测与实测结果的比较如图7所示。2种预测方法的误差指标对比见表1。

表1实验结果对比

比较可得,由于传统的Kalman预测方法只能以某一类序列的数据作为预测基础,无法利用其他序列信息,且对变化大的数据采样要求较高,因而具有较大的误差,而本文所述方法有效地克服了这些缺点。

4结论

通过分析城市地铁站客流量的相互关系和特点,在对流量信息进行以预测为目的相关序列集构造的基础上,提出了一种基于数据融合的预测模型。该预测模型不仅是一个多信息接收和处理的融合模型,而且还是一个动力学系统,网络的训练样本也是动态的,如果训练的次数适当,预测的精度也可以随之变化调整。实验结果表明,基于数据融合的预测与传统的预测方法相比,由于充分利用了所有预测信息,在预测的准确程度上有较大提高。

参考文献:

[1]李存军,等.基于小波分析的交通流量预测方法[J].计算机应用,2003,23(12):7—8.

[2]权太范.信息融合:神经网络模糊推理理论与应用[M].北京:国防工业出版社,2002.

[3]李洪志.信息融合技术[M].北京:国防工业出版社,1996.

预测方法范文篇7

关键词:经济预测方法定量研究回归预测模型

经济预测方法分类

经济预测是一门边缘性科学,它依据经济学原理,应用数理统计学以及数量经济与技术经济的方法对客观经济过程及其要素的变动趋势作出描述,从而达到预测未来的目的。它所提供的方法,对于我们制定各种经济、管理计划、政策等,都是十分重要的。

目前应用得比较广泛的经济预测方法主要有如下几类:专家评估法、回归分析预测法、时间序列平滑预测法、模型法、马尔柯夫预测法。

经济预测方法的应用

经济预测的方法多种多样,在具体应用过程中,必须对所研究的问题进行深入细致的分析,根据所研究问题的具体特点和性质,采取多种较为适合的方法,进行综合比较,才能够得出比较准确的结论。

在预测过程中,定性分析和定量分析两者之间相互补充。下面具体举例说明经济预测方法在经济管理中的应用。要求用回归分析预测法预测2001年的净利润(1992-2000年民营科技企业净利润及上缴税金增长情况统计表略)。

试配合适当的回归模型并进行显著性检验;若2001年民营科技企业上缴税金是1100亿元,当显著性水平а=0.05时,试估计2001年民营科技企业的净利润。

绘制散点图

设净利润为y,上缴税金为x,根据公式要求先算出xy、x2、y2,如表1示:

分别以x、y为横、纵坐标,绘制散点图(图略),由散点图看出两者大致为线形关系,可以配合一元线形回归模型。

建立一元线形回归模型

计算回归系数。由上表计算有关数据的结果以及利用MicrosoftExcel中的粘贴函数功能可直接求得b=1.2085,a=50.0384

所以所求回归预测模型为:=50.0384+1.2085x

检验线性关系的显著性

当显著性水平а=0.05,自由度=n-m=9-2=7时,查相关系数临界值表,得

R0.05(7)=0.666因为R=0.7994>0.666=

R0.05(7),所以在а=0.05显著性水平上,检验通过,说明两变量之间相关关系显著。

预测。计算y的估计标准误差公务员之家

由MicrosoftExcel中的粘贴函数功能可得Sy=46.4166;当显著性水平а=0.05,自由度=n-m=9-2=7时,查t分布表得t0.025(7)=2.36;由已知得x0=1100亿元,所以y的点估计值为:=50.0384+1.2085x0=1379.3884(亿元)

所以预测区间为

即:当2001年民营科技企业上缴税金是1100亿元时,在а=0.05的显著性水平上,2001年民营科技企业的净利润的预测区间为:1209.8703——1548.9065亿元之间。从《中华工商时报》上查得2001年民营科技企业的净利润为1450亿元,属于上述预测区间。

应该看到,现代市场经济的发展,大大增多了社会运行中的不确定性,这为经济预测方法的大量应用提供了广阔的舞台。而经济、科技特别是计算机技术的飞速发展,又为经济预测方法的发展提供了技术支持。可以预见,预测的蓬勃发展对国民经济的发展将起着越来越大的作用。

参考文献:

1.暴奉贤,陈宏立.经济预测与决策方法.暨南大学出版社,2003

预测方法范文篇8

关键词:物联网技术;电气设备;全生命周期;风险预测

1引言

在现代社会,各领域的运行都离不开电力能源作为支撑。在电力供应系统中,电气设备的运行涉及电力的生产、运输、更换、分配等各个环节。一旦其中一个设备出现问题,电力供应就会中断,从而造成巨大的损失。电气设备故障从生产到使用,再到废弃,经历了一个全生命周期[1]。因此,如何准确地预测电气设备整个生命周期内的各种风险,对其进行全生命周期的风险预测,对防范和规避风险具有重要的现实意义。关于风险预测的研究有很多,如文献[2]提出的基于红外成像技术的电气设备故障检测和文献[3]提出的基于物联网技术的地铁机电设备全寿命周期管理系统。但上述主要是针对设备运行过程中存在的风险进行分析,且需要处理的数据过于庞大,电气设备种类的不同,数据过于分散,得到的预测结果准确性并不能保证,且需要花费大量的时间成本。针对上述问题,本文结合物联网技术,提出一种电气设备全生命周期风险预测方法。物联网技术的介入,能够将设备各个环节的大数据集中到一起,并进行分析,实现了电气设备管理的信息化,包括降低设备风险存在的时间、提升风险规避效率、节省人工成本、提高设备可用性和完好率。通过本研究以期保证电气设备全生命周期运行安全,延长电气设备使用寿命,及时规避掉各个环节存在的风险。

2基于物联网技术的电气设备全生命周期风险预测研究

电气设备风险的发生不仅仅出现在运行阶段,而是出现在全生命周期,周期上每一个环节出现的风险都有可能造成设备故障。然而,各设备从生产、到使用再到废弃,各个环节相对分散,且数据分散在各个电脑,不能有效共享,汇总繁琐且易出差错,设备维修费用、备件采购数量、点检计划数据、人员KPI等数据源不一,统计汇整分析困难不精准,因此在电气设备全生命周期风险预测中最亟待解决的问题是“如何集中获取全生命周期涉及的相关信息,包括设备生产数据或设备本身的运行状态、故障、运行参数、环境等状态信息”。这也是以往电气设备全生命周期风险预测研究较少的重大原因之一。基于上述问题,物联网技术的出现为电气设备全生命周期风险预测提供了所需要的移动端和网络环境的支持。物联网技术组成框架如图1所示。物联网技术利用计算机硬件、软件、网络设备、通信技术及智能传感器设备等实现了信息的收集、传输、加工、储存、更新和维护等,为风险预测提供了重要的辅助。

2.1电气设备全生命周期数据收集与预处理

电气设备全生命周期大致可以分为三个大致时期,建设期,运行维护期和轮换报废期。每个时期的风险是数据或信息的不完备引起的,因此需要收集与风险可能相关的信息和数据[4-6]。数据收集方式主要有四种,具体如下:(1)方式1基于物联网技术的电气设备全生命周期管理平台已具备数据接口时,直接通过已有接口根据设备厂家提供的协议获取数据[7]。(2)方式2基于物联网技术的电气设备全生命周期管理平台无数据接口时,请设备厂家对设备控制系统扩展出新的数据接口,再通过接口获取数据[8]。(3)方式3通过连接电气设备相关数据传输线路上的数据信号实现数据采集。(4)方式4在电气设备上外接各式传感器,并通过采集器实现定向数据采集。在上述四种获取方式中,方式4是最为简单、快捷的。外接的各式传感器主要RFID系统、红外图像采集设备、信号采集器等,具体如表1所示[9-11]。在电气设备全生命周期数据收集之后,需要对这些数据进行预处理,提高数据质量。根据数据类型的不同,预处理方法也不同,具体如表2所示。

2.2电气设备全生命周期风险因素识别

基于上一章节电气设备全生命周期数据收集与预处理的基础上,对各个环节存在的风险因素进行识别。采用事故树分析法,将风险识别工作按各个时期阶段细化成较小的风险因素。基于事故树分析法的电气设备全生命周期风险识别过程具体如下:步骤1:确定事故树的主题目标,即电气设备的整个生命周期风险;步骤2:中间事件的建立,即根据电气设备全生命周期,将风险分为建设期风险,运行维护期风险和轮换报废期风险等三大类。步骤3:底事件的建立。继续根据每个时期的风险,再逐级继续进行细化,直至达到最小集,也就是导致电气设备存在风险的最根本原因,即完成关于电气设备全生命周期风险的事故树。步骤4:认真审定事故树。在绘制完成事故树后,对其进行审查,并进行修改,以达到最优。

2.3电气设备全生命周期风险评估与预测

在完成电气设备全生命周期风险识别后,计算风险系数,并以此预测电气设备的可靠程度,以便采取合理的应对措施。电气设备全生命周期风险评估与预测基本过程如下:步骤1:明确目标,建立电气设备全生命周期风险事故树,具体过程见章节2.2;步骤2:建立层次结构模型。步骤3:建立判断矩阵,赋值通过0.1~0.9标度法完成,如表3所示。

3实例分析

为验证所研究风险预测方法的应用性能,选取一种电气设备作为研究对象,进行实例测试分析。

3.1实验对象选择

断路器属于一种开关装置,起到故障保护的作用,本实验对象为一种高压断路器。利用所研究的方法对其进行基于物联网技术的电气设备全生命周期风险预测。

3.2数据采集环境部署

部署高压断路器全生命周期过程相关数据的采集环境,如图2所示。

3.3风险因素

事故树模型基于事故树分析法建立关于电气设备全生命周期风险因素的事故树模型,如图3所示。

3.4断路器风险评估与预测

计算断路器各个环节风险系数,然后结合影响程度,得出风险发生概率,并以此预测电气设备的可靠程度,结果如表6所示。从表6中可以看出,断路器运行维护期发生风险的概率最高,可靠性最低,因此以其它时期相比,运行维护期间,不可控的干扰因素众多,极易发生故障问题,而其它两个期间都有专业人员进行把控和反复审核,风险并不易发生。在断路器运行维护期中又以使用期间最有发生风险,风险的发生率及可靠度具体如表7所示。从上述表7中可以看出,断路器使用期间拒动故障、误动故障以及绝缘故障风险的发生率均超过10%,可靠度低于90%,由此说明断路器使用期间要注意这三类故障的规避。为验证本文所研究风险预测方法的有效性,对比不同信噪比下,以文献[2]提出的基于红外成像技术的电气设备故障检测和文献[3]提出的基于物联网技术的地铁机电设备全寿命周期管理系统为对比对象,进行对比实验,风险预测正确率对比结果如表8所示。分析表8可得,采用本文方法风险预测的正确率均明显高于其它方法,本文方法预测电气设备的可靠程度较高,说明本文方法预测断路器各个环节风险系数较小,风险不易发生,证明了所研究方法的有效性。

4结束语

预测方法范文篇9

基于对抗神经网络的风电数据生成数据清洗

由于风电本身的不稳定性,以及非预计停机、弃风限电、天气异常等原因,风场采集的数据中往往会存在大量的异常点,这些异常点将对正常情况下的风电功率预测产生影响。本文用变点分组法原理、最小二乘法原理和四分位法来处理原始数据,从而实现异常点的剔除,另外使用临近值补全的方法对缺失值进行一个填补。这样处理得到的数据更有利于风电功率的预测。

风电数据生成

生成对抗网络属于非监督式学习方法,是深度学习领域的一个重要生成模型。其内部主要包含生成器和判别器两个网络,生成器神经网络负责利用已有数据样本生成新的样本,而判别器神经网络则负责将生成样本从真实样本中尽可能分辨出来。两个网络相互对抗、不断调整参数,最终目的是使判别网络无法判断生成网络的输出样本是否真实。因为有些风电场历史数据量较小,可以利用生成器网络产生的样本,进行数据样本的扩充。并且对抗神经网络是基于非监督式学习,所以不需要准备非常多的数据。利用风电场已有的风电数据来训练对抗生成网络,其中的生成模型网络可以模拟真实数据的概率分布,并输出合成样本。而判别网络需要学习区分这个生成的风电数据是否来自真实的数据分布,经过多轮不断地对抗,从而使合成数据也能够达到真实数据的效果。用于合成风电数据的对抗生成网络框架设计如图1所示。在GAN神经网络训练时使用到的对抗损失函数可以下式来表示。行业曲线开放度创新度生态度互交度持续度可替代度影响力可实现度行业关联度真实度杨乘胜,男,硕士,安徽芜湖,高级工程师,南京华盾电力信息安全测评有限公司,研究方向:电力系统及其自动化。在式(1)中,z代表随机变量,pz(z)代表z的数据分布,Pdata(x)代表真实样本的分布,D和G分别代表判别器和生成器,minGmaxDV(D,G)在于最大化判别器D的价值函数而最小化生成器G的价值函数。在GAN神经网络整个训练过程中,一个随机变量会输入生成器G并输出合成数据,之后由判断器D确定它是否为真数据。整个训练过程需要最大化判别器的概率logD(x),即让所有的数据都被认为来自真实的数据集,相对的要最小化生成器的概率log(1-D(G(z))),使得合成数据愈加接近真实数据的分布。网络采取的是向后传播的方式来调整内部参数,使得网络能够结合预测值和真实值之间的误差,学习到风电数据的高维特征。

基于遗传算法的风电预测

遗传算法的理论基础是达尔文的进化论,它通过模拟自然界中竞争的方式产生优胜劣汰的分化。在使用遗传算法时,将潜在的解集设定为初始的种群,并通过遗传算法的自然选择原理进行不断地进化,最终得出一个最优个体作为整体的一个最优解。遗传算法的构造过程可以按照以下方式进行:(1)确定决策变量及其各种约束条件,即确定出个体的表现型X和问题的解空间。(2)建立优化模型,即确定出目标函数的类型及其数学描述形式或量化方法。(3)确定个体适应度的量化评价方法,即确定出由目标函数值f(X)到个体适应度F(X)的转换规则。(4)设计遗传算子,即确定出选择运算、交叉运算、变异运算等遗传算子的具体操作方法。(5)选择运算,选择算子作用于群体。选择的目的是把优化的个体直接遗传到下一代或通过配对交叉产生新的个体再遗传到下一代。选择操作是建立在群体中个体的适应度评估基础上的。(6)交叉运算:将交叉算子作用于群体。遗传算法中起核心作用的就是交叉算子。(7)变异运算:将变异算子作用于群体。即是对群体中的个体串的某些基因座上的基因值作变动,群体P(t)经过选择、交叉、变异运算之后得到下一代群体P(t+1)。遗传算法用于风电功率预测有以下优点:它是以问题集的串集进行预测的,而不是以某个节点为依据进行的预测,这更有利于得到一个全局择优的结果,减少陷入局部最优解的风险。且遗传算法不是采用确定性规则,而是用概率变签规则来进行预测的,能够做到模糊自适应,并且具有自组织、自适应和自学习能力。遗传算法以上的特征都保证了风电效率的预测能有很好的精度。在遗传算法中,如果某个体i的适应度fi种群大小为NP,则i被选择的概率通过公式(2)计算:

实验结果和分析

评价标准和对照算法为了对风电模型的预测结果进行评估,我们选用了平均绝对百分比误差和均方根百分比误差作为评估的手段。其公式如下所示:上述公式中N为预测的点数,y(k)真实数据,y~(k)模型产生的预测数据。这两个公式主要用来评估预测值的实时误差和时间段内总体误差率,能够很好地反映出模型的单点和整体的预测效果。为验证本文提出的GAN神经网络扩充样本以及后续遗传算法对于短期风电功率预测性能,我们将长短期记忆网络(LSTM)作为对比参照算法。LSTM是一种时间循环神经网络,适合于处理和预测时间序列中间隔和延迟非常长的情况,在风电功率短期预测上已被证实是有效的方法。

仿真实验设计与结果分析

仿真实验使用的数据来自西班牙SotaventoGalicia风场,由风场中的实时传感器每10min对相关数据进行采取,其中包括风向角、风速、发电功率等信息。本文使用SotaventoGalicia风场2022年3月1日至3月15日采集的数据作为训练数据,其中包含了共2130个训练样本。并将3月16日至3月20日共426条数据进行保留,作为训练后模型的测试数据集。另外使用GAN神经网络对训练数据进行扩充,共得到510个合成数据样本,扩充的训练数据集包含了2640个数据样本。本文在pytorch深度学习框架中实现GAN神经网络并进行训练,用Python语言实现遗传算法,实验计算机硬件配置为NVDIAGTA2060T显卡和IntelCorei78700KCPU。训练中将GAN神经网络参数epoch设置为300,batchsize设置为18,学习率设置为0.001;遗传算法基本参数设置为种群数量为20,终止代数为40,交叉概率为0.45,变异概率为0.01。为了验证本文的GAN神经网络合成数据和遗传算法的风电功率预测性能,本文共设计了3个对比实验,第一个将扩充训练数据集的2640个样本数据作为遗传算法的输入,并且对3月16日到20日的短期风电功率进行预测。另外两个对比实验仅仅只用到原始训练数据集的2130个训练样本,分别用于遗传算法和LSTM并对16日至20日的风电功率进行预测,实验结果如图3所示。通过上面的仿真结果对比,可以发现在未使用GAN神经网络扩充训练数据集的情况下,遗传算法依然优于LSTM的预测性能,预测结果更加接近于真实值。而在3个对比仿真实验中,本文提出的GAN神经网络和遗传算法的组合,取得了最优异的预测结果。相对于未使用扩充训练数据的遗传算法的预测结果,GAN神经网络和遗传算法的预测结果更加精准且在整体趋势上更贴合真实数据。这个结果说明利用GAN神经网络合成的数据样本,可以用来训练预测模型,且有助于提高最终的预测精确度。另外,为了研究不同数量训练样本情况下,各类算法的预测性能的区别以及GAN神经网络扩充数据集对预测性能的提升效果,本文将SotaventoGalicia风场2022年3月1日至3月15日采集的2130个训练样本,其中的20%,50%,70%和全部样本选取出来,形成4个不同样本数量的训练数据集。这4个训练数据集用于训练遗传算法和LSTM,并对之后200个时间点风电功率进行预测。而本文提出的GAN神经网络和遗传算法的组合方法,首先将使用GAN神经网络对训练数据集进行扩充,合成数据量基本为原样本数量的25%,之后合成数据和原始训练数据合成为扩充训练数据集,用于遗传算法并对之后200个时间点风电功率进行预测。实验中使用均方根百分比误差对各模型的预测结果性能进行评价,评价结果如表1所示。从表1的实验结果看,在不同数量训练样本情况下,遗传算法的预测性能依然优于LSTM算法。基于GAN神经网络扩充数据集的方法,在样本数量较小时也能取得较好的预测结果。随着样本训练集大小的不断增加,各个模型的均方百分比误差都在逐渐减小,这是因为不断增加的样本给模型预测,提供了更多的信息和特征。GAN神经网络合成数据的提升效果也慢慢降低,但是依然对预测准确度有一定程度地提升效果,比如在样本只有总样本20%和70%的时候,GAN神经网络生成数据集的提升效果分别为16.2%和8.12%,这可能是在数据量较小时模型获得的信息更加匮乏,合成数据可能起到更大的作用。

技术总结

预测方法范文篇10

(1)有利于优化网络设备性能,保持良好的网络运行状况。实践过程中结合开放性强、运行环境复杂的网络,其运行过程中可能会受到病毒及其它因素的影响,使得自身的安全性能下降,难以保证用户信息安全性。而注重网络安全态势预测方法的使用,将会给予网络安全必要的保障,将会使与之相关的设备性能逐渐优化,保持良好的网络运行状况,最大限度地满足用户的实际需求。(2)有利于提升网络安全防控水平,健全其防御体系。在网络安全态势预测方法的作用下,技术人员结合当前计算机网络安全的实际概况及用户需求,对网络运行的安全状况进行科学的预测分析,促使其中可能存在的影响因素得以高效处理,进而为网络安全防控工作落实提供所需的参考信息,使得其防控水平逐渐提升。同时,该方法的使用,也能使网络安全防御体系构建中得到所需的信息,且在长期的实践过程中得以健全,满足网络安全工作开展的实际需要。(3)有利于丰富网络安全问题处理所需的技术手段,优化其安全性能。新时期处理网络安全问题时相关的技术手段应用效果是否良好,关系着其安全性能能否得到有效改善。因此,在对网络安全进行研究时,研究人员应结合当前计算机网络运行中所面临的挑战,通过对网络安全态势预测方法的合理使用,使得其安全问题处理中所需的技术手段更加丰富,最终达到网络安全性能优化的目的。

2基于时间维度分析的网络安全态势预测方法

为了使网络未来发展中有着良好的安全态势,确保其安全性能可靠性,则需要对其安全态势要素有着必要的了解。而这类要素实践过程中若从时间维度上进行分析,由于其具有动态变化的特点,会对网络安全态势造成较大的影响,因此,为了提升网络安全预测结果应用价值,则需要注重基于时间维度分析的网络安全态势预测方法使用。具有表现在以下方面:2.1基于权限分类的脆弱性预测方法。网络安全研究中若考虑使用基于时间维度分析的网络安全态势预测方法,则需要重视与之相关的基于权限分类的脆弱性预测方法使用。现阶段,因脆弱性的、利用等,使得网络安全运行风险加大,可能会导致独立和大规模的攻击,如蠕虫、僵尸网络等问题的产生。随着脆弱性利用时间越来越短,其零日利用的数量在急剧增加,脆弱性日利用方案数量也在增加,给网络安全运行产生的威胁更大。因而,及早地预测网络未来的脆弱性,可以及早采取措施,加强重点资产、业务和脆弱性密集的资产、业务的防护,以赶在脆弱性被发现、利用之前采取措施规避相应的攻击或者增加脆弱性利用的难度,提高主动防护的能力。从另一个角度来讲,攻击者在防护方感知脆弱性的存在或者防护方采取防护措施之前,感知并利用脆弱性将会极大地增加攻击成功的可能性,获取更大的攻击效果。网络安全研究中在应对脆弱性所造成的影响时,虽然有关其数量与时间方面的方法较为成熟,但由于这类方法在预测未来脆弱性的标识信息方面难以保证准确性,因此,技术人员在应对这类问题中,要加强基于权限分类的脆弱性预测分析方法使用,使得其预测结果准确性得以不断增强,从而为网络安全态势预测方法实际作用的充分发挥提供保障。在网络安全态势预测分析中,若提高基于权限分类的脆弱性预测方法利用效率,将会得到参考价值大的网络安全态势预测结果,从而为其安全性能改善措施的合理运用提供参考依据。同时,基于脆弱性预测方法的网络安全态势预测研究工作的落实,也需要对未来预测脆弱性的数量、时间等给予更多的关注,使得网络安全态势预测结果更具说服力。2.2基于未来态势要素的攻击序列预测方法。在网络安全态势预测研究中,若采用既有的攻击序列预测方式进行研究,难以得到网络安全态势未来攻击序列所造成影响的准确预测结果,使得网络安全态势预测中相关的要素无法得出。针对这种情况,需要在时间维度分析的前提条件下,在网络安全态势预测研究中引入基于未来态势要素的攻击序列预测方法,使得其网络安全态要素能够在其预测研究中总结出来,进而得出可靠的预测结果,给予网络运行中安全性能的不断优化可靠保障。实践过程中为了发挥出基于未来态势要素的攻击序列预测方法在网络安全态势预测中的实际作用,需要从以下方面入手:(1)结合网络安全态势预测的实际需求,全面了解攻击序列对其可能造成的影响,合理使用基于未来态势要素的攻击序列预测方法,使得网络安全状况改善中能够获取到更多的信息资源,进而实现对攻击序列所产生影响的有效应对,并使未来网络发展中的安全性能逐渐改善。同时,需要提升对基于未来态势要素攻击序列预测方法的整体认知水平,加强其在网络安全态势预测应用中的作用效果评估,以便增强其适用性。(2)借助计算机网络、信息技术的优势,对基于未来态势要素攻击序列预测方法的攻击序列集进行深入分析,从而使网络安全态势预测中能够在选定的时间段中得出所需的攻击序列,从而得到其预测研究中所需的结果,促使我国信息化产业发展中的网络安全态势预测研究水平得以不断提升。以上所述的内容,客观地说明了基于时间维度分析的网络安全态势预测方法在网络安全态势预算研究应用中的重要性。因此,在实施网络安全态势预测研究工作计划时,研究人员应注重这类方法的合理使用,必要时也可引入基于空间维度分析的网络安全态势预测方法,使得网络安全态势研究中能够得到更多的研究成果。

3结束语

综上所述,若在处理网络安全问题中引入基于时空维度分析的网络安全态势预测方法并加以使用,能够给予计算机网络安全运行必要的支持,使得其能够更好地适应时代的发展要求。因此,未来应对网络安全问题、落实其研究工作时,为了确保其所需的分析方法有着良好的适用性,并实现对网络安全态势的科学预测,则需要相关人员能够对基于时空维度分析的网络安全态势预测方法有着更多的了解,并将其应用于网络安全研究中,满足网络安全使用要求。

参考文献:

[1]汪小霞.基于时空维度分析的网络安全态势预测方法研究[J].江苏科技信息,2017.

[2]史瑞芳.简析基于时空维度分析的网络安全态势预测方法[J].网络安全技术与应用,2015.

[3]李东博.基于云模型的网络安全态势评估研究[D].中国民航大学,2012.

[4]马杰.网络安全威胁态势评估与分析方法研究[D].华中科技大学,2010.

[5]卓莹.基于拓扑•流量挖掘的网络态势感知技术研究[D].国防科学技术大学,2010.