家乡小吃范文

时间:2023-04-01 08:21:22

导语:如何才能写好一篇家乡小吃,这就需要搜集整理更多的资料和文献,欢迎阅读由公文云整理的十篇范文,供你借鉴。

家乡小吃

篇1

温岭市泽国小学

四六班

卢佳菀

每个地方都有各自的小吃,小吃刚好代表了这里的特色。吃小吃就能吃出这个地方的风味。

嵌糕就是家乡小吃的一种。太阳刚升起来,街上就有人开始摆摊。一张桌子上,放着各种各样的馅料,旁边堆着一大段糕,用塑料布遮得严严实实的。不一会儿,就有人来买了。只见卖主打开塑料布,迅速切下一小段糕,把塑料布再盖回来。再用手把糕放在桌子上搓成长条状,用手按压,压成一个糕包,尾部粘起来,再根据客人的要求放上馅,接着把旁边都粘起来,只剩下一个口子,浇上汤,就很好吃了。又香又韧又柔,回到家乡一定要吃一个,才有回家的感觉。

炊圆也是家乡的小吃。但只在有喜事的时候才能吃的。炊圆做工精细,先是把糯米粉掺上水,和成一大团,再使劲的揉几下,直到已经有点韧性时就可以了。再取出一小块,揉成圆形,用大拇指在中间按压一个窝。接着在窝里放已经炒好的馅料,再把窝口封住就好了。然后放进笼里蒸。这可大有讲究,如果不按指定时间蒸好,汁就会溢出来。

篇2

铅山快乐作文培训学校二年级

黄思怡

我的家乡铅山是个江南古镇,这里环境优美,物产丰富,尤其是小吃种类繁多,远近闻名。我要夸夸家乡的小吃——肉丝粉。

先介绍它的制作过程吧。第一步,把米磨成米浆,水弄干以后揉成团,放在又细孔的木榨当中压榨出又细又长白白净净的米粉丝。 第二步做粉汤。把新鲜的猪肉切成丝,放进盐、酱油、拌上红署粉,再放进肉骨汤里烫熟。第三步,把米粉,放进开水中烫热装在大碗里,浇上肉丝骨头汤,放点葱、生姜末、就可以吃了。

肉丝粉又细又滑、柔嫩可口,味道鲜美,人人都爱吃,它成了我们早餐的首选。许多外地客人来铅山都会品尝一下它的美味,勤劳聪明的铅山人也把小吃店开到全国各地。因此,它的名气也越来越大。

篇3

鱼香肉丝是我们这儿着名的风味小吃。

鱼香肉丝的味道好,看相也不错。一个盘子中有绿油油的青椒,红艳艳的萝卜,黄澄澄的肉丝格外显眼,再浇上火红的辣汤,真令人垂涎三尺。

鱼香肉丝的做法很简单,把肉,胡萝卜。青椒都切成丝备用。在锅内倒入少许油,放入肉丝炒熟,让后倒在盘子里,再往锅里放入生姜,葱,辣椒,番茄酱,料酒等调料爆炒片刻,然后放入萝卜,青椒,翻炒,几分钟后一盆色香味俱全的鱼香肉丝便做成了。

篇4

我亲爱的妈妈在廿里镇的红塔超市上班,镇上有我最最喜欢吃的大烤饼。我喜欢吃又圆又大的烤饼,但不喜欢吃那种长长的烤饼。烤饼有两个品种,两种口味。一种是里面放了霉干菜的,味道有点甜,风味独特;另外一种里面是榨菜馅的,我也挺喜欢吃。

刚做出的烤饼很香很香,大老远都能闻到香气,闻一闻就会流口水。所以,每次经过烤饼店时,我都会让妈妈买一个尝尝。

有机会的话,我希望其它地方的小朋友能来我家乡玩,尝尝这儿的烤饼吧!

篇5

怡园小池虽然简单,却很美。在小池旁边有一座小小的假山,假山上有两个大大的字——怡园;小池周围有一个密密的小树林,树林长得郁郁郁葱葱的,隐隐约约可以看见几张用石有关当局做成的桌子和凳子,正好和小池旁边用鹅卵石铺成的小路相映衬。

弯弯曲曲的小路包围着小池。小池的水清清的,一眼就能看见池底那各色各样的鹅卵石,有的像星星,有的像月亮,有的像小鸟……可惜没有鱼,少了一点生机。

站在水边突起的石块上能感觉到一丝丝凉意,突然,一颗石子落到水中,就溅起了小小的水花,水花像珍珠般闪亮,照出了红、黄、绿、蓝、紫、白等光,五颜六色,美丽极了。

篇6

【关键词】 普通高校;武术教育;价值功能

一、前言

正确认识武术教育的价值功能事关普通高校武术教育的发展方向。武术教育伴随时代的变迁而发展变化,不同时期有着不同的发展目标。在新的国际形势下,在实现中华民族伟大复兴中国梦的征程中,武术教育能为实现中国梦增强文化软实力,在多元化的信息时代,普通高校武术教育价值功能的研究应放眼于全人类的高度,呈现出多样化的发展态势,高校武术教育的价值功能要承载世界范围内的普及与推广、文化的传承、保卫国家利益、培育民族精神的功能,高于体育本身。

二、坚持高校武术教育的正确价值导向

1、武术教育的定位应重文化教育,绝非体育教育本身

武术源于中国,源远流长,它是在中国几千年的历史和文化中孕育形成和发展起来的,蕴含着中华民族深厚的文明历史和灿烂的文化,武术之所以能经久不衰,有惊人的生命力,不仅仅是因为武术具有强身健体和技击价值,更重要的原因在于武术的文化魅力。主要体现在礼仪、武德、和谐,“未曾学艺先学礼, 未曾习武先明德”。古代时,要想学习武术首先要学礼仪,在现代,武术界的“抱拳礼”依然体现着武术以礼为先的文化特性。礼仪潜移默化的影响大学生要尊师重道,构建公正、正义、公道的道德准则。武德是在传统伦理道德基础上形成和发展起来的,它不仅仅对习武者有制约机制,更重要的是通过习武的锤炼过程,培养大学生遵纪守法、奋发进取、勇敢顽强、心胸宽阔、不怕困难、敢于竞争、勇于奉献等良好的修养,能以宽厚的德行看待世界。加强他们以弘扬民族精神、传承民族文化为己任的责任心和民族自豪感。“和谐”观的构建是武术追求的又一境界。自我身心和谐、人际间和谐及人与自然的和谐。“和谐”观能引领大学生珍爱生命,提高生命价值、而不仅限于生活质量,实现人与自然、人与社会的和谐健康发展。因此,普通高校武术教育要改变以往的以传习技能为主的教育模式,注重文化教育。

2、面向全世界,普及与推广中华武术

优秀的文化应该属于世界,被世界人民分享。武术作为我国优秀的传统文化体育项目,至今还没有被列入奥运会的正式比赛项目,作为高校武术教育应面向世界,加强武术的普及与推广工作。学校教育是武术发展的重要阵地。纵观日本的柔道和空手道,韩国的跆拳道民族体育项目,它们的传播都是先通过学校教育的普及与推广,逐步渗透至社会层面,最终成为世界人民共享的体育文化财富。大学生是祖国未来建设的主力军,人群庞大,具有较高的道德、文化素养,是文化传播的重要力量,因此,普通高校武术教育不仅要从技术层面普及与推广武术,而且要教育大学生在武术的国际化发展、推广武术文化方面发挥重要的作用。

3、传承武术文化,融合世界优秀文化,符合世界文化发展方向

武术在中国道教、佛教、儒家思想传统文化的影响下,融合了哲学、伦理学美学、中医学、兵法等,具有独特的文化形式。随着世界经济、文化的全球化发展,在新时期世界文化交流,优秀文化共享的背景下,武术技能和文化传承教育相结合是当今高校武术教育的发展方向。这对于大学生强化民族精神,弘扬民族正能量,内化人格魅力,构建正确的人生观、世界观和价值观等具有重要的意义。在世界文化发展中,各国文化共同发展,也相互冲撞。武术不仅具有民族性,而且与世界上任何体育项目一样,具有世界性,武术的民族性和世界性是对立统一,不可分割的,武术文化的传承离不开世界性,要让世界人民了解和接受中国武术,了解武术文化魅力,就必须处理好武术文化与世界文化之间的关系,把握世界人民的文化需求,符合世界文化发展方向,融合国外优秀文化。高校武术教育要注重对大学生在中国武术文化与世界优秀民族文化方面的教育,使他们获得全面、丰富的知识,有利于与世界人民沟通、相互学习与交流,有利于武术文化的传承。

4、国家利益为重,弘扬民族精神

中国传统社会中,由于家庭本位和国家一体制,群体价值高于个体价值,家庭、国家高于个体的绝对价值,使中国文化形成了群体本位价值观。这种传统观念对武术产生了很大的影响。习武者展现出的是一种民族精神气概,不计较个人得失,维护国家和集体利益、团结和谐的民族向心力。随着社会主义市场经济的发展,人们的需求也随之提高,不仅要得到一定的物质需求,而且还需要得到一定的精神满足,不可避免会使一些人价值观迷失,信仰偏差,丧失了正确的理想和信念,物质、欲望、金钱冲昏了头脑,拜金主义、实用主义、功利主义吞噬着他们的心灵。高校大学生正处在人生观、价值观、世界观形成的不稳定阶段,更易于导致价值取向的扭曲,迷失正确的人生发展方向,目前高校存在着部分大学生追求实惠,贪图享乐,以个人利益为重,不关心国家发展,以自我为中心,严于批评别人,不善于反思自己的现象。在当前国际形势复杂、多变,各国间竞争激烈的国际形势下,中国作为发展中的大国,正处在突飞猛进的快速发展时期,在世界舞台上发挥着重要的作用。大学生作为未来国家发展建设的重要力量,肩负着非常重要的任务。武术“内外兼修”的独特性,不仅自身具备健身、技击价值,它渗透着传统文化的基本精神,其中包括以国家利益为重,国家利益超越个人利益,民族积极奋进的精神价值观,因此,高校要通过武术教育,构建学生积极向上的正确人生观、价值观、世界观,教育他们把国家利益放在首位,为国家和社会发展树立远大的理想和抱负,继承和发扬中华民族精神,并世代传承。

三、结论

青年一代,事关国家未来兴衰,高校人口数量庞大,在复杂多变的国际形势下,在我国政治、经济、文化大发展的新时期,武术作为中国优秀传统文化体育项目,要迎合国家、社会的需要,正确定位高校武术教育应承载的主要功能,面向世界,构建超越体育本身固有的健身功能大教育观,即注重武术的文化教育;面向世界,普及与推广武术的使命感;武术文化与世界优秀文化相融合,传承武术文化,与世界人民共享、共发展;国家利益高于一切,甚至不惜牺牲自己的生命,弘扬民族精神,使高校武术教育能更好的体现出多元的社会化价值。

【参考文献】

[1] 颜世亮.文化传承视域下学校武术教育管窥[J].体育科技,2014(1)163-164.

[2] 关博,杨兆山.武术教育的文化性探析[J].体育与科学,2014(3)83-87.

[3] 杨绍勇,孙健.学校武术教育与立德树人研究[J].搏击・武术科学,2014(4)27-30.

篇7

1 坚持价值思维和效益导向,要从解放思想入手 

思想是行动的先导,电力企业的干部职工通过多年的实践已经充分认识到,作为企业来说,创造价值、谋求效益是其存在的根本目标之一。必须把思想意识统一到坚持价值思维和效益导向上来,行动自觉融入到各个岗位、每项工作中,心往一处想,劲往一处使,形成一股无坚不摧的合力,才能将各项工作不断推向前进。 

在解放思想、凝聚共识的过程中,干部职工首先要强化思想引领和作风建设。客观分析形势,从思想上杜绝浮、夸、虚的作风;坚决摆脱国企职工的优越感,走出等、怨、要的怪圈。主动适应市场需求、分析市场形势、应对市场变化、掌控市场发展,真正站在市场竞争的高度去思考、解决问题,彻底摒弃不良习气和依赖心理,切实增强危机意识、责任意识,立足于当前正确审视面临的困难,将困难当作一种考验,磨练我们的意志、锻炼我们的能力,着眼于大局认真思考解决问题的方法,对外积极开拓市场,增强创收能力;对内节约挖潜,控制关键成本。全员坚定信心、同心同德,以思想的转变带动观念的更新,以观念的更新推动行动上作为,进而变风险为机遇,实现压力与责任的“双重传递”,从而使全员上下同欲、同心,共同应对严峻挑战。 

大唐集团公司在深刻领会“价值思维和效益导向”的精神实质和客观要求的同时,针对电力企业生产经营实际,提出了一系列行之有效的思路、方法和措施。开展的“三效三责”效益责任行动、“实现价值从我做起”手写征文、“双提升”大家谈等活动,可以从各个方面、各个岗位全方位剖析树立价值思维效益导向的极端重要性,阐述如何立足本职、多做贡献,从而营造出“一切为了效益、一切服务效益、一切创造效益”的良好氛围。 

2 坚持价值思维和效益导向,要从务实创新切入 

创新是事业发展的催化剂,务实是事业成功的强心针。十报告中提出,要“实施创新驱动发展战略”。而创新,也必将成为电力企业转方式、调结构、强管理、增效益的动力之源。但是创新不能只是空中楼阁,更重要的是要有务实的举措和实实在在的方法。务实创新,光靠勇气不行,还要有善创实干的能力。能力的提高,也需要不断学习新知识,关注新形势,多思考研究深化企业发展中出现的复杂问题,想出新办法,拿出新举措,改出新气象,开出新天地。 

一是创新观念,把价值思维和效益导向的理念贯穿到企业工作的每一个环节当中,通过管理的强化、制度的完善、素质的提升,以市场为导向,转变观念、深化改革,采取有效措施,加大工作力度,把经济效益作为一切工作的检验标准和评价依据。二是加强学习,全面加强学习型组织建设,在学习内容的时效性、实用性上下功夫,围绕“经济效益这一中心”出实招,将工作的重心转移到引导、动员广大干部职工“创效”上来,杜绝搞轰轰烈烈的形式主义,只求实实在在的业绩效果,为企业中心工作服务。三是强化作风,加强党的领导和党员作风建设,对表现优秀的党员进行重点宣传并进行培养,营造浓厚的争先氛围,确保党员在关键时期、关键时刻、关键岗位、关键任务中承担起责任、发挥出作用。四是以人为本,加强对党员干部和职工群众的思想、学习、工作和生活各个方面的人文关怀,加强信息的传递和掌握,使全员全面掌握适应当前电力市场竞争的新知识、新理念,打造适合企业当前需要的创效人才。五是文化引领,努力调动职工积极性,广大干部党员率先垂范,细化责任和任务,出实招、办实事、求实效,抓住重点工作、重点目标、重点任务不放松,用先进的文化理念引导全员凝心聚力、同心攻坚。 

务实创新,需要有“敢向自己开刀”的勇气,更需要“敢为天下先”的胆识。结合实际在创新上下工夫,在创新中破解发展难题、提升发展水平。根据分管工作和生产经营指标,对各个方面、各个专业、各个层面的事项进行梳理盘点,全力挖掘创效“造血点”,积极完善各项管理制度,激发了基层职工务实创新、奋勇拼搏的积极性。 

3 坚持价值思维和效益导向,要从真抓实干开始 

坚持“价值思维和效益导向”,不仅是当前一个时期电力企业发展的必然要求,同时也是企业未来发展的科学定位。电力企业职工要把对“中国梦”的期待转化为一项项具体措施,落实到一件件实事之中,就必须把“价值思维和效益导向”贯穿至生产经营的每一项工作当中,采取有效措施,加大工作力度,千方百计想办法、创效益,确保工作任务和经营目标的扎实推进。在实际工作中,把经济效益作为工作的检验标准和评价依据,通过管理的强化、制度的完善、素质的提升,使企业由内而外、强基固本、焕发生机。每名电力职工,都应争做最好的自己,对自己负责,把对企业的深深热爱转化为拼搏进取、尽责履职、敬业奉献的实际行动。实现“中国梦”在于行动,在于实干。唯有真抓,才能直面问题攻坚克难;唯有实干,才能持续实现“中国梦”的坚实脚步。 

坚持“价值思维和效益导向”,要强化责任意识和忧患意识。将效益提升作为企业的中心任务和头等大事,将其提升到企业生存与发展的高度来认识,使其成为应对严峻挑战的根本需求和最大保证。实现压力的层层传递,增强执行力,把全部精力集中到工作上,对各个方面、各个专业、各个层面的事项进行梳理盘点,全力找出、找全有可能增加企业效益的事项,对相关事项制定科学、有效、得力的实施方案,确保各项目标务期必成。 

外部形势无法改变,能够改变的唯有自我提升。根据市场波动及时调整战略方针和经营方向,也要做好工作中每一个细节。充分利用财务管理系统的管控功能,强化费用事先审批程序,严格按照分解预算进行每一项成本费用的审批,加强成本费用的事先控制。认真分析研究新《安全生产法》、《环保法》,严格执行国家法律法规,持续优化环保生产指标,认真落实节能减排行动计划。通过指标预警管理,日分析、周点评、月总结,进一步加大环保运行方式调整、指标监控力度。万涓成河,千流入海,只要认真从有利于企业的每一件小事做起,就会有收获、有成绩,就会促进企业的蓬勃发展。 

篇8

1.南宁阿里妈妈烧烤(含烤肉腌渍料、烧烤油、海鲜烧烤秘方)

2.河南安阳“孟记炒鸡”秘方(含炒鸡酱及炒鸡粉秘方)

3.飘香鸡(含复合飘香粉料配方)、八宝布袋鸡

4.河南灵宝“傻妹包子”(含骨头汤熬制、香料汁煮制、红薯粉条涨发工艺配方)

5.14种火爆热卖特色爆米花

6.正宗长沙桔香手撕鸭(含特制桔香卤水、桔香油配方)

7.温州乡骨里香鸡香巴佬熟食(含料水、香料、老汤、酱鸡汤等核心配方)

8.百度烤肉

9.天津百饺园水饺馅料经典调制秘方

10.重庆德庄清一色火锅技术(包括底料、鲜汤、味碟、兑锅配方)

11.农夫烤鸡、黄泥巴烤鸡

12.价值万元疯狂烤翅绝密配方

13.上海香嫩里脊炸串

14.正宗河间张果老驴肉火烧

15.济南刘氏锅贴(含肉汤料、海鲜汤、香料油秘方)

16.北京锦州饭店“锦州烤鱼”秘制烧烤酱料、腌料、油料、干料配方

17.西安张氏特色烤面筋配方工艺

18.山东临沂王小二炒鸡(含秘制炒鸡粉配方)

19.伤心凉粉、开心凉粉、冰粉(含三种味汁调制配方)

20.全国连锁“永和豆浆”油条

21.正宗西安凉皮(料粉、香料水、油泼辣子秘制配方 )

22.筋头巴脑牛一锅火锅(秘制酱料、底油、卤肉酱汤配方及操作工艺)

23.正宗东北“高压嘎巴锅”(酱料、油料、香料配方及锅型制作)

24.魔石咕噜鱼(含汤料配方、酱料配方)

25.价值2万元武汉周黑鸭绝密配方

26.河北邯郸圣旨骨酥鱼(含酥鱼滋补料18种配料用量核心配方)

27.金牌烤全兔

28.北京“胜利玉林烤鸭店”精品酥香烤鸭(独家关键秘技、玉林面酱配方)

29.北京猪脚巷风味烤猪蹄(秘制烤蹄卤水、酱料、蘸料配方)

30.金枣果疏香不腻烤鸭(含疏香汁、脆皮水、鸭酱及二次风吹冷冻等5大技术配方)

31.李厨相思鸭配方工艺

32.山西一绝“驴肉香”酱驴肉(含老汤配方调制)

33.成都耗子洞张鸭子(含香辛药料配方)

34.安徽无为酱鸭(附秘制酱汤配方)

35.澳门豆捞

36.山东“石蛤蟆”水饺

37.湖南韶山毛家红烧肉(9大制作关键)

38.绝味香辣熏鸡架、烤鸡架

39.云南沾益龚氏辣子鸡

40.武大郎烧饼、潘金莲咸菜、王婆南瓜粥 41.一品飘香砂锅米线、砂锅面、砂锅粉、砂锅土豆粉等加盟店全套配方技术(含秘制麻辣料、鲜汤、酱卤配方)

42.湖南如意楼水晶酸辣粉

43.功夫麻辣烫

44.内蒙古小肥羊连锁火锅

45.贵州花溪王记牛肉粉

46.正宗土家酱香饼

47.大连铁板鱿鱼(绝密烧烤酱配方 )

48.河南开封小笼灌汤包

49.乡村大妈铁锅烩菜

50.李连贵熏肉大饼(含香料包配方)

51.正宗麦多馅饼

52.长沙龚得包连锁店灌汤包

53.重庆诸葛烤鱼加盟店配方

54.干锅辣鸭头

55.啤酒烤鸭(含腌料卤水、飘香料机密配方)

56.正宗十三香龙虾(含十三香麻辣酱、秘制麻辣型、浓香型十三香粉绝密配方)

57.忽必烈烤羊排(含专用卤水及自制孜然香粉配方)

58.正宗公婆饼

全套资料10万字,所有配方技术真实可靠,确保正宗,毫无保留,详细易懂简单好学,并有专业老师免费提供技术指导,仅收编辑成本费488元,前100名订购388元,款到一律用快递免费发出!

汇款地址:武汉市洪山区书城路40号洪山经济开发区 CBI动漫产业孵化基地902室

收款人:《创富指南》杂志读者服务部(收) 邮编:430071 联系人:尧老师

篇9

ス丶词:

序贯最小优化;双边加权模糊支持向量机;支持向量机;模糊支持向量机

ブ型挤掷嗪: TP301.6 文献标志码:A

Abstract: High computational complexity limits the applications of the BilateralWeighted Fuzzy Support Vector Machine (BWFSVM) model in practical classification problems. In this paper, the Sequential Minimal Optimization (SMO) algorithm,which firstly decomposed the overall Quadratic Program (QP) problem into the smallest possible QP subproblems and then solved these QP subproblems analytically, was proposed to reduce the computational complexity of the BWFSVM model. A set of experiments were conducted on three real world benchmarking datasets and two artificial datasets to test the performance of the SMO algorithm. The results indicate that compared with the traditional interior point algorithm, the SMO algorithm can reduce significantly the computational complexity of the BWFSVM model without influencing the testing accuracy, and makes it possible for the BWFSVM model to be applied to practical classification problems with outliers or noises.

Key words: Sequential Minimal Optimization (SMO); BilateralWeighted Fuzzy Support Vector Machine (BWFSVM); Support Vector Machine (SVM); Fuzzy Support Vector Machine (FSVM)

0 引言

支持向量机(Support Vector Machine,SVM)是模式识别和机器学习领域的一种很重要的分类和非线性函数估计方法,其主要的缺点是标准的支持向量机模型对噪声和孤立点是敏感的[1]。针对这一问题,Lin等人[2]在2002年提出了模糊支持向量机(Fuzzy Support Vector Machine,FSVM),Jayadeva等人[3]在2005年提出了模糊近边界支持向量机,Tao等人[4]在2004年提出了一种基于加权间隔的模糊支持向量机。

模糊支持向量机的关键是如何设置训练样本的模糊隶属度。针对这个问题,2005年,Lin等人[5]通过引入置信因子和无用因子提出了模糊隶属度的自动生成方法。2006年,Jiang等人[6]基于高维特征空间样本与类中心的距离提出了一种新的模糊隶属度函数。2004年,基于模糊C均值聚类和模糊ifthen规则,Leski[7]提出了Е弄Ъ涓舴窍咝苑掷嗥骼唇饩龃孤立点或噪声点的分类问题,并提出了迭代设置样本权重和集成学习的策略。

在以上提出的模型中,模糊隶属度si是对应样本点属于某一类的程度,而1-si是无意义的程度。考虑到在实际的分类问题中,同一个样本点可能属于多个类,Wang等人[8]分别提出了双边加权模糊支持向量机模型和它的最小二乘版本[9]来评估信贷风险。2008年,Jilani等人[10]将双边加权模糊支持向量机应用在多分类问题中。对于一个具有lЦ鲅本点的训练集,双边加权模糊支持向量机模型需要解2lЦ霰淞康亩次规划问题。在先前的研究中,这个模型运用传统的优化算法来求解,其计算复杂度为O(8l3)。У毖盗费本上万时,如果计算机没有足够的内存,用传统的优化算法来求解双边加权模糊支持向量机模型是不现实的,这就限制了其在实际中的应用。目前,如何降低计算复杂度是双边加权模糊支持向量机模型的关键问题之一。在本文中,我们主要处理这个问题。

在支持向量机领域中,分解算法是处理实际分类问题的主要算法之一[11-13]。其中序贯最小优化(Sequential Minimal Optimization,SMO)算法的应用最广泛[14]。SMO算法将整个二次规划问题分解成一系列规模为2的二次规划子问题,然后解这些二次规划子问题,这使得SMO算法解决大规模分类问题成为可能。目前,SMO算法在大规模的分类问题中已有应用[15-20]。为了降低计算复杂度,本文用SMO算法求解双边加权模糊支持向量机(BilateralWeighted Fuzzy Support Vector Machine,BWFSVM)模型,使得该模型在实际分类问题中的应用成为可能。

1 双边加权模糊支持向量机模型

对于二分类问题,给定如下的训练数据集

T={(x1,y1),(x2,y2),…,(xl,yl)}(1)

2005年,Wang等人[8]将训练集扩展如下:

Tb={(x1,+1,m1),(x1,-1,1-m1),(x2,+1,m2),(x2,-1,1-m2),…,(xl,+1,ml),(xl,-1,1-ml)}(2)

其中输入数据xn∈Rp,对应的类标yn∈{-1,+1},mn是xn属于+1类的模糊隶属度。オ

基于训练集Tb,双边加权模糊支持向量机的原问题[8]如下:

И┆minw,b,ξn,ξn′12w2+C∑ln=1(mnξn+(1-mn)ξn′)(3)

s.t.w•φ(xn)+b≥1-ξn; n=1,2,…,l,И

w•φ(xn)+b≤-1+ξn′; n=1,2,…,l,

Е为n,ξn′≥0; n=1,2,…,l,И

式中:w是超平面的法向量,b是偏项,φ(xn)是将xnв成涞礁呶特征空间的非线性映射,Е为n,ξn′是松弛变量,C是控制模型复杂性和训练误差的正则化常数。

原始优化问题的对偶问题为:

И┆minαi,αi′12∑ln=1∑lt=1(αn-αn′)(αt-αt′)k(xn,xt)-

∑ln=1(αn+αn′)(4)

s. t.Аln=1(αn-αn′)=0,И

0≤αn≤Cmn;n=1,2,…,l,И

0≤α′n≤C(1-mn);n=1,2,…,l,И

其中k(xn,x)=(φ(xn),φ(x))是Mercer核函数。

求解上面的优化问题,从而可以得到如下的决策函数。

f(x)=∑ln=1(αn-αn′)k(xn,x)+b(5)

从对偶问题(4)可知,对于lЦ鲅本的训练集,双边加权模糊支持向量机模型需要求解2lЦ霰淞康亩次规划问题。如果用传统的优化算法来求解此模型,其计算复杂度O(8l3)限制了其在实际分类问题中的应用。在后边的研究中,考虑到SMO算法在实际分类问题中的广泛应用,我们给出求解对偶问题的SMO算法。

2 BWFSVM模型的SMO算法

本章首先给出对偶问题(4)的最优条件,其次给出选择工作集的策略,然后给出更新拉格朗日乘子的公式,最后给出SMO算法的步骤。

2.1 对偶问题的最优条件

对偶问题(4)的拉格朗日函数如下:

LD(αn,αn′,β,πn,ψn,δn,ηn)=

12∑ln=1∑lt=1(αn-αn′)(αt-αt′)k(xn,xt)-

∑ln=1(αn+αn′)+β∑ln=1(αn-αn′)-∑ln=1πnαn-∑ln=1ψnαn′-

∑ln=1δn(Cmn-αn)-∑ln=1ηn[C(1-mn)-αn′](6)

式中:Е, πn≥0, ψn≥0, δn≥0和ηn≥0是拉格朗日乘子。オ

Fn=-∑lt=1(αt-αt′)k(xt,xn);n=1,2,…,l(7)

对偶问题(4)的最优条件如下

ИLD(αn,αn′,β,πn,ψn,δn,ηn)郸联n=

-Fn-1+β-πn+δn=0 (8)

ИLD(αn,αn′,β,πn,ψn,δn,ηn)郸联n′=

Fn-1-β-ψn+ηn=0 (9)

Е歇nαn=0;n=1,2,…,l(10)

Е转nαn′=0;n=1,2,…,l(11)

Е莫n(Cmn-αn)=0;n=1,2,…,l(12)

Е仟n[C(1-mn)-αn′]=0;n=1,2,…,l(13)

0≤αn≤Cmn;n=1,2,…,l(14)

0≤αn′≤C(1-mn);n=1,2,…,l(15)

Е歇n≥0,ψn≥0,δn≥0,ηn≥0;n=1,2,…,l(16)

为了方便讨论,先给出下面的定理。

定理1

当对偶问题取得最优解时,集合{n|αn=0,│联n′=0)},{n|αn=0,0

证明

假设集合{n|αn=0,αn′=0)}Х强铡S墒(8),(9),(12),(13),(16)可得:

-Fn-1+β≥0 (17)

Fn-1-β≥0(18)

由式(17),(18)可得

Fn+1≤Fn-1(19)

这是不可能的。故{n|αn=0,αn′=0)}是空集。

同理可证{n|αn=0,0

接下来,简要讨论mn=0, mn=1和 0

1)mn=0。由式(14)可知,αn=0,对于不同的αn′,в啥耘嘉侍獾淖钣盘跫可得:

У宝联n′=0时,Fn-1≥β;

当αn′=C时,Fn-1≤β;

当0

Fn-1≥β,αn′=0【取等?

或Fn-1≤β,αn′=C【取等?

或Fn-1=β,0

2)mn=1。由式(15)可得,αn′=0,Ф杂谌〔煌值的Е联n,Э梢缘玫阶钣盘跫为:

У宝联n=0时,Fn+1≤β;

当αn=C时,Fn+1≥β;

当0

Fn+1≤β,αn=0【取等?

或Fn+1≥β,αn=C【取等?

或Fn+1=β,0

3)0

У宝联n=0,αn′=C(1-mn)时,Fn+1≤β;

当αn=Cmn,αn′=0时,Fn-1≥β;

当αn=Cmn,αn′=C(1-mn)时,-1≤Fn-β≤1;

当αn=Cmn,0

当0

Fn+1≤β,αn=0,αn′=C(1-mn)

或Fn-1≥β,αn=Cmn,αn′=0

或-1≤Fn-β≤1,αn=Cmn,αn′=C(1-mn)

或Fn-1=β,αn=Cmn,0

或Fn+1=β,0

定义下面的指标集

I01={n|αn=0,αn′=0,mn=0}

I02={n|αn=0,0

I03={n|αn=C,αn′=0,mn=1}

I04={n|0

I05={n|αn=0,αn′=C,mn=0}

I06={n|αn=Cmn,αn′=0,0

I07={n|αn=0,αn′=0,mn=1}

I08={n|αn=0,αn′=C(1-mn),0

I1={n|αn=Cmn,αn′=C(1-mn),0

I2={n|αn=Cmn,0

I3={n|0

ИFn=Fn+1, n∈I03∪I04∪I1∪I3Fn-1, n∈I01∪I02∪I06∪I2

Fn=Fn+1, n∈I04∪I07∪I08∪I3Fn-1, n∈I02∪I05∪I1∪I2 オ

那么,最优条件可以改写为

Е隆塥Fn,n∈I01∪I02∪I03∪I04∪I06∪I1∪I2∪I3

β≥Fn,n∈I02∪I04∪I05∪I07∪I08∪I1∪I2∪I3 オ

b┆up=min{Fn,n∈I01∪I02∪I03∪I04∪I06∪I1∪I2∪I3}

b┆low=max{Fn,n∈I02∪I04∪I05∪I07∪I08∪I1∪I2∪I3}オ

则最优条件满足当且仅当

b┆low≤b┆up(20)オオ

2.2 选择工作集

设满足下面的两个条件之一的训练样本对为(i,j)オ

i∈I01∪I02∪I03∪I04∪I06∪I1∪I2∪I3,j∈I02∪I04∪I05∪I07∪I08∪I1∪I2∪I3 并且 ИFi

i∈I02∪I04∪I05∪I07∪I08∪I1∪I2∪I3,j∈I01∪I02∪I03∪I04∪I06∪I1∪I2∪I3 并且 ИFi>Fj (22)

那么这样的训练样本对(i,j)Фㄒ辶艘桓雒盾对。

i_up=argmin{Fn,n∈I01∪I02∪I03∪I04∪I06∪I1∪

I2∪I3}(23)オ

i_low=argmax{Fn,n∈I02∪I04∪I05∪I07∪I08∪I1∪

I2∪I3}(24)お

并且 b┆low>b┆up(25)

那么训练样本对(i_low,i_up)Фㄒ辶艘桓鲎畲蟮拿盾对,为了提高优化过程的速度,我们采取两个策略来挑选工作集:一个是最大矛盾对策略,也就是说将式(23)和(24)定义的最大矛盾对(i_low,i_up)挑选到工作集内进行优化,另一个策略是全部违反策略,将所有满足式(21)或(22)的矛盾对都放到工作集里进行优化[21]。

2.3 更新拉格朗日乘子Е联i,αi′,αj和 αj′オ

由指标集的定义可知,由于i和j属于不同的集合,这样就有九种集合的组合方法来确定要优化的变量对,具体组合见表1。

由表1可知,在优化过程中,仅仅需要优化其中的4个变量对(αi,αj),(αi′,αj′),(αi′,αj)和(αi,αj′)。オ

(αi-αi′)+(αj-αj′)=(α┆oldi-α┆oldi′)+

(α┆oldj-α┆oldj′)=γ (26)

Е=k(xi,xi)+k(xj,xj)-2k(xi,xj)(27)

Е摘t=∑ln=1(α┆oldn-α┆oldn′)k(xn,xt)+b; t=1,2,…,l(28)

Sw={i, j}(29)

将式(4)的目标函数12∑ln=1∑lt=1(αn-αn′)(αt-αt′)k(xn,xt)-∑ln=1(αn+αn′)д箍可得

12∑ln=1∑lt=1(αn-αn′)(αt-αt′)k(xn,xt)-

∑ln=1(αn+α′n)=12(αi-αi′)2η+

(αi-αi′)[(φi-φj)-η(α┆oldi-α┆oldi′)]-

∑n∈Sw(αn+αn′)+C1(30)

其中C1是常数。

如果待优化的变量对是(αi,αj)和(αi′,αj′),设定s=1,否则s=-1,由式(30)可知,对偶问题(4)等价于下面的优化问题:オ

Иmin12(αi-αi′)2η+(αi-αi′)[(φi-φj)-

η(α┆oldi-α┆oldi′)]-(αi+αi′)(1-s)(31)お

s. t.Е联i∈[L,H],αi′∈[L′,H′]お

其中:H和L分别是αi的上、下界,H′和L′分别是αi′的上、下界。关于αi和αi′У奈拊际最小优化问题如表2。

オЕ联i和αi′的最终的计算公式分别如下:オ

Е联┆newi=

H,α┆unconstrainedi≥H

α┆unconstrainedi,L

L,α┆unconstrainedi≤L (32)

Е联┆newi′=

H′,α┆unconstrainedi′≥H′

α┆unconstrainedi′,L′

L′,α┆unconstrainedi′≤L′ (33)オ

基于式(26),我们能够计算Е联i和αi′ё钪盏闹怠*

2.4 确定Е联i和αi′У纳舷陆绐

由等式(14)、(15)、(26)可以得到待优化的变量对与其对应的上下界的关系如表3。

要优化的变量对变量对对应的上下界

(αi,αj)L=max(0,γ+αi′+αj′-Cmj),H=min(γ+αi′+αj′,Cmi)

(αi,αj′)L=max(0,γ+αi′-αj),H=min(γ+αi′-αj+C(1-mj),Cmi)

(αi′,αj)L′=max(0,-γ+αi-αj′),H′=min(-γ+αi-αj′+Cmj,C(1-mi))

(αi′,αj′)L′=max(0,-γ+αi+αj-C(1-mj)),H′=min(-γ+αi+αj,C(1-mi))

2.5 更新Fnオ

在优化过程中,每一步优化之后,Fn需要进行更新,更新FnУ墓式如下:

F┆newn=F┆oldn-∑t∈Sw[α┆newt-α┆oldt-(α┆newt′-α┆oldt′)]k(xt,xn);

n=1,2,…,l(34)

2.6 双边加权模糊支持向量机的SMO算法

基于上面的分析,我们给出双边加权模糊支持向量机的SMO算法如下:

步骤1

输入训练数据集和超参数的值

步骤2

设定拉格朗日乘子Е联n和αn′的初始值,n=1,2,…,l。オ

步骤3

利用式(23)和(24),计算i_low,i_up。オ

步骤4

检查i_low和i_up是否违背式(25),如果违背了,就优化对应的拉格朗日乘子αi_low,αi_low′,αi_up和αi_up′,然后返回步骤3;否则继续。オ

步骤5

遍历所有的训练样本i,Ю用式(21)和(22)检查是否存在与i匹配的j,如果存在,优化对应的拉格朗日乘子Е联i,αi′,αj和 αj′,Х祷夭街3。如果所有的训练样本都不违背式(21)和(22),就转到步骤6。

步骤6 输出支持向量和对应的拉格朗日乘子。

对于双边加权模糊支持向量机的对偶优化问题,SMO算法在每一步优化中仅仅挑选两个拉格朗日乘子去优化,解析地求解这两个拉格朗日乘子,避开了整体优化数值二次规划;另外,SMO算法也不需要额外存储矩阵,这些优良的特征使得双边加权模糊支持向量机在带噪声和孤立点的分类问题中的应用成为可能。双边加权模糊支持向量机模型中涉及到2l个变量,因此其时间复杂度为O((2l)2.2)[14]。И

3 数值实验和讨论

在三个实际数据集和两个人工数据集上进行实验来测试SMO算法的性能。为了比较双边加权模糊支持向量机模型和标准支持向量机模型的性能,我们也用SMO算法[18]求解标准的支持向量机模型。为了表明SMO算法大大降低了计算复杂性,给出了利用预测―校正算法(Predictorcorrector algorithm,PrCo)[22]即传统的内点算法来求解双边加权的模糊支持向量机模型的结果。

3.1 实验环境和数据集

实验中,采用高斯核函数,通过网格剖分方法来寻找近似的最优超参数,剖分的网格为Е=[2-4,2-3,2-2,…,25]和C=[20,21,22,…,29],С绦蛟诵械挠布环境是拥有英特尔双核处理器、最大内存3.25@GB,CPU为3.16@GHz的PC,软件环境是Windows XP,编程语言是C++,编译器是VC++6.0。

Letter和Statlog数据集来自于hpp://archive.ics.uci.edu/ml,并经过了如下的预处理使之变为二类数据集:Letter是一个26类的数据集,将类标为{A,B,…,M}的看成正类,类标为{N,O,…,Z}看成负类;Statlog是一个6类的数据集,将类标为{1,2,5}的看成正类,类标为{3,4,6}看成负类。数据集的其他详细信息如表4。

3.2 产生模糊隶属度

数据集Ripley,人工数据集1,人工数据集2的模糊隶属度利用下面的方法设置。

设在高维特征空间中正类和负类的中心分别为

Е摘+(x)=1l+∑l+i=1φ(xi)

φ-(x)=1l-∑l-i=1φ(xi)お

其中l+和l-Х直鹞正负类的样本数。

训练获得的分类超平面为

w•φ(x)+b=0И

其中w=(φ+(x)-φ-(x)),b=[-(φ+(x)-φ-(x))×(φ+(x)+φ-(x))]/2。オ

如果yi=+1,那么

mi=min(0.5×(1+w•φ(xi)+bw•φ+(x)+b),1.0)お

否则mi=max(0.5×(1-w•φ(xi)+bw•φ-(x)+b),0.0)。オ

如果mi1,那么就删除训练集中对应的样本点。オ

对于Letter和Statlog数据集,用Keller和Hunt提出的策略产生模糊隶属度[24]。

mi=

0.5×(1+exp(C0(d-(xi)-d+(xi))/d)-exp(-C0)exp(C0)-exp(-C0))

yi=+1

0.5×(1-exp(C0(d+(xi)-d-(xi))/d)-exp(-C0)exp(C0)-exp(-C0))

yi=-1 (35)

其中d+(xi)=φ(xi)-φ+(x),d-(xi)=φ(xi)-│摘-(x),d=φ+(x)-φ-(x)。C0是控制隶属度函数的参数。在实验中,通过在网格C0=[-100,-90,…,90,100]中搜索寻找到最优值C0=-100。オ

3.3 实验结果和分析

为了评估SMO算法的性能,表5列出了SMO算法、PrCo算法和标准的SVM模型的测试精度、训练时间和对应的最优超参数。

由表5可知,与PrCo算法相比,SMO算法大大降低了双边加权支持向量机模型的计算复杂度,例如,对于Statlog和Letter数据集,所提出SMO算法仅仅分别花费46.625@s和634.969@s。然而对于Statlog数据集,PrCo算法用了118B708.203@s,对于Letter数据集,由于没有足够的内存从而不能进行训练。另一方面,如果模糊隶属度设置得合理,双边加权模糊支持向量机模型比标准的SVM模型能获得更好的性能。例如,对于数据集Ripley、Statlog、人工数据集1和人工数据集2,双边加权支持向量机模型的测试精度高于标准的SVM模型;对于Letter数据集,双边加权支持向量机模型的测试精度与标准的SVM模型的测试精度一样。

4 结语

对于双边加权模糊支持向量机模型的高计算复杂度问题,本文运用SMO算法来求解。实验结果表明:与PrCo算法相比,SMO算法大大降低了模型的计算复杂度,使得双边加权支持向量机模型在带噪声和孤立点的实际分类问题中的应用成为可能。尽管SMO算法只在二分类问题上进行了实验,但是它也能够很容易应用到多分类问题中。

在以后的工作中,需要继续探索设置双边加权模糊支持向量机模型的隶属度的算法,进一步研究SMO算法在实际分类问题中的应用。

げ慰嘉南:

[1] ZHANG X G.Using classcenter vectors to build support vector machines[C]// Proceedings of the 1999 IEEE Signal Processing Society Workshop. New York: IEEE, 1999:3-11.

[2] LIN C F,WANG S D. Fuzzy support vector machines[J]. IEEE Transactions on Neural Networks,2002,13(2):464-471.

[3] JAYADEVA A, KHEMCHANDANI R, CHANDRA S. Fast and robust learning through fuzzy linear proximal support vector machines[J]. Neurocomputing, 2004(61):401-411.

[4] TAO QING.WANG JUE. A new fuzzy support vector machine based on the weighted margin[J]. Neural Processing Letters,2004,20(3):139-150.

[5] LIN C F,WANG S D. Fuzzy support vector machines with automatic membership setting[C]// Studies in Fuzziness and Soft Computing. Berlin:Springer,2005:233-254.

[6] JIANG X F,YI Z, LV J C. Fuzzy SVM with a new fuzzy membership function[J]. Neural Computing and Applications, 2006,15(3/4):268-276.

[7] LESKI J K. An εmargin nonlinear classifier based on fuzzy ifthen rules[J]. IEEE Transactions on Systems, Man, and Cybernetics Part B: Cybernetics,2004,34(1):68-76.

[8] WANG Y Q,WANG S Y, LAI K K. A new fuzzy support vector machine to evaluate credit risk[J]. IEEE Transactions on Fuzzy Systems,2005, 13(6):820-831.

[9] HUANG W, LAI K K,YU L, et al. A least squares bilateralweighted fuzzy SVM method to evaluated credit risk[C]// Proceedings of the 4th International Conference on Natural Computation.Washington, DC:IEEE Computer Society, 2008:13-17.

[10] JILANI T A,BURNEY S M A. Multiclass bilateralweighted fuzzy support vector machine to evaluate financial strength credit rating[C]// International Conference on Computer Science and Information Technology. Washington, DC: IEEE Computer Society, 2008: 342-348.

[11] DONG J X, KRZYZAK A,SUEN C Y. Fast SVM training algorithm with decomposition on very large data sets[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27(4):603-618.

[12] JOACHIMS T. Making largescale SVM learning practical[C]// Advances in Kernel MethodsSupport Vector Learning. Cambridge: MIT Press, 1998:169-184.

[13] OSUNA E, FREUND R, GIROSI F. Training support vector machines: an application to face detection[C]// Proceedings of 1997 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 1997:130-136.

[14] PLATT J C. Sequential minimal optimization: a fast algorithm for training support vector machines[C]// Advances in Kernel Methods. Cambridge: MIT Press, 1998:185-208.

[15] CHEN P H, FAN R E, LIN C J. A study on SMOtype decomposition methods for support vector machines[J]. IEEE Transactions on Neural Networks,2006, 17(4): 893-908.

[16] KEERTHI S S,GILBERT E G. Convergence of a generalized SMO algorithm for SVM classifier design[J]. Machine Learning, 2002, 46(1/3):351-360.

[17] KEERTHI S S,SHEVADE S K. SMO algorithm for leastsquares SVM formulations[J]. Neural Computation, 2003, 15(2): 487-507.

[18] KEERTHI S S, SHEVADE S K, BHATTACHARYYA C,et al. Improvements to Platts SMO algorithm for SVM classifier design[J]. Neural Computation,2001,13(3):637-649.

[19] KNEBEL T, HOCHREITER S, OBERMAYER K. An SMO algorithm for the potential support vector machine[J]. Neural Computation, 2008,20(1):271-287.

[20] LIN C J. Asymptotic convergence of an SMO algorithm without any assumptions[J]. IEEE Transactions on Neural Networks,2002,13(1), 248-250.

[21] SHEVADE S K, KEERTHI S S, BHATTACHARYYA C,et al. Improvements to SMO algorithm for SVM regression[J]. IEEE Transactions on Neural Networks,2000,11(5):1188-1193.

[22] MEHROTRA S. On implementation of a primaldual interior point method[J]. SIAM Journal on Optimization,1992, 2(4):575-601.

篇10

(泰安职业技术学院财经系,山东 泰安271000)

摘要:将粗集-遗传支持向量机模型运用到供应链绩效评价中,首先利用粗集理论剔除影响供应链绩效评价的冗余因素,获得核心影响因素,再采用支持向量机对于提取得到的核心影响因素预测供应链绩效所处的级别。在支持向量机分类过程中,利用遗传算法对支持向量机算法的参数进行寻优,获得最佳参数模型,而后预测得到供应链绩效评价级别。最后,实例运用此模型进行了预测,并与只运用粗集-支持向量机进行预测的结果进行对比。结果表明,利用粗集-遗传支持向量机方法对供应链绩效评价级别的预测准确率更高,预测结果更符合实际,是一种科学可行的方法。

关键词 :供应链;绩效评价;粗集理论;支持向量机;遗传算法

中图分类号:TP18文献标识码:A文章编号:0439-8114(2015)03-0733-05

随着经济全球化,企业的经营环境发生了巨大的变化。越来越多的企业管理者已经意识到,未来的企业竞争将是供应链(Supply Chain,简称SC)与供应链之间的竞争,而不是企业之间的竞争。企业为了在市场竞争中始终处于有利地位,获得长期竞争优势及利益,就必须建立高效、安全、可靠的供应链系统,供应链系统可以各种辅助手段实现其一体化过程。

所谓供应链是指将产品和服务提供给最终消费者的所有环节的企业所构成的上下游产业一体化的体系。供应链管理是从系统的观点出发,通过对采购、制造、分销直至消费者的整个过程中的资金流、物流、信息流的协调,通过此种管理模式来满足消费者的要求及需求。然而只有对供应链系统中的各成员供应链绩效评价理论及其重要性的认识统一,才能让他们将对整个供应链系统的贡献度作为自己的考核目标,并将这些具体指标达成情况作为利益分配及任务分配的依据,如此才能使供应链的整体绩效切实得到提高。目前,将粗集-遗传支持向量机(GA-SVM)方法应用到供应链绩效评价领域的研究并不多见,本研究主要利用粗糙集理论剔除供应链绩效评价的冗余因素及指标,提取获得影响供应链绩效评价的核心因素,再运用对于小样本具有良好泛化能力的支持向量机来进行评价,支持向量机的评价过程中通过遗传算法来进行相关参数寻优操作[1,2]。

1粗集理论

波兰学者Pawlak于1982年提出了粗糙集(RoughSet)理论,粗糙集理论就是在无需提供问题需要处理数据之外的任何其他先知信息,而是仅根据已知的数据剔除冗余信息,获得本质信息,分析得到知识的不完整程度,生成决策或分类的相关规则及准则,实现通过分类准则或规则对已知数据进行精简或约减,对于处理未确知和模糊数据具有良好的效果[3-5]。

1.1信息系统

一个信息系统S通过下式表示:S=(U,A,V,f),其中U为论域,(U={x1,x2,……,xn})由有限个研究对象组成;A=C∪D为属性集,其中C是条件属性集,D是决策属性集;V是值域;f是映射,对a∈A,x∈U,实现关于属性a的值。

1.2不可区分关系

粗糙集理论将知识和分类紧密联系起来,知识是对客观数据进行分类的能力,分类就是将差别的数据对象分析成为一类,它们之间的关系称之为不可分辨关系或等价关系,其中知识库可以用K=(U,R)表示,其中U是非空有限集,称之为论域,R是U上的一族等价关系。UΠR为R的所有等价类族。[X]R表示包含元素x∈U的R的等价类。若yyPR且P≠?椎,则P中全部等价关系的交集也是一种等价关系,称为P上的不可区分关系,记为ind(p),

1.3属性约简与核

定义1:假设S=(U,R)为信息系统,R是U上的等价关系族,x∈R,若U/IND(R)=U/IND(R-r),则称是R中可以被约简掉的知识,否则不可被约简掉。

定义2:对于任意r∈P(PR),若其中的P都是不可被约简的,则其等价关系族P是独立的,否则认为P是相关的。

定义3:假定S=(U,R)为信息系统,如果子族PR满足下列条件:IND(P)=IND(R),而且P是独立的,则称P是R的一个约简。

如果P是R的约简,则P必须满足以下条件:①P独立;②P与R有相同的分类能力,即IND(P)=IND(R)。

定义4:假定S=(U,R)为信息系统,如果其中R不可约去的属性,则称做R是核属性,所有核属性构成的集合称为核集,记作Core(R),称Core(R)为R的核。

1.4粗集的上、下近似及边界

定义1:给定知识库K=(U,R),XU,称y(X)={x|[x]RX,x∈U}为集合X的下近似,也称(X)是X的R正域,记做POSR(X);显然,X的R正域POSR(X)是由U中完全属于X的元素构成的集合。(X)是一个确定性集合,它是由完全包含在X中的那些R的等价类(中的元素)构成的集合。即X的R正域 POSR(X)中的元素可被正确分类。

定义2:称BNR(X)=(X)-(X)为X的R边界域,称NEGR(X)=U-(X)为X的负域。显见,负域中的元素由不能确定是否属于X的元素组成。

1.5决策表的简化

对于决策表的条件属性进行化简,也就是对决策表的简化,简化的决策表具有与之前的决策表相同的决策等功能,不影响其核心功能的体现,只不过是简化后的决策表具有更少的条件属性,这样会提高决策和评价效率。因此,决策表的简化在实际应用领域中占有相当分量。换言之,在更少的条件下,获得同样的决策,使得利用一些相对之前更为简单的手段或条件就可以获得同样的决策或结果。决策表的简化步骤如下:(1)对决策表的条件属性进行约简,获得核心因素,也就是消去决策表中的某些列;(2)约简掉决策表中重复的某些行消去重复的行;(3)约简掉属性的冗余值。

本研究主要通过以上3个步骤对决策表进行属性约简,以期得到影响供应链绩效评价的主要因素或指标,约简掉冗余因素或指标,为下一步的供应链支持向量机评价奠定一个良好的基础。

2遗传-支持向量机回归模型

2.1支持向量机基本原理

SVM是基于结构风险最小化原则的方法,由于其是一个凸二次优化问题,从而保证能找到一个全局最优解,而且其能够较好地解决小样本、非线性、高维数等实际问题,问题的复杂程度不再简单地取决于维数高低,并且具有良好的泛化能力[6-8]。对于其凸二次优化问题,可以应用标准的拉格朗日乘子法进行优化求解。

假设训练样本为{(x1,y1),……(xi,yi)},其中(xi∈Rm)是第i个学习样本的输入值,且为m维列向量,yi∈R为对应的目标值。可以建立如下形式的回归函数:

式(1)中,{}表示内积运算,wi描述了函数fi(t)的复杂度,bi为常数。考虑到函数的复杂度和拟合误差,函数拟合问题等价于满足如下约束条件时

最小化代价泛函

式(3)中,C为惩罚因子,?孜i为松弛变量。对于这个寻优问题,可以建立以下函数

式(4)中,(αi)l为Lagrange乘子。考察式(2)所给函数极值存在条件,可以获得求解所有参数的一个方程组,并最终得到回归函数(1)的表达式为

式(5)中,Ki(t,tl)为满足Mercer条件的支持向量机核函数。广泛应用一种核函数为径向基核函数

式(6)中,i为xi的标准偏差。

当每个训练数据所对应的回归函数fi(t)均被确定后,可以得到回归函数为

支持向量机回归模型中具有多个参数,易陷入局部最优,因此本研究利用具有全局寻优能力的遗传算法对其参数进行寻优。

2.2遗传算法基本原理

遗传算法和传统搜索算法不同,它首先随机产生一组初始解,即“种群(Population)”,种群中的每一个个体,即问题的一个解向量,称为“染色体(Chromosome)”,开始搜索过程。这些染色体在后续迭代中不断进化,生成的下一代染色体称为“后代(Offspring)”。每一代中染色体的好坏可通过染色体的适应值(Fitness)来评价:适应值大的染色体被选择的几率高,相反,适应值小的染色体被选择的可能性小,被选择的染色体通过交叉(Crossover)和变异(Mutation)产生新的染色体,即后代;经过若干代之后,算法收敛于最好的染色体,该染色体很可能就是问题的最优解或近似最优解。遗传算法的运行步骤如下[9-15]:(1)随机产生初始种群popk;(2)以适应度函数对染色体进行评价;(3)按适应值高低选择染色体形成新种群newpopk;(4)通过交叉、变异操作产生新的染色体即后代offspring;(5)不断重复步骤(2)-(4),直到获得预定进化代数。

其迭代流程见图1所示。由上述步骤可看出,遗传算法主要由遗传运算(交叉和变异)和进化运算(选择)组成。

交叉运算是最主要的遗传运算,遗传算法的性能在很大程度上取决于所采用的交叉运算的性能。交叉运算同时对两个染色体操作,组合两者的特性产生新的后代。变异则是一种基本运算,它在染色体上自发产生随机变化。变异可以提供初始种群中不含有的基因,或找回选择过程中丢失的基因,为种群提供新的内容。

3实证分析

设计任何评价指标体系都应遵循一些基本原则,因此,本研究结合供应链绩效评价的概念,根据目的性原则、科学性原则、系统性原则、经济性原则、定量与定性相结合的原则和通用性与发展性相结合原则这六个原则初步确定一个比较广泛的供应链绩效评价指标体系(表1)。同时,对评价指标代号及指标类型进行了标定。其中,极大型指标是指标值越大越好的指标,又称正向指标;极小型指标是指标值越小越好的指标,又称逆向指标。本研究应用这一指标体系对河北、山东、天津等地区的14条供应链进行调研,调查的实际数据请相关专家进行评分,其评分结果将作为支持向量机评价结果进行训练和检验,同时也作为和只运用支持向量机所得出的训练结果进行比较(表2)[1,2]。

3.1粗集属性约简

把实测数据输入,把这些指标作为条件属性。对于供应链绩效评价结果根据所处情况分为五类(很好,较好、一般、不好、很不好),作为决策属性记为D{1,2,3,4,5},

对决策表进行属性约简,根据粗集理论可以求出哪些是核心属性,哪些是冗余属性,由于属性约简算法比较复杂,采用VB6.0编程进行属性约简。属性约简后的指标体系见表2。此指标体系由于约简了冗余属性,提取了核心属性,为下一步利用支持向量机进行回归识别提供了比较好的基础。

把通过实际调研的数据输入约简后的决策表(表3)。

3.2遗传-支持向量机回归模型的学习

支持向量机学习算法如下:

1)获取学习样本(xi,yi),i=1,2,……l,其中xi∈Rm,yi∈{1,-1}l对样本进行预处理。

2)选择进行非线性变换的核函数及对错分(误差)进行惩罚的惩罚因子C。

3)形成二次优化问题用优化方法。对于此优化问题中参数寻优,通过遗传算法获得,具体步骤如下:①确定遗传算法编码方式。采用十进制整数编码的遗传算法的群体中模式的数目,低阶并且适应度值在群体平均适应度值以上的模式在遗传算法迭代过程中将按指数增长率被采样。②生成初始种群。初始染色体的多少对遗传算法的搜索有影响,对支持向量机算法具有显著影响,为了优化模型往往需要对染色体参数进行适当优化。根据采集数据情况,确定初始种群染色体数目。③计算每个染色体的适应度值f(xi),xi为种群中第i个染色体;④累加所有染色体的适应度值sum=∑f(xi),同时记录对于每一个染色体的中间累加值S-mid,其中S为总数目;⑤产生一个随机数N,0<N<sum;⑥选择其对应的中间累加值S-mid≥N的第一个染色体进入交换集;⑦重复步骤⑤、⑥操作,直到交换集中包含足够多的染色体为止;⑧对于步骤⑦产生的染色体中任意选择两个染色体,染色体进行单点杂交和两点杂交获得一个或多个基因,得到新的两个染色体,来产生新的优良品种;⑨变异运算利用各种偶然因素引起的基因突变,以给定的概率随机地改变遗传基因的值。⑩通过步骤①到步骤⑨获得支持向量机算法的惩罚系数、松弛变量等参数,遗传算法寻优结束。

4)获得αi以及b的值,代入方程中,获得函数拟合的支持向量机。

5)将需预测或分类的数据代入支持向量机方程中获得结果。

本研究中所选评价指标作为供应链评价因素集,供应链绩效评价等级分为5级,目标输出对应以下5类:1、2、3、4、5。

利用表2中的前10数据作为训练样本,对于数据采用以下公式进行归一化处理,以减少各个因子不同量级对于回归效果的影响,并利用Matlab软件得出回归结果(图2)。

由图2可以看出拟合效果非常好,从而可以对剩下的4个进行识别,并与采用BP神经网络对10到14的样本进行评判的结果进行对比(表4)。

通过表4可见,基于粗集的支持向量机识别等级与支持向量机识别的等级除了编号12之外都一样,通过对编号12的数据进行进一步分析可以得出此供应链绩效等级更趋近于一般等级。

4结论

本研究首先利用粗集理论提取出影响供应链绩效评价的核心因素,再使用支持向量机的方法进行模式识别,模式识别过程中,利用遗传算法对相关参数进行寻优操作,取得了良好的效果。由于支持向量机是基于小样本的分类及预测的模型。所以,在本研究实例所给样本极少的情况下做出了较好的预测。由于支持向量机方法是建立在有限样本下进行机器学习的通用方法,因此它在供应链绩效评价和分析中有广泛的应用前景。

参考文献:

[1] 王德财.基于支持向量机的供应链绩效评价方法研究[D].长沙:长沙理工大学,2006.

[2] 蔡炜凌.企业供应链项目的综合评价方法研究[D].河北保定:华北电力大学,2007.

[3] 曹庆奎,任向阳,刘琛,等.基于粗集-未确知测度模型的企业技术创新能力评价研究[J].系统工程理论与实践,2006,9(4):67-72.

[4] 张文修,吴伟志.粗糙集理论与方法[M].北京:科学出版社,2003.

[5] 柯孔林,冯宗宪.基于粗糙集与遗传算法集成的企业短期贷款违约判别[J].系统工程理论与实践,2008,9(4):27-34.

[6] BANERJEE M, CHAKRABORTY M K.A category for rough sets[J].Foundations of Computing and Decision Sciences,1993,18(3-4):167-180.

[7] 李顺国,卢新元.基于粗糙集和SVM的工程项目投标风险研究[J].计算机工程与应用,2008,44(17):224-227.

[8] 苏怀智,温志萍,吴中如.基于SVM理论的大坝安全预警模型研究[J]. 应用基础与工程科学学报,2009,17(1):40-47.

[9] 赵洪波,冯夏庭.非线性位移时间序列预测的进化——支持向量机方法及应用[J].岩土工程学报,2003,25(4):468-471.

[10] PETLEY D N, MANTOVANI F, BULMER M H, et al. The use of surface monitoring data for the interpretation of landslide movement patterns[J]. Geomorphology, 2005,66(1-4):133-147.

[11] VALLEJO L E, SHETTIMA M. Creep crack propagation and the progressive failure of slopes[A]. In: Deformation and progressive failure in geomechanics[C]. London: Pergmon Press, 1997.

[12] BETTEN J. Creep mechanics[M]. 2nd ed. Berlin: Springer, 2005.

[13] MANDIC D P, GOLZ M, KUH A, et al. Signal processing techniques for knowledge extraction and information fusion[M]. Berlin:Springer,2007.