
贝叶斯分类是统计学分类方法。它们可以预测类成员关系的可能性,如给定样本属于一个特定类的概率。
朴素贝叶斯分类[2]假定了一个属性值对给定类的影响独立于其它属性的值,这一假定称作类条件独立。
设定数据样本用一个 n 维特征向量X={x1,x2,,xn}表示,分别描述对n 个属性A1,A2,,An样本的 n 个度量。假定有m个类 C1,C2,,Cm 。给定一个未知的数据样本 X(即没有类标号),朴素贝叶斯分类分类法将预测 X 属于具有最高后验概率(条件 X 下)的类,当且仅当P(Ci | X)> P(Cj | X),1≤j≤m,j≠i 这样,最大化P(Ci | X)。其中P(Ci | X)最大类Ci 称为最大后验假定,其原理为贝叶斯定理:
公式(1)
由于P(X) 对于所有类为常数,只需要P(X | Ci)P(Ci)最大即可。并据此对P(Ci| X)最大化。否则,最大化P(X | Ci)P(Ci)。如果给定具有许多属性的数据集,计算P(X | Ci)P(Ci)的开销可能非常大。为降低计算P(X| Ci )的开销,可以做类条件独立的朴素假定。给定样本的类标号,假定属性值相互条件独立,即在属性间,不存在依赖关系,这样,
公式(2)
概率,可以由训练样本估值:
(1) 如果Ak是分类属性,则P(xk|Ci)=sik/si其中sik是Ak上具有值xk的类Ci的训练样本数,而si是Ci中的训练样本数。
(2) 如果Ak是连续值属性,则通常假定该属性服从高斯分布。因而
公式(3)
其中,给定类Ci的训练样本属性Ak的值, 是属性Ak的高斯密度函数,而 分别为平均值和标准差。
朴素贝叶斯分类算法(以下称为NBC)具有最小的出错率。然而,实践中并非如此,这是由于对其应用假定(如类条件独立性)的不确定性,以及缺乏可用的概率数据造成的。主要表现为:
①不同的检测属性之间可能存在依赖关系,如protocol_type,src_bytes和dst_bytes三种属性之间总会存在一定的联系;
②当连续值属性分布是多态时,可能产生很明显的问题。在这种情况下,考虑分类问题涉及更加广泛,或者我们在做数据分析时应该考虑另一种数据分析。
后一种方法我们将在以下章节详细讨论。
3 朴素贝叶斯的改进:核密度估计
核密度估计是一种普便的朴素贝叶斯方法,主要解决由每个连续值属性设为高斯分布所产生的问题,正如上一节所提到的。在[3]文中,作者认为连续属性值更多是以核密度估计而不是高斯估计。
朴素贝叶斯核密度估计分类算法(以下称K-NBC)十分类似如NBC,除了在计算连续属性的概率 时:NBC是使用高斯密度函数来评估该属性,而K-NBC正如它的名字所说得一样,使用高斯核密度函数来评估属性。它的标准核密度公式为
公式(4)
其中h=σ 称为核密度的带宽,K=g(x,0,1) ,定义为非负函数。这样公式(4)变形为公式(5)
公式(5)
在K-NBC中采用高斯核密度为数据分析,这是因为高斯密度有着更理想的曲线特点。图1说明了实际数据的概率分布更接近高斯核密度曲线。
图1 两种不同的概率密度对事务中数据的评估,其中黑线代表高斯密度,虚线为核估计密度并有两个不同值的带宽朴素贝叶斯算法在计算μc和σc时,只需要存储观测值xk的和以及他们的平方和,这对一个正态分布来说是已经足够了。而核密度在训练过程中需要存储每一个连续属性的值(在学习过程中,对名词性属性只需要存储它在样本中的频率值,这一点和朴素贝叶斯算法一样)。而为事例分类时,在计算连续值属性的概率 时,朴素贝叶斯算法只需要评估g一次,而核密度估计算法需要对每个c类中属性X每一个观察值进行n次评估,这就增加计算存储空间和时间复杂度,表1中对比了两种方法的时间复杂度和内存需求空间。
4 实验研究与结果分析
本节的目标是评价我们提出核密度评估分类算法对入侵审计数据分类的效果,主要从整体检测率、检测率和误检率上来分析。
表1 在给定n条训练事务和m个检测属性条件下,
NBC和K-NBC的算法复杂度
朴素贝叶斯 核密度
时间 空间 时间 空间
具有n条事务的训练数据 O(nm) O(m) O(nm) O(nm)
具有q条事务的测试数据 O(qm) O(qnm)
41 实验建立
在实验中,我们使用NBC与K-NBC进行比较。另观察表1两种算法的复杂度,可得知有效的减少检测属性,可以提高他们的运算速度,同时删除不相关的检测属性还有可以提高分类效率,本文将在下一节详细介绍对称不确定方法[4]如何对入侵审计数据的预处理。我们也会在实验中进行对比分析。
我们使用WEKA来进行本次实验。采用 KDDCUP99[5]中的数据作为入侵检测分类器的训练样本集和测试样本集,其中每个记录由41个离散或连续的属性(如:持续时间,协议类型等)来描述,并标有其所属的类型(如:正常或具体的攻击类型)。所有数据分类23类,在这里我们把这些类网络行为分为5大类网络行为(Normal、DOS、U2R、R2L、Probe)。
在实验中,由于KDDCUP99有500多万条记录,为了处理的方便,我们均匀从kddcupdatagz 中按照五类网络行为抽取了5万条数据作为训练样本集,并把他们分成5组,每组数据为10000条,其中normal数据占据整组数据中的985%,这一点符合真实环境中正常数据远远大于入侵数据的比例。我们首
先检测一组数据中只有同类的入侵的情况,共4组数据(DOS中的neptune,Proble中的Satan,U2R中的buffer_ overflow,R2l中的guess_passwd),再检测一组数据中有各种类型入侵数据的情况。待分类器得到良好的训练后,再从KDD99数据中抽取5组数据作为测试样本,分别代表Noraml-DOS,Normal-Probe,Normal-U2R,Normal-R2L,最后一组为混后型数据,每组数据为1万条。
42 数据的预处理
由于朴素贝叶斯有个假定,即假定所有待测属性对给定类的影响独立于其他属性的值,然而现实中的数据不总是如此。因此,本文引入对称不确定理论来对数据进行预处理,删除数据中不相关的属性。
对称不确定理论是基于信息概念论,首先我们先了解一下信息理论念,属性X的熵为:
公式(6)
给定一个观察变量Y,变量X的熵为:
公式(7)
P(xi )是变量X所有值的先验概率,P(xi|yi )是给定观察值Y,X的后验概率。这些随着X熵的降低反映在条件Y下,X额外的信息,我们称之为信息增益,
公式(8)
按照这个方法,如果IG(X|Y)>IG(X|Y),那么属性Y比起属性Z来,与属性X相关性更强。
定理:对两个随机变量来说,它们之间的信息增益是对称的。即
公式(9)
对测量属性之间相关性的方法来说,对称性是一种比较理想的特性。但是在计算有很多值的属性的信息增益时,结果会出现偏差。而且为了确保他们之间可以比较,必须使这些值离散化,同样也会引起偏差。因此我们引入对称不确定性,
公式(10)
通过以下两个步骤来选择好的属性:
①计算出所有被测属性与class的SU值,并把它们按降序方式排列;
②根据设定的阈值删除不相关的属性。
最后决定一个最优阈值δ,这里我们通过分析NBC和K-NBC计算结果来取值。
43 实验结果及分析
在试验中,以记录正确分类的百分比作为分类效率的评估标准,表2为两种算法的分类效率。
表2 对应相同入侵类型数据进行检测的结果
数据集
算法 DOS
(neptune) Proble
(satan) R2L
( guess_passwd) U2R
(buffer_overflow)
检测率 误检率 整体检测率 检测率 误检率 整体检测率 检测率 误检率 整体检测率 检测率 误检率 整体检测率
NBC 995 02 9979 983 01 9984 973 08 992 95 18 9821
K-NBC 995 02 9996 983 0 9996 973 02 9981 71 01 9976
SU+NBC 995 0 9996 983 01 9985 98 07 9924 9 11 9884
SU+K-NBC 995 0 9996 983 0 9996 987 02 9976 85 01 9981
根据表2四组不同类别的入侵检测结果,我们从以下三个方面分析:
(1)整体检测率。K-NBC的整体检测率要比NBC高,这是因为K-NBC在对normal这一类数据的检测率要比NBC高,而normal这一类数据又占整个检测数据集数的95%以上,这也说明了在上一节提到的normal类的数据分布曲线更加接近核密度曲线。
(2)检测率。在对DOS和PROBLE这两组数据检测结果,两个算法的检测率都相同,这是因为这两类入侵行为在实现入侵中占绝大部分,而且这一类数据更容易检测,所以两种算法的检测效果比较接近;针对 R2L检测,从表2可以看到,在没有进行数据预处理之前,两者的的检测率相同,但经过数据预处理后的两个算法的检测率都有了提高,而K-NBC的效率比NBC更好点;而对U2R的检测结果,K-NBC就比NBC差一点,经过数据预处理后,K-NBC的检测率有一定的提高,但还是比NBC的效果差一些。
(3)误检率。在DOS和Proble这两种组数据的误检率相同,在其他两组数据的中,K-NBC的误检率都比NBC的低。
根据表3的结果分析,我们也可以看到的检测结果与表2的分组检测的结果比较类似,并且从综合角度来说,K-NBC检测效果要比NBC的好。在这里,我们也发现,两种算法对R2L和U2L这两类入侵的检测效果要比DOS和Proble这两类入侵的差。这主要是因为这两类入侵属于入侵行为的稀有类,检测难度也相应加大。在KDD99竞赛中,冠军方法对这两类的检测效果也是最差的。但我们可以看到NBC对这种稀有类的入侵行为检测更为准确一点,这应该是稀有类的分布更接近正态分布。
从上述各方面综合分析,我们可以证明K-NBC作为的入侵检测分类算法的是有其优越性的。
表3 对混合入侵类型数据进行检测的结果
数据集
算法 整体检测 分类检测
Normal Dos Proble R2L U2R
检测率 误检率 检测率 误检率 检测率 误检率 检测率 误检率 检测率 误检率 检测率 误检率
NBC 9814 18 982 08 998 0 998 0 90 0 867 18
K-NBC 9978 02 998 23 998 0 998 0 96 0 733 01
SU+NBC 9799 20 98 08 998 0 998 0 90 0 867 19
SU+K-NBC 9979 02 998 19 998 0 998 0 96 0 80 01
5 结论
在本文中,我们用高斯核密度函数代替朴素贝叶斯中的高斯函数,建立K-NBC分类器,对入侵行为进行检测,另我们使用对称不确定方法来删除检测数据的中与类不相关的属性,从而进一步改进核密度朴素贝叶斯的分类效率,实验表明,对预处理后的审计数据,再结合K-NBC来检测,可以达到更好的分类效果,具有很好的实用性。同时我们也注意到,由于入侵检测的数据中的入侵行为一般为稀有类,特别是对R2L和U2R这两类数据进行检测时,NBC有着比较理想的结果,所以在下一步工作中,我们看是否能把NBC和K-NBC这两种分类模型和优点联合起来,并利用对称不确定理论来删除检测数据与类相关的属性中的冗余属性,进一步提高入侵检测效率。
本文译自Environmental Geology,2002(41)∶765~775。
Alberto Pistocchi1Lucia Luzi2Paola Napolitano3著
朱汝烈4译校
(1Studio di Ingegneria per I'Ambiente e il Territorio,Viale GCarducci,15,47023 Cesena,Italy;2IRRS-CNR,MiLan,Italy;3ACTA Studio Associato,Naples,Italy;4中国地质调查局水文地质工程地质技术方法研究所,河北保定,071051)
摘要此案例研究,源于将不同概率的预测模型[贝叶斯(Bayesian)概率、模糊逻辑、“与”、“或”、“总和”、“产出”、“灰度(非线性)”运算以及必然性因素等],用于编制意大利亚平宁山脉北部的丘陵和山岳地区滑坡灾害地图。利用7个数据层来检验非常脆弱的区域:岩性、与地质构造线的距离、年降雨量数值、土地覆盖类型、地形坡度和坡向,以及与水文网络段的距离。与用预测率指数预测的不同结果进行了对比和缜密的讨论,以评价这种易于运用、适宜有效的数据库在土地规划中使用价值的可能性。
关键词支持性函数 整体化模拟 滑坡灾害 空间数据库
1 导言及一般论点
近几年来,全欧洲各地方及规划部门在建立空间数据库方面有了长足进展。然而,很多数据库似乎对决策支持仍然不起作用,而且其使用的有效数据经常是纯粹土化的。特别是,最终数据使用者和决策者对于有关地理信息系统(Geographic Information Systems——GIS)的模拟能力,近乎于毫不知晓的状况。极少有地方政府机构在日常的决策中采用预测模型作为其有效支撑。
地理信息系统为详细的空间特征模拟带来巨大的能力,并且许多地方政府现在已拥有GIS技术,为其使用提供了方便条件。人们在对自然界现象进行日常习惯性观察时,这一重要信息有变成一种更有力的方法手段的潜在可能吗?
出于参与规划和目标共享的需要,地学家已经注意到确定的共享资源在用于规划和决策支持中做出的评估具有何等重要性的有关阐述。一些人强调地球科学地图在制定政策和土地使用规划过程中的作用。据他们的观点,灾害地图(hazard maps)的主要作用是,为决策者提供有关土地开发规章条例定义问题的正确观点。
基于自然现象之间因果关系的预测模型,已被水文工作者、地球科学家、环境分析家和工程师广泛地应用于自然风险评估、自然资源管理、污染防治与土壤改良及环境影响评估等领域。然而,就诸如滑坡这一自然灾害场合而言,要建立一个能在区域规模内可靠适用的模式似乎相当困难。一些人探究产生这一困难的原因,认为主要是受模型和数据的限制。与其他风险管理的角度不同,很少有管理者探索过有关定量模型的应用问题。
滑坡灾害制图的传统方法,依赖地质学家和地貌学家的经验观察、鉴定(通过对现场特性的直接观察和远距离的检测报告)来解释滑坡发生的特征。这样虽有相当可能判明既往事件,但是在撇开专家主观性及定性判断的情况下,几乎不能支持任何预测。
近几年来,已经提出了基于成带现象的大地构造模型。然而,基于大地构造模型的计算方法,或者说实际上是基于指数叠加的方法,限于数据不足或数据质量的低下,尽管其自然基础相当稳固,仍经常是不可靠的。
另一方面,通过“客观”的可复制模型进行的预测,分析家对可能的、有限的随机选择感到兴趣。特别是下列这些情况:
·当具有相当重要性的规划设想涉及到社会冲突时;
·当现象不容易觉察时;
·当对覆盖整个所关心区域的现象做详细测图所耗费用过于高昂,因而有必要对那些需更深一步了解的区域进行“筛选范围”模拟的时候。
一般说来,模拟过程与决策很相似,而且其工作具协调性和基础性。灾害地图之所以合理的一个理由,是通过专家的专门鉴别,可用模拟方法学的手段再现、复制,可以有助于认识的社会构成,亦即在管理者、社区公众以及科学家之间分享正确的决策准则。
这一原因导致开展使用概率进行预测的可能性的调查研究。在这些探索过程中,充分运用有关滑坡事件的先验性知识,通过合理地确定参数,用模糊的、或随机的地图套叠方法进行概率预测。
在最近几年,对这种方法做了很多探索。所有这些方法已经比较广泛地使用于敏感性分析或不同方法的性能对相同案例的研究。目前,在这些应用中存在的主要困难是不同的地图的对比。
有人提出了一种解决问题的构想,以完善绘图功能。在那些作者们的工作中,显示了概率、模糊的范畴,并可用现象发生地区最支持性的探测功能——例如滑坡或者矿藏——来证明。这些技术通过推测、校核而发挥效用;对其他诸如神经和贝叶斯(Bayesian)网络等方法,其共通特征与一般的数学模拟近似。以这种方法能轻易地找出一种称之为预测比率的独特标准,它主要用于比较不同预测地图,堪称使模型具有良好性能的有效措施。对其解释如下:支持性函数的用途在于以产生至少包含科学家基于规章的判断,即可从现场经验获得的、预测大部分正确的地图为目标。当然,随后由于专家对现象认识和理解的逐步深化在评估期间必然要求选择多种模拟。同时,由于协调不当而产生变量的假定概率,以及数据缺乏和不可靠,也可引起谬误的结果。不过,运用定量法可以使模型的校准和确认能够支持预测的透明度和合理性。支持性函数模拟方法最近已在专门为其安排的某些案例研究中应用。
本文目的在于,探讨支持性函数模拟对用现有的数据库标准认定的滑坡事件,编制灾害地图的可应用性,并且检查这种方法在现有的数据库里信息的运用中如何改进,以与其他技术(例如,每个岩性单位的滑坡频率编图或者纯粹的滑坡目录清单似的绘图)相比较。
支持性函数模拟也可用于构建数据库的概念性设置:数据的收集严格依赖于在理论框架上对最佳可用信息的准确理解。
2 理论背景
很多作者指出,数值技术的使用与那些对相关现象自身属性的局部价值认为值得关注的事件相联系。属性被认为是事件的证据因素,“或然性”、“可能性”或者发现事件的“可能”程度,在一定意义上与每个相关属性的存在非常符合。假定 A是已进行分析的定义域,而 F是被检查的事件现象。若 r数据层为有效数据,则对于每一个属性种类中的mk来说,设定k=1,…r,便可对每个数据层定义一个分配函数:
地质灾害调查与监测技术方法论文集
它将 A的每个象素分配到k层序列中的一层中;可以为每层确定另一个函数:
地质灾害调查与监测技术方法论文集
在这种情况下,地图在每个层里出现一个数值下降的间隔[a,b]。在此,a和b取决于分析者(如稍后将指出的那样)所做的进一步假定。这个数值代表支持性(favorability),即假定一旦遭遇某种特殊种类属性现象出现时的可靠程度。
对作为每个数据层的函数成分 V和R被定义后,支持性函数可表示为:
地质灾害调查与监测技术方法论文集
间隔极值 a,b必须由分析家据其“可靠性”的解释而定,若认为可靠性与“可能性”相同,则 a=0,b=1。若令可靠性范围等于确定性系数,则 a=-1,b=1。如果选择不同的方法,则可能需要另外的数值。
支持性函数在本项目中的不同用法将在本报告中予以陈述。
若支持性假设为与特定现象 F相关,设定与事件的可能性一致的属性种类为E1,…,E。,然后根据贝斯定理,按 E1,…,E。独立条件假说,可写为:
地质灾害调查与监测技术方法论文集
在ppsI中,I=1,…,n,是发生必然属性种类的优先概率,并且可用该属性种类存在的总面积的百分比进行估算。pps1至n作为属性种类的先期共同可能性考虑;这可以作为全部种类共同发生的总面积的百分比。ppaI,I=1,…,n是观察到的F对于属性种类Ei事件的可能性;这可以根据公式计算。ppaI=1-(1-(areaI)-1)nb(I),其中areaI是符合i系列条件的面积,而nb(i)是与F条件也符合的i系列的面积。psF是所有覆盖整个区域的F的优先概率,并可用所有符合F条件面积的百分数算出。
按此法则,一张地图可以由发生的属性种类的每种组合的计算编制出。这可以通过常规交叉作业程序,在GIS的栅格内 *** 作完成。
如果使用确定性系数,则运算法则作如下相应变动:
(1)一种属性种类的确定性系数可以定义为:
地质灾害调查与监测技术方法论文集
式中:I=1,…,n;n是作为原因因数的主题数据种类的数量。
(2)对两个数据种类来说,确定性系数根据下列法则计算:
当 CF1和CF2均为正号,那么 CF1+2=CF1+CF2-(CF1×CF2);
若 CF1和CF2符号相反,则 CF1+2=CF1+CF2/{1-min(|CF1|,|CF2|));
若 CF1和CF2均为负号,则 CF1+2=CF1+CF2+(CF1×CF2)。
(3)程序通过首先计算 CF1+2=CF12,然后 CF13=CF12+3等等,按此重复 *** 作可获得更多的图件。
作为最后的方法,采用模糊集合论通过计算“模糊总和”、“模糊产出”,“模糊与”、“模糊或”以及“模糊非线性函数”。所有这些函数都是在假设 F存在的可能性预测值等于给定的种类EI(即 ppaI)的条件下进行运算的。它们是:
·“模糊与”=min(ppaI),I=1,…n;
·“模糊或”=max(ppaI),I=1,…n;
·“模糊结果”=Ⅱ(ppaI),I=1,…n;
·“模糊总和”=1-Ⅱ(1-ppaI),I=1,…n;
·“模糊非线性计算”=(模糊总和)(模糊结果)1-γ,γ是0:1范围的参数。
按此方法,可确定编制覆盖层地图的法则,以便分析家能评价覆盖整个研究地区的不同事件属性数据差别,并有助于进一步识别存在更多现象的场地。这些计算结果代表与被认为属于有利性的现象相关指标的数目。必须注意到,除已描述之外,根据相应的资料证据分量、可信功能、线性回归覆盖概率以及其他诸多条件,可采用不同的技术。
必须指出,优先概率psF需要对确定性系数的估计测定而计算获得,但将它用于绝对边界条件是无意义的,因为要预知未来的滑坡事件的可能性实际上几乎是不可能的。预测根据的理由必须在概括全部条件求得支持性指标后,方可确认,而不能以对灾害的数字计算结果为依据。
3 应用
用于本案例研究的地区在意大利(图1)北部的萨维(Savio)河流域。区域地质概况基本上为泥灰岩和沙岩组成的一个沉积盆地。可更详细分为以下3种主要的地质岩层:
图1 研究区位置图
(1)托尔顿阶(Tortonian N1)为灰色砂质和泥质浊流沉积岩,是主要地质岩层,并出露于这条主要溪流两侧。
(2)由微晶质石膏与泥质粘土和沙层互层组成,而其基底为含硫石灰岩地层。
(3)由泥质岩、砂质岩和砾岩3层构成,全部含有灰岩层。
此外,还有淤泥质泥灰岩层、晚始新世砂岩地层、上新世粘土以及混杂堆积的粘土层出露地表。
该地区被大量滑坡覆盖,在不同的地质单元内,大多数情况下是以滑移型或泥石流型的运动形式发生。而且,有的地区有岩石崩落,并存在块体平移运动,然而对它们均未做过分析。研究过程中使用的数据由埃米利亚·罗马格纳地区地质调查所(Regione Emilia Romagna Geological Survey)提供。
用于本案例研究的数据库由若干主题层构成,它们涉及:
·线性构造(断层,向斜和背斜),比例尺1:50000;
·岩性单元,比例尺1:50000;
·根据CORINE欧洲工程指南协议,从TM陆地卫星映像获得的土地覆盖情况,比例尺1∶50000:
·数字地形模型(DTM),根据从Regione Emilia Romagna地方当局的地图数据库中获得的、通过计曲等高线内插、等高距为50m的等值线制成;
·整个地区的7个降雨计量站的降雨测量数据;
·数字化水文网,比例尺1:10000。
必须强调,数据库的分辨度非常低劣,另外,数据在比例尺上很不均匀。有人会认为特别是当与平均滑坡面积进行对比时,地形信息明显很不精确,因而成为非实际滑动的运动学的代表。这项研究的目的是评价现实世界数据库的预测能力(前已阐述),必须意识到,重要的不是做出可靠的灾害地图,因为最好的信息虽已被应用殆尽,但不可能有任何更深远范围的调查和数据可供获取。正如在以下内容所强调的那样,与土地计划的预测相比较,评估的结果将为数据库的改进给予更多的输入内容。
从DTM数字地形模型中形成了坡度和坡向地图,并用固定的数值间隔对坡度做了分级。
对线性构造的距离做了计算,目的在于评价构造干扰对坡体稳定性的可能影响。以对栅格地图和栅格化作为计算结果。
分析了降雨资料,以查明高程与年降雨量之间的关系。从这两个变量的一个回归方程发现:y=07086x+70819(R2=066),x为海拔高程(m),y是超过30年的长时间级数降雨量的总平均值(mm/a)。后来用该方程式做了一幅连续降雨地图,结果明确显示,DTM既像降雨特征的指示剂,同时也犹如位能释放的一个显示器。
应当注意,过高的高程与降雨的相互关系相当微弱,而更进一步的分析则要求更好地描述该地区的实际降雨分布情况。然而,依据现有数据,仅能说明已经适当地查明了降雨分布的一般趋势而已。
尽管概念上的差异特性可以在滑坡的现象情况与所需的因素之间梳理出来,然而,当其他所需要特征都存在的情况下,恰恰只是“要素”触发了滑坡。可以认为,所有这些数据层都可能具有优先意义。
至于存在滑坡可能性的数据,只能依赖地方当局的土地不稳定情况报表获得。应着重指出,数据库适用于构建GIS的长时间序列分析。而且,其数据的密度和分布,按统计学来看,属具典型意义的现实滑坡分布。可以证明,事实上,当为贝叶斯程序培养的数据集不是足够大(并且排列也不足够随机)——这关系到对分区性随机变量的获得——的时候,按定量评价的观点衡量概率综合模拟,是毫无意义的。本案例中,滑坡发生的优先总和有利性条件(级别—特殊)的概率ppa1和psf,需由专家们判定。而且,选择滑坡的类型和年龄以便培养数据系列是重要的,这样的系列可照顾到同类滑坡。已有人进行了关于“泥石流”和“崩滑泥石流”类型滑坡的分析,认为通常发生在局部地区。在本研究项目中,仅在编制一些图件时有效地应用。
地区土地不稳定性报表记录也考虑了岩石崩落、块体滑动以及潜在不稳定的地段,但是这些没包括在分析过程中。图2显示了用于分析的数据层。
被考虑的全部主题的数据原则上有相互关联的可能性。由于多余的信息将可能导致无效结果,因而做一些尝试性计算。为了分析的目的,已进行了一次对7个主题条件(即,降雨地图、岩石学、土地覆盖、坡度、坡向、与水文网的距离及与线性构造的距离)的联合性试验。7个主题条件分类列入独立的图例内,并作为促使滑坡体产生活动的条件在地图上的识别标准。
对每一个地图偶对做了4个指数的联合计算:
·x平方(x2)指数;
·克拉默(Cramers)指数;
·意外事故指数;
·共同信息不确定性得分。
这里,第一个指数被确定为:
图2 用于预测的原因因素主题图
地质灾害调查与监测技术方法论文集
式中
地质灾害调查与监测技术方法论文集
而 T=象素的总数,Ti=地图1中 i类象素的数量,Tj=地图2中 j类象素的数量。指数 n和m分别是在地图1和地图2中的种类数目。
克拉默指数(V)和意外事故指数(C)确定如下:
地质灾害调查与监测技术方法论文集
相同符号的含义相应同前,同时 M取(m-1,n-1)的最小值,而 n和m分别是两幅图中每一幅中的数据种类的数目。
图幅偶对 A和B的共同信息不确定性得分取决于:
地质灾害调查与监测技术方法论文集
其中
地质灾害调查与监测技术方法论文集
n、m分别是在地图A和地图B里种类的数量,而Pij则是在地图A和B的交会线上i和j种类的像素数量分别对像素总量的比率。Pj是地图A中种类j的像素总数量,而 Pi表示种类i在地图B中的总像素。
上述指标可判断一个地图偶对之间的协调性尺度。x平方指数给出协调性(无上边界的)绝对尺度,而对其本身没用;V和C表示区域内预防标准的尺度[0,1],它们越是接近1,则两张地图之间的联系越强。这3个指标结合使用,可提供关于联系性的一个综合尺度标准,并允许我们超越一套地图从不同角度去比较像对的联系性。通常,可能注意到3个指标呈现如所期望那样非常相似的反应。不确定性共同信息记录也可用于确定由前面的指标测定的联系性模型,并假定在0(完全独立的地图)和1(完全联系的地图)之间改变。表1展示了如上所述的地图计算的指标。
表1 数据层之间的联系性指标
尽管未使用计算的指标,在严格条件下,对于确定贝叶斯条件(比非联系性质更强)的独立性,这些由全部数据层推断而得出的联系性指标,可能应当是独立的。
正如分析所指出的,必须被注意到,滑坡显示出与岩石学的某种联系(只有一个滑坡,岩石学主题由于共同信息的不确定性,具有非相关性),并与海拔高程/雨量以及地表覆盖存在空间联系趋势。
应当指出,若从因果关系以外的因素看来,岩石学与海拔高程/雨量和土地覆盖是相关的,而与坡度之间的联系较弱,与其他主题的联系则极少或无联系。提供给研究项目的不甚适用的DTM似乎是造成这一现象的首要原因。除在坡度和降雨量/海拔高程之间的微弱的联系外,其他联系可能均未予考虑。
根据当地地质调查所的分析似乎也得出同样的结论,岩性的因素仅仅用于编制滑坡灾害图以及拟定作为滑坡灾害指标的每个岩性单位的滑坡频率。
在每次运算期间,只有已知滑坡(通过随意抽样选择)的一半用来生成预测地图,然而剩下的东西,应当视为同样有效的数据群。作为滑坡灾害预测尝试,最先使用潜在原因因素,而在第2次试验过程中,只使用了3个最为相关的因素,这将在后面的章节中予以解释。
4 结果讨论
支持性函数的计算如以下将予以描述的那样,是在不同的模拟假定前提下进行的。每一幅由计算生成的良好地图的预测能力,用曲线的预测比率进行测试。这种曲线,是通过研究地区的累积百分率标定分类,以支持性评定数值的递减量(遵循上面提到的各种法则)作为横坐标,以滑坡地区的累积百分率作为纵坐标而做成的。据说,当预测的滑坡百分比与区域最大值的20%相一致时,便是对模型预测能力的良好评估。更广泛的观念是,曲线越是有规则的接近纵轴,则预测越加吻合。相反,若更多的曲线靠近45°直线,则说明组合因素造成预测靠近支持性数值的随机分布范围,这种预测的有用价值极小。在因果因素中,已经认识到水文网络所起的作用较小,这是因为为其所拟定的细节,要比其他因素的精密度高得多。乍看起来河流切割“遍布”各地,因而不便于将滑坡分布与它和水文网络的距离加以联系。因此,在因果因素中没有包括河流水系。
在图3中对已考虑的6个因果因素的预测比率,逐个予以显示。本项目中,预测者估计的条件频率ppaI,I=1,…n(发生滑坡事件的条件概率,给定的种类 i)适于每个主题内的每一个种类。
图3 原因因素预测的比率——使用整个滑坡封闭折线和条件频率
第一步计算用作证据的数据,来自图解滑坡活动的全部封闭折线。滑坡被分解成两个随机取样组,其中一个用于标定,而另一个用于证实。计算作业使用了3个最相关的主题(岩性、土地覆盖以及海拔高程/雨量),遵照先前描述的指标。预测比率曲线用图4显示。
进一步使用所有的6个指标进行了计算,其预测比率用图5显示。
我们注意到,由于整个滑坡体均被绘制,因而这可能会含有一些精确性的偏差;由于因果因素的集合,致使滑坡触发点和滑坡前缘不相同。因此,在每个滑坡封闭折线内预测,只使用最高点;若从物质运动的运动学原理考虑,触发点应当在最高位置。6个因果指标在此假定前提下计算的预测比率,如图6所示。
图4 7位预测者预测的比率——使用3个因果指标
(岩石学、降雨量和土地覆盖)和整个滑坡封闭折线
图5 7位预测者预测的比率——使用所有6个相关的原因指标和整个滑坡封闭折线
7位预测者使用3个和6个因果指标的预测比率,分别用图7和图8显示。
就输入数据的相关性而论,表明使用坡度、坡向和雨量分布(即更准确的DTM和雨量——由更区域化的降雨计量器获得的数据)具有更好的代表性,将使结果得到改进。一旦得到新数据,分析者们便可重新评价其对预测的潜在影响。
从预测比率的比较中可以确定:
·当使用6种因果指标代替3种与滑坡关联性更好的指标(岩石学、土地覆盖以及雨量)时,似乎没有明显的改进;在两种情况下的预测表现得非常近似,这恰似对种类群用了修整清除器,然而更多的指标是被应用了的。
·更进一步的清除效果可由只用触发点,而无需考虑滑坡整体来作为证据。这不至于带来地图总体预测能力的恶化;但同时也须顾及到,过量的清除有可能会导致绘图的可靠程度降低乃至消失。
图6 只使用触发点因果指标预测的比率
图7 7个预测者只使用3个因果指标(岩石学、土地覆盖和降雨量)和触发点预测的比率
图8 7个预测者使用6个相关因果指标和滑坡触发点预测的比率
·岩石学在原因指标的预测比率图解中,无论如何显然具有更高的预测能力(如此则可理解,为何当地地质调查所单独选择了将这个主题层用于灾害制图),当然还包括土地覆盖和降雨。然而并非其他全部主题都与预测相关。
·在本案例研究过程中,除贝叶斯可能性的情况外,7位预测者所用的预测表现得极其近似。然而数据的有效分布性是非常敏感的,当整个滑坡体被用作证据,并处于模糊“或”、“与”的某些场合时,则预测均近乎为随机性的。通常,似乎确定性系数是预测者在这一具体案例的研究中最有用的手段,虽然在每种情况下,一些预测者以预测比率曲线和预测地图所作出的预测实际上相同。
图9显示了在本案例中,进一步显示了将3个因素与作为主题证据的触发点共同配合使用时的7种预测。这是本案例研究过程中探讨的情况之一,它具有更好的预测比率,并且可能对滑坡灾害成带性作出最佳的基础性思考,显现了当前的认识状态。
图9 根据7种预测做出的预测地图
5 结论
本文讨论的方法是使用数字模型(较少需要专家的主观判断),依据滑坡灾害来划分土地等级。这似乎表明,当客观预测可从空间数据库中提炼出来时,则可以说明其主题有一些“系统”增加的价值,即全部数据都共同使用比仅只使用某些主题的效果更好。
必须强调,这种方法从现有数据库的开发入手,且保留对每个主题认识的开放、完善。在最好的预测者们各种各样的测试(确定性系数、贝叶斯可能性、模糊的 *** 作和其他可能的技术)中,仅能根据各种测试技术的预测能力做出选择,最后则慎重地使用了预测比率曲线进行预测。
这些分析已经引发了现有的数据库尚属不健全的认识,当然,仅指为了生成预测模拟使用目的的地形数据不甚适当而言。这寄希望于未来投入进一步的调查研究并捕获数据,以确定一种更佳的数字化地形模型。只要改进的原因因素地图一旦产生,或者一个新的原因因素被确认与现象相关,便可能重新进行计算,从而可能产生新的预测图。预测比率使用的有效性可按实际和有效改进进行检查,也可用来对数据收集和岩土工程监测的进一步努力指明方向。例如,在本案例研究中,岩性、土地覆盖以及降雨(如上所述,按高程描述)显然是滑坡的最相关的因素,因而到目前为止,分析主要致力于这些因素的调查和编图。更进一步说,准备并使用具有合适解读能力的DTM显得很有必要,其目的是为了更详细地检查地形数据的影响。分析也很重视其他主题条件,例如水体高程,对用于危险绘图时,它可能就变得相当重要。
单目测距原理:
先通过图像匹配进行目标识别(各种车型、行人、物体等),再通过目标在图像中的大小去估算目标距离。这就要求在估算距离之前首先对目标进行准确识别,是汽车还是行人,是货车、SUV还是小轿车。准确识别是准确估算距离的第一步。要做到这一点,就需要建立并不断维护一个庞大的样本特征数据库,保证这个数据库包含待识别目标的全部特征数据。比如在一些特殊地区,为了专门检测大型动物,必须先行建立大型动物的数据库;而对于另外某些区域存在一些非常规车型,也要先将这些车型的特征数据加入到数据库中。如果缺乏待识别目标的特征数据,就会导致系统无法对这些车型、物体、障碍物进行识别,从而也就无法准确估算这些目标的距离。
单/双目方案的优点与难点
从上面的介绍,单目系统的优势在于成本较低,对计算资源的要求不高,系统结构相对简单;缺点是:(1)需要不断更新和维护一个庞大的样本数据库,才能保证系统达到较高的识别率;(2)无法对非标准障碍物进行判断;(3)距离并非真正意义上的测量,准确度较低。
双目检测原理:
通过对两幅图像视差的计算,直接对前方景物(图像所拍摄到的范围)进行距离测量,而无需判断前方出现的是什么类型的障碍物。所以对于任何类型的障碍物,都能根据距离信息的变化,进行必要的预警或制动。双目摄像头的原理与人眼相似。人眼能够感知物体的远近,是由于两只眼睛对同一个物体呈现的图像存在差异,也称“视差”。物体距离越远,视差越小;反之,视差越大。视差的大小对应着物体与眼睛之间距离的远近,这也是3D**能够使人有立体层次感知的原因。
上图中的人和椰子树,人在前,椰子树在后,最下方是双目相机中的成像。其中,右侧相机成像中人在树的左侧,左侧相机成像中人在树的右侧,这是因为双目的角度不一样。再通过对比两幅图像就可以知道人眼观察树的时候视差小,而观察人时视差大。因为树的距离远,人的距离近。这就是双目三角测距的原理。双目系统对目标物体距离感知是一种绝对的测量,而非估算。
理想双目相机成像模型
根据三角形相似定律:
根据上述推导,要求得空间点P离相机的距离(深度)z,必须知道:
1、相机焦距f,左右相机基线b(可以通过先验信息或者相机标定得到)。
2、视差 :,即左相机像素点(xl, yl)和右相机中对应点(xr, yr)的关系,这是双目视觉的核心问题。
重点来看一下视差(disparity),视差是同一个空间点在两个相机成像中对应的x坐标的差值,它可以通过编码成灰度图来反映出距离的远近,离镜头越近的灰度越亮;
极线约束
对于左图中的一个像素点,如何确定该点在右图中的位置?需要在整个图像中地毯式搜索吗?当然不用,此时需要用到极线约束。
如上图所示。O1,O2是两个相机,P是空间中的一个点,P和两个相机中心点O1、O2形成了三维空间中的一个平面PO1O2,称为极平面(Epipolar plane)。极平面和两幅图像相交于两条直线,这两条直线称为极线(Epipolar line)。
P在相机O1中的成像点是P1,在相机O2中的成像点是P2,但是P的位置是未知的。我们的目标是:对于左图的P1点,寻找它在右图中的对应点P2,这样就能确定P点的空间位置。
极线约束(Epipolar Constraint)是指当空间点在两幅图像上分别成像时,已知左图投影点p1,那么对应右图投影点p2一定在相对于p1的极线上,这样可以极大的缩小匹配范围。即P2一定在对应极线上,所以只需要沿着极线搜索便可以找到P1的对应点P2。
基因富集分析是分析基因表达信息的一种方法,富集是指将基因按照先验知识,也就是基因组注释信息进行分类。
人类有约30,000个基因,人与人之间的基因序列相似度高达999%,也就是说,人们相互之间仅有30个基因的差别,而正是这大约30个基因的差别,导致了我们长得不同,性格也不同。
举这样一个例子,我发现规律的作息与适当的运动让我智商变高了,我想知道让我智商变高了的基因是哪些?那么我取之前作息混乱,成天堆坐在电脑前的基因表达数据和智商提高了之后的表达数据直接对比进行分析是不是就可以了呢?这种方法也叫作单基因分析,这种方法的缺点包括:
基因表达谱数据固有噪音很高,当两组数据表达量差别不大时,很容易出现假阴性结果。(常用的表达谱测试方法包括microarray和mRNA-seq,各有利弊,前者前两年很火,后者现在比较流行。具体原理方法、优缺点wiki上介绍的很清楚。)
未考虑基因间相互作用,很难给出合理解释,当对比之后,我发现50个基因不一样,可是除此之外,我无法判断这50个基因有什么样的联系?是什么信号通路让我智商变高了?知其然而不知其所以然。
可重复性差,生物实验一般都要求至少重复三遍,那么第二次实验的时候,很有可能不是50个基因,谁多谁少根本说不清楚。
考虑到这些缺点,2005年提出了基于基因集定义的基因富集分析方法,很多人管单基因分析叫bottom-up,富集分析叫top-down。
首先要定义基因集(gene set),也就是基于我们的先验知识(基因组注释信息),将基因富集,可以想象成,用一堆代表基因功能的箱子(bin)把具有相同或相似功能的基因装起来,起到了降维的作用,当然,每个基因可能同时参与好几种功能,这种cross-talk我这里就不说了。
这样,得到这两组数据后,我们所分析的不是单个基因表达的差异,而是箱子与箱子之间的差异。比如我们发现,运动前后的主要差异集中在消化基因上面,那么我就有理由说,规律作息和适当运动让我消化变好、营养吸收充分进而智商提高(我编的,别信)。由此,我们得到的数据更容易解释。
通过案例分析增加信息量,对先验概率进行修正,从而提高决策者对未来可能性的把握,达到降低决策风险的目的。那么下面是我整理的媒体 广告 营销推广案例分析相关内容,希望对你能够有所帮助。
媒体广告营销推广案例分析一
美素佳儿:大银幕优雅绽放
广 告 主:美素佳儿
广告代理:央视三维**传媒集团
如今的婴幼产品市场可谓是鱼龙混杂,尤其是在尚不明朗的国内婴幼儿奶粉市场,各家都出尽奇招,以求在中国“第四次婴儿潮时代”寻得突破机会,稳固并拓展产品销售 渠道 体系,树立起在消费者心中的品牌信任度与忠诚度。
当然,在众多国产与进口品牌轮番轰炸主流电视媒体,依然难分胜负之际,美素佳儿已悄然在都市主流消费群体,尤其是年轻高端妈妈群中声名鹊起。
在大银幕,在户外楼宇,美素佳儿以一贯平易近人的姿态,精准走进消费者内心,将品牌的精神与理念,印记在每个生命之初的美好时刻。
一:人之初“四美”,生命的从容来自优雅的呵护
好的广告能够深入人心,首先来自广告本身的优秀创意。优秀的广告创意,只有最符合自身定位的,没有一成不变的条条框框。
2月份美素佳儿升级配方新装上市广告,60秒TVC主推感性、随和、自然的情感创意,将生命从孕育到6岁的成长过程,与产品的四个系列巧妙地融合为四个**桥段,并连贯成为一个完整的微 故事 ,将产品新装上市的概念不着痕迹地传达给消费者,可谓一举多得。
这些画面唯美而生动、温馨而感人,加之背景音乐的优美深远,第一人称广告字幕的亲切温暖,第一时间激发消费者与生俱来的情感正能量,极易使其产生亲近感。而在优质影院的极致观影环境下,效果更胜一筹。
“宝宝,从见到你的第一眼起,我就知道成长旅程,因你而美妙。”娓娓道来童年正式开始前的生命之初“四美”——孕育的喜悦、学足的感动、陪伴的欢笑和奔跑的自由,这些,对于**主要受众——18至40岁的中青年都市主流消费群体来说,可谓从容而优雅,如**经典镜头一般静静流淌,像雪花一样无声而迅速融进他们内在,甚至过目难忘。
二:大银幕,备选还是必投
中秋国庆档和情人节档期间,美素佳儿通过央视三维**传媒“银幕巨阵”——全国高端影院映前广告联播网的模式,在全国12个一二线主流消费城市的近200家优质影院中分别进行了为期各4周的映前广告投放,形成强大的“全影厅、全影片”人群精准覆盖,取得良好的品牌传播效果。
那么,为什么是**媒体为什么会有越来越多的广告主选择大银幕进行品牌深度传播**媒体又是一个怎样的媒体呢
1 高速稳健发展的中国**市场是前提
票房及人次稳固上升,增幅保持在30%以上。至,是中国**市场快速发展的“黄金十年”。优质影院如雨后春笋般拔地而起, 院线不断发展和分流,使得观影热潮遍及全国,也共同铸就了**档期的常态化形成。
从近三年趋势看, 各周票房整体的稳固增长,带来月度、甚至季度票房的增长走势趋稳,平均增幅超过30%。观影人次方面,月均已达5114万人次,增幅达到32%。
成熟档期遍布全年,传统淡档崛起,档期淡化成趋势。在业已形成的14大成熟档期中,一方面,单个档期票房上升的同时,时段也相应延长。如贺岁档,长达100天造就68亿元票房产出。另一方面,淡季与传统旺季档期之间的票房差距越来越小。如3月、4月春季档,总票房超过30亿,传统淡季实现“华丽转身”,成为名副其实的 青春励志 档。
市场的自由化造就了档期的常态化,同时给予了观众充分的“选择权”,常态观影人群日益规模化,看**渐成常态 文化 娱乐休闲方式。而未来的趋势是,全年票房及人次增幅将会越来越趋向稳固,但票房基数仍然稳定上升,这得益于整个市场的利好趋向。
2 固定规模观影人群的消费特质是根本
看**成了国人的刚性需求。**是娱乐精神的最大化体现,在日益追求品质与休闲娱乐化生活的时代,**无处不在,**引爆的话题成为人们茶余饭后必不可少的谈资。截至已然汇聚了47亿人次的观影大军,上半年这一数字已经达到31亿,即平均每月有超过5000万人次在看**,常态观影大军已经形成。
**观众具备“三高三强”品质消费特质。据艺恩咨询度《中国**观众 调研 报告 》,**与电视在观众属性方面有较大差别,**观众明显呈现出"三高三强"的特点。并且相比电视,受众群体也更加精准。
18~40岁都市领先型消费群体、第四次婴儿潮与固定观影人群的“三重奏”。他们是看**的绝对主力,其消费特质,与**的娱乐性、先锋性、话题性等特质不谋而合。**已经融入了他们的生活;影院,已经成为他们娱乐休闲首选场所,由此产生集聚效应。而影院媒体平台融时尚化、年轻化、娱乐化内容为一体,为美素佳儿这样力图尽快打开知名度的品牌创造了精准的广告诉求环境。在这样传播态势下,可将品牌融入精众生活方式,于恰当的时间、恰当的地点,和精众**人群建立和谐的关系,抢占“精众”人群的心智,改变沟通语境,进行品牌深度认识建设及品牌意识建立。
自开始的中国第四次“婴儿潮时代“,为人父母们基本都是80后及后来居上的90后潜在人群,这与**固定受众高度重合。对于这些观影受众来说,在影院看**不仅仅是一种观影行为,更是娱乐休闲的好方式。像看**一样看广告,从广告中获得符合其品质定位的消费导向,而主打温馨情感牌的婴幼儿奶粉广告更能吸引他们,何乐而不为呢
总之,随着中国**市场的不断发展壮大,**将越来越成为一个常态化文化娱乐形态,吸引更多的观影人群并培养其成为固定受众,从而带动影院终端相关产业的飞速发展。而影院媒体映前广告,将吸引新媒体环境下越来越多广告主的关注。
3 影院媒体独特传播优势是关键
10分钟稀缺资源与影院全封闭环境促使广告效果最大化。CTR调研数据显示,**受众通常提前5~10钟进入影厅入座,这与**映前广告的10分钟稀缺资源属性不谋而合,保证了广告受众的精准覆盖。作为新兴视频媒体,大银幕独具的高效特性——全封闭时空幻境下强烈的视听震撼与广告创意本身的优越品质契合,加之精准的受众接受状态,**媒体强调的单次广告效果即可最大化。
核心优质资源组合的巨大魅力。优质影院通常都位于主流消费城市的核心商圈,具备终端消费的绝对地理优势,选择“票仓城市、核心商圈”的优质影院进行投放,在大银幕本身独特传播优势的基础上,对于影院伴随消费及周边消费的促进作用明显。综合来看,这是对领先型时尚娱乐消费观影人群的直接深度传播,是丰富内容平台带来的娱乐传播需求的最佳体现。
综上,在**媒体实际价值大于市场价值的今天,先占有它,收获的将是非凡独特的体验感以及抢占未来主流新媒体的先机。由此,**映前广告的价值也就越来越受到影院和广告主的重视,而受众也越来越青睐这种独特的广告传播形式,大银幕,自然成为了必投之选。
结语
来自尚道女性消费研究院的报告表明:近几年来,中国婴幼儿配方奶粉市场正以每年两位数的增长速度迅速发展,婴儿奶粉食用量呈现上升趋势。美素佳儿选择央视三维**传媒这样的优质影院媒体进行品牌的深度传播,受众获得非凡体验,逐渐建立起对企业的偏好度与忠诚度,企业获得良好广告效应(广告创意好评度91%、记忆度81%、品牌偏好度增加77%、购买意向增加度80%、还有41%的受众表示会在线下向周围人群二次传播等),而影院媒体的传播价值也越来越受到肯定,成为更多品牌的必选媒体,可谓“一举三得”。
以上数据来源:艺恩Enbase数据库、CTR及IPSOS个案调研、CMMS及H3人群数据研究)
点评:
新生命的诞生对于一个年轻的父母来说,充满了喜悦和浪漫,他们希望这个小生命延续家族的血脉,所以宝宝的健康成长,不能输在起跑线上。在孕育新生命的起始阶段,父母就是这个生命无所不能的上帝,生命需要什么,父母就能提供什么。渐渐地,上帝开始变得有些力不从心,选择适合的奶粉成为了父母一件不得马虎的事情。**院线的再度辉煌,为美素佳儿与年轻父母的不期而遇创造了良好的契机,60秒TVC主推感性、随和、自然的情感创意,将生命从孕育到6岁的成长过程,与产品的四个系列巧妙地融合为四个**桥段,并连贯成为一个完整的微故事,将产品营养全面的信息不着痕迹地传达给年轻的父母,给他们带来了惊喜,找到了抚育新生命健康成长的希望。广告媒体的定位准确,受众的心理剖析恰当,产品与消费者的链接温馨、亲切而又自然,可谓艺术与营销的有机统一。
——陈竹林
媒体广告营销推广案例分析二彪马:全站式广告独占日
案例背景
4月,彪马推出全新跑鞋系列,此系列不同寻常,运用尖端科技创造出可随步态&脚型变化而伸缩的创意功能性跑鞋。
如此创举,可谓是跑鞋历史上跨时代的进展。那如何把PUMA的创举告诉受众,吸引受众聚焦新科技、聚焦跑鞋,成为媒体推广的首要任务与难题。
营销目标
目标:宣传产品创新卖点,迅速提升产品在互联网的知名度。
KPI:曝光量&点击量;预估PV:2 442 651 266;预估CLICK:5 518 264
目标受众
PUMA品牌的主要人群定位于热爱运动的年轻受众。
对新鲜事物充满好奇心、能够接受各种形式不同的信息、喜好展现自我、崇尚自由、充沛活力、热爱运动、充满梦想与希望。
执行时间
4月18日~5月31日
创意表达
以动感特效汇聚的富媒体形式广告,覆盖所有目标用户浏览的所有内容。包段全站终端资源,打造全站广告服务形式的“独占日”传播方式。
所有广告素材都以产品结合充满科技感的绚烂动态效果,创造PUMA+PPTV的品牌重合的“速度与科技的结晶”。
传播策略
媒介渠道洞察:
根据客户的受众与平台的用户特征得出贴合用户目标受众的用户为15~28岁的年轻受众,活跃于PPTV网页端与众多不同的终端。对各种内容都充满兴趣,覆盖面直达一、二、三线城市,具有有很强的购买力。
品牌机遇:
目标人群能够很好地接受新形式的广告,创意是此类群体最感兴趣最能产生共鸣的内容。
我们需要通过大幅面的富媒体广告形式使网络广告也能像电视广告一样制作出具有视觉冲击力能直接触及用户心灵的广告产品。
执行过程
PPTV集合策划部、销售部与产品部集众人之力,集思广益,为PUMA独家开辟了一系列创意广告。
以系列式的广告创意持续传播产品卖点。通过全站式“独占日”投放反复吸引用户的关注。首当其冲,就是首页首屏的崩裂广告,此广告结合PUMA跑鞋特点,通过用跑鞋踏碎屏幕的方式,露出跑鞋全新科技及 标语 ,以极强的视觉震撼力,成功吸引受众聚焦跑鞋、聚焦新科技。
其次,推出了首页拉幕联动焦点图,合成PUMA跑鞋动感跑姿的等创意广告。
效果 总结
1 品牌TA:20~40岁人群(男性为主)推广目标:宣传产品创新卖点,迅速提升产品在互联网的知名度。
评估工具:PV&CLICK,评估是否达到预估值。
2 这次推广,主要是在醒目广告位上,开辟出独家的具有极强视觉冲击力的创意广告,为品牌赢得了高达30亿的曝光,近700万点击,广告完成率达126%,超额完成推广任务!
点评:
彪马运用尖端科技,首创能随脚型步态而伸缩的创新功能性跑鞋。如何把PUMA的创举告诉受众,是媒体推广的首要重任。
《PUMA MOBIUM ELITE 速度与科技结晶—独占日》推广方案独具匠心,充分利用了网络广告的富媒体形式。首页“跑鞋踏碎屏幕”这种极具视觉冲击力和感染力的展示形式,充分展现PUMA跑鞋的科技感,成功地将观众视线聚焦到新科技跑鞋。
网络富媒体互动性强、信息量大、引人入胜等特点,为广告创意打开了一扇门。如何在广告中创新,提供更丰富和多感官的接触机会以及精美细腻的创意展现,值得每一个广告人深入思考。
在媒体播放渠道方面,通过包段全站终端资源,打造全站广告服务形式的“独占日”传播方式,覆盖所有目标用户浏览的所有内容,强势推广,值得肯定。
——成赛
创新是人类永不止息的动力!而作为人们生活中必不可少的穿戴工具——鞋子,更是起到不可或缺的作用。而就鞋子而言,还有很多大类之别,其功能也是差异甚大。彪马,作为运动鞋类的代表之一,肩负着带领行业发展的责任与使命。本案则是将彪马的最新科研结晶用一种直观传播形式进行塑造与传播,也取得了较好的既定目标和预期效果,是一个不错的案子。
>>>点击下页进入更多媒体广告营销推广案例分析相关内容
以上就是关于关于输入几个植物特征的智能识别系统的贝叶斯网络公式全部的内容,包括:关于输入几个植物特征的智能识别系统的贝叶斯网络公式、预测模拟技术在空间数据库优化开发中的应用——专家系统类比法滑坡灾害制图案例研究、双目视觉测距原理等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)