
关于需求分析的文章相信大家都看过不少了,而且对于如何获取用户需求的方式方法也很多,最常用的就是报告了。今天,昌平IT培训主要就来简单讲解一下,当我们获得这些用户需求之后,如何根据不同的商业目的进行需求分类整理呢?
我们在进行需求分类的时候,一般有两种方式同时进行。
一、横向分类
首先来说,为什么我们拿到需求后,要把需求进行分类因为产品在不同时期,对于不同类别的需求,会有不同的权重。我们常说,产品有起步期、发展期、稳定期。而需求根据每个公司或者产品经理的定义,可能将需求分类为:功能类、bug修复类、体验类、运营类、数据类等。
(1)产品的起步期
在产品的起步期,我们会将核心功能的需求放在权重高一些的位置,把产品的地基打好,骨架搭好,快速上线来验产品模式。别连房子还没盖好,就在纠结地砖的颜色。此时的产品经理一定要控制好自己完美偏执狂的内心冲动,对于增加新功能和体验上的需求要做好排序,此时开发核心功能,快速投入市场试错才是我们的目标。
(2)产品的发展期
到了发展期会让产品尽快做完善,或根据市场反馈对产品方向进行一定的调整,此时bug修复类、运营类的需求就放在首位了。产品投入市场后,可以收集各渠道的用户反馈,有没有切实解决目标用户的问题产品的方向是不是正确的在产品发展期,完善产品的过程中,对于需求更是要有把控力,做需求分析最后输出的结果就是做需求决策,学习乔帮主做简约主义者,决定不做什么比决定做什么更加重要,往往鸡肋需求,开发出来上线容易,但是要去掉,就没那么容易了。
(3)产品的稳定期
再到了产品的稳定期,产品趋于成熟,用户数也多起来了,产品不断迭代,此时提升用户体验和数据类的需求就变得很重要了。比如A/Btest,在用户量小的时候,得到的数据会有较大的出入,是不可取的。在产品的稳定期,有比较大的用户量时,可以用数据来驱动产品的迭代。
大数据技术在数据采集方面采用了哪些方法:
1、离线采集:
工具:ETL;
在数据仓库的语境下,ETL基本上就是数据采集的代表,包括数据的提取(Extract)、转换(Transform)和加载(Load)。在转换的过程中,需要针对具体的业务场景对数据进行治理,例如进行非法数据监测与过滤、格式转换与数据规范化、数据替换、保证数据完整性等。
2、实时采集:
工具:Flume/Kafka;
实时采集主要用在考虑流处理的业务场景,比如,用于记录数据源的执行的各种 *** 作活动,比如网络监控的流量管理、金融应用的股票记账和 web 服务器记录的用户访问行为。在流处理场景,数据采集会成为Kafka的消费者,就像一个水坝一般将上游源源不断的数据拦截住,然后根据业务场景做对应的处理(例如去重、去噪、中间计算等),之后再写入到对应的数据存储中。这个过程类似传统的ETL,但它是流式的处理方式,而非定时的批处理Job,些工具均采用分布式架构,能满足每秒数百MB的日志数据采集和传输需求
3、互联网采集:
工具:Crawler, DPI等;
Scribe是Facebook开发的数据(日志)收集系统。又被称为网页蜘蛛,网络机器人,是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本,它支持、音频、视频等文件或附件的采集。
除了网络中包含的内容之外,对于网络流量的采集可以使用DPI或DFI等带宽管理技术进行处理。
4、其他数据采集方法
对于企业生产经营数据上的客户数据,财务数据等保密性要求较高的数据,可以通过与数据技术服务商合作,使用特定系统接口等相关方式采集数据。比如八度云计算的数企BDSaaS,无论是数据采集技术、BI数据分析,还是数据的安全性和保密性,都做得很好。
数据的采集是挖掘数据价值的第一步,当数据量越来越大时,可提取出来的有用数据必然也就更多。只要善用数据化处理平台,便能够保证数据分析结果的有效性,助力企业实现数据驱动~
以上就是关于昌平IT培训分享如何进行用户需求分类全部的内容,包括:昌平IT培训分享如何进行用户需求分类、需求获取技术有哪些方法、等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)