
1、数据采集概念:目前行业会有两种解释:一是数据从无到有的过程(web服务器打印的日志、自定义采集的日志等)叫做数据采集;另一方面也有把通过使用Flume等工具把数据采集到指定位置的这个过程叫做数据采集。
2、数据预处理:通过mapreduce程序对采集到的原始日志数据进行预处理,比如清洗,格式整理,滤除脏数据等,并且梳理成点击流模型数据。
3、数据入库:将预处理之后的数据导入到HIVE仓库中相应的库和表中。
4、数据分析:项目的核心内容,即根据需求开发ETL分析语句,得出各种统计结果。
5、数据展现:将分析所得数据进行数据可视化,一般通过图表进行展示。
大数据处理数据的方法:1、通过程序对采集到的原始数据进行预处理,比如清洗,格式整理,滤除脏数据等,并梳理成点击流行模型数据。
2、将预处理之后的数据导入到数据库中相应的库和表中。根据开发elt分析语句,得出各种统计结果。
3、将分析所得的数据进行数据可视化,一般通过图标进行展示。
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)