
真正的数据分析师的核心课程是机器学习和深度学习,绝对不是Python开发或者Excel制表。
在你学习机器学习和深度学习的过程中,最重要的就是算法模型的训练。参加真正的数据分析师的培训有点类似于报了个奥数班。
所以要学这个需要强有力的理论知识作为支撑,比如说高数、离散、线代、数据结构、算法导论,概率论、统计学。
成为一名数据分析师所需要学习掌握的知识:
数学知识
对于初级数据分析师来说,则需要了解统计相关的基础性内容,公式计算,统计模型等。当你获得一份数据集时,需要先进行了解数据集的质量,进行描述统计。
而对于高级数据分析师,必须具备统计模型的能力,线性代数也要有一定的了解。
分析工具
对于分析工具,SQL 是必须会的,还有要熟悉Excel数据透视表和公式的使用,另外,还要学会一个统计分析工具,SAS作为入门是比较好的,VBA 基本必备,SPSS/SAS/R 至少要熟练使用其中之一,其他分析工具(如 Matlab)可以视情况而定。
编程语言
数据分析领域最热门的两大语言是 R 和 Python。涉及各类统计函数和工具的调用,R无疑有优势。但是大数据量的处理力不足,学习曲线比较陡峭。Python 适用性强,可以将分析的过程脚本化。所以,如果你想在这一领域有所发展,学习 Python 也是相当有必要的。
当然其他编程语言也是需要掌握的。要有独立把数据化为己用的能力, 这其中SQL 是最基本的,你必须会用 SQL 查询数据、会快速写程序分析数据。当然,编程技术不需要达到软件工程师的水平。要想更深入的分析问题你可能还会用到:Exploratory analysis skills、Optimization、Simulation、Machine Learning、Data Mining、Modeling 等。
业务理解
对业务的理解是数据分析师工作的基础,数据的获取方案、指标的选取、还有最终结论的洞察,都依赖于数据分析师对业务本身的理解。
对于初级数据分析师,主要工作是提取数据和做一些简单图表,以及少量的洞察结论,拥有对业务的基本了解就可以。对于高级数据分析师,需要对业务有较为深入的了解,能够基于数据,提炼出有效观点,对实际业务能有所帮助。对于数据挖掘工程师,对业务有基本了解就可以,重点还是需要放在发挥自己的技术能力上。
逻辑思维
对于初级数据分析师,逻辑思维主要体现在数据分析过程中每一步都有目的性,知道自己需要用什么样的手段,达到什么样的目标。对于高级数据分析师,逻辑思维主要体现在搭建完整有效的分析框架,了解分析对象之间的关联关系,清楚每一个指标变化的前因后果,会给业务带来的影响。对于数据挖掘工程师,罗辑思维除了体现在和业务相关的分析工作上,还包括算法逻辑,程序逻辑等,所以对逻辑思维的要求也是最高的。
数据可视化
数据可视化主要借助于图形化手段,清晰有效地传达与沟通信息。听起来很高大上,其实包括的范围很广,做个 PPT 里边放上数据图表也可以算是数据可视化。
对于初级数据分析师,能用 Excel 和 PPT 做出基本的图表和报告,能清楚地展示数据,就达到目标了。对于稍高级的数据分析师,需要使用更有效的数据分析工具,根据实际需求做出或简单或复杂,但适合受众观看的数据可视化内容。
协调沟通
数据分析师不仅需要具备破译数据的能力,也经常被要求向项目经理和部门主管提供有关某些数据点的建议,所以,你需要有较强的交流能力。
对于高级数据分析师,需要开始独立带项目,或者和产品做一些合作,因此除了沟通能力以外,还需要一些项目协调能力。
如果算上实习加上正式工作,那我大概做了五年金融分析师。对这份工作有什么样的感悟和理解就是我之前说的。那如果再多补充一些的话呢,我觉得就是做金融的人不能太死板。一件事情,它的说法做法都可以有很多种。如果想要在这个行业里面做的很成功,脑子要比较灵活,能够想到用多种方法去解决同一个问题,这是非常重要的。
再一个非常重要的就是人脉。你可能都不知道是在哪儿认识的一个人,将来就可能成为你这个事业上的一个助力。所以呢,这个也是为什么我建议如果你将来要做金融行业,除非你是想要留在美国,如果你不想留在美国的话,我不建议本科就出去读金融完了再回国就业。(这样很不利于你就业,因为你缺乏在国内的人脉。)
但是如果你本科是在国内读的金融,你自己的同学在毕业了之后可能都会从事金融相关的岗位,在金融的各个领域,银行保险证券投行,什么都会有,百花齐放,这样的话你就在做任何事情的时候都可能会有某一个同学成为你的助力。如果你是出国读的这个本科生的话,你再回国,你就什么都没有,什么都没有办法搞。
读金融这个专业,尤其是在本科阶段读的话,你可能会很明显的感觉到你真正工作的时候跟实际学习中差距还是蛮大的,所以说呢,不能太过于依赖课本里面的理论知识,永远是实践出真知,最重要的是有一个好师傅带你。
这个好师傅,去哪里找呢一是实习的时候你会遇到好师傅,再有一方面呢,就是你在就业了之后能够找到一个特别想要栽培你的人。
比如说分析师这件事,就是一个团队去做的,不是一个人搞定整个项目,那么你就跟随这个团队的领导。跟着一个特别有丰富的知识、丰富的见解,有很多实践经验的人是最重要的。
在这个行业里面我觉得其实学历没有实践经验那么重要,虽然说我身边的人都是研究生以上的,甚至有博士,而且他们的大学本科也都比较好,但我还是觉得实践是最重要的一件事。
为公司提供数据报告。
数据分析师可以使企业清晰的了解到企业现状与竞争环境,风险评判与决策支持,能够充分利用大数据带来的价值,在进行数据挖据与展现后,呈现给企业决策者的将是一份清晰、准确且有数据支撑的报告。
所以,大数据分析师已经不是简单的IT工作人员,而是可以参与到企业决策发展制定中的核心人物。此外,对于新闻出版等内容产业来说,更为关键的是,数据分析师可以发挥内容消费者数据分析的职能,这是支撑新闻出版机构改善客户服务的关键职能。
扩展资料:
数据分析师需要掌握的统计方法
1、线性回归(Linear Regression)。在统计学中,线性回归是一种通过拟合自变量与自变量之间最佳线性关系来预测目标变量的方法。
2、分类(Classification)。分类是一种数据挖掘技术,它将类别分配给数据集合,以帮助进行更准确的预测和分析。也有时称为决策树,分类是用于对非常大的数据集进行分析的几种方法之一。2大分类技术脱颖而出:Logistic回归和判别分析。
3、重采样方法(ResamplingMethods)。重采样是从原始数据样本中绘制重复样本的方法。这是统计推断的非参数方法。换句话说,重采样方法不涉及使用通用分布表来计算近似p个概率值。
参考资料来源:百度百科-数据分析师
近期成为月入两万的数据分析师的广告遍地都是,可能会对一些未入行的同学造成错觉。我个人感觉数据分析师这个岗位,可能近几年会消亡。
这不意味着这份工作本身不重要,而是说这份工作本身可能会转化为产品运营的一些必备技能,而不再需要单独特设人力去做这件事。或者说,不是再需要你学习SQL或者学习python,只是为了成为一名数据分析师。作为一名数据分析师,职业自身的壁垒正在不断消减,更加主动的拥抱业务,解决真正的产品和用户需求,或将成为未来的发展趋势。
数据分析师的日常工作
我们来看下预设中的分析师的一些工作场景,看看数据分析师核心的工作价值。
取数
数据清洗
数据可视化
统计分析
数据方向建设和规划
数据报告
取数—SQL
很多人对数据分析师的预设是SQL达人,包括现在很多数据分析师的核心工作其实就是进行SQL取数。
这项工作的痛点和难点在于,我们为了得到一个结果,通常需要join很多的数据集,然后整个SQL语句就会写的特别长,而且可能会出现一些问题:比如join的表可能会出现key是重复的情况,造成最终的SQL结果因为重复而变得不可用。所以我们需要专人去专门维护各种各样的数据集,他们知道每张表应该怎么用。
但这个其实是关系型数据库遗留下来的产物——我们完全可以不需要join那么多的表。现在的分布式计算的框架,已经完全可以支持我们只保留一张大宽表,有需要的所有字段,然后所有的 *** 作都在这张大宽表上进行,而且可以保证查询速度。这样数据分析最大的痛点已经没有了。至于你说大宽表里面存了很多重复的数据,是不是很浪费资源(关系型数据库之所以不用大宽表就是从存储空间和性能的trade-off角度考虑的):放心,分布式存储本身是不贵的,而计算效率则是由分布式计算框架进行专门优化的。现在的计算框架计算的响应速度,已经可以在大宽表上可以很快的得到结果了。相比之下,多次join *** 作反而可能会更慢一些。
同时,现在很多公司的NB框架,其实都已经支持拖拽取数了,也根本不需要写SQL了。
此外,不得不说的一点是,SQL语句本身真的不难。可能如果你自己静下心来想学,一个周末的时间肯定能搞定。而资历老的数据分析师,并不会比资历轻的数据分析师,在SQL语句的写作上有什么本质的区别。以前可能还有一些小表join大表的trick,但现在计算框架大多都已经优化过这些了。所以即使是需要写SQL的场景,本身也是没有什么难度的。
所以,通过大宽表来解放数据分析工作的生产力。即使在一定要写SQL做join *** 作的时候,本身也不是一件壁垒特别高的事情。取数这件事儿,对于其他岗位的同学,就已经没那么复杂了。
数据清洗—Python
数据清洗其实是很多强调python进行数据分析课程中,python部分的主要卖点。包括但不限于,怎么处理异常值,怎么从一些原始的数据中,得到我们想要的数据。
在日常产品需求过程中,这种需求的场景其实很小。因为数据大部分都是自己产生的,很少会出现没有预设到的极端值或者异常情况。如果有的话,一般就是生产数据的同学代码写的有bug,这种发现了之后修复代码bug就行。
数据清洗在工作场景的应用在于落表——就是把原始数据变成上面提到的,可以通过SQL提取的hive表。这个工作是需要懂代码的同学去支持的,他们负责数据的产出,包括数据的准确性,数据的延时性(不能太晚产出)等等。前文提到的生成大宽表,其实也可以是他们的工作。这其中就涉及到一些代码的效率优化问题,这个就不是简单懂一点python可以搞定的了,可能涉及到一些数据压缩格式的转化,比如Json/Protobuffer到hive表的转化,还有一些计算框架层面的调优,比如spark设置什么样的参数,以及怎么样存储可以更好的提升查询速度。
所以这部分工作一般是由懂代码的同学完成的。可能数据团队会有比较少数的同学,管理支持全公司的基础表的生成。
数据可视化—Tableau
很多之前在数据分析做实习的同学,主要的工作内容就是在一个商业化的软件(比如Tableau)上,做一些统计报表。这样可以通过这些数据报表,可以很方便的查看到所属业务的一些关键指标。这些商业软件通常都比较难用,比如可能需要先预计算一下才能输出结果;而且不太好做自定义功能的开发。稍微复杂一点的需求场景,可能就需要一个专门的同学捣鼓一阵,才能输出最终的统计报表。
现在有更先进的套路了。
首先可视化。很多公司打通了前端和后端的数据,这样就可以通过网页查询原始的数据库得到数据结果。而现在很多优秀的前端可视化插件,已经可以提供非常丰富的统计图形的支持。而且因为代码是开源的,可以根据公司的需求场景进行针对性的开发,公司可以再辅以配置一些更加用户友好的 *** 作界面,这样一些复杂需求也有了简单拖拽实现的可能。而且这些前端js代码都是免费的!对于公司来说也能省去一笔商业公司的采买成本。
其次很多商业软件,都是针对小数据集场景设计的。在一些大数据集的场景,一般需要先预计算一些中间表。而如果自己公司定制化开发的前端展示结果,就可以根据需要自主设置计算逻辑和配置计算资源,先在后端进行预计算,前端最终只是作为一个结果展示模块,把结果展示和需要的预计算进行解耦。这样就省去了很多中间表的产出,也会更加快速的得到想要的业务指标,快速迭代。
所以可视化数据的工作量也会大大减少。而且会变成一个人人都可以 *** 作,快速得到结果的场景。
统计分析
对于一名数据分析师而言,统计学分析可能是一块知识性的壁垒。尤其是在现在ab实验成为互联网公司迭代标配的今天。需要把实验设计的那套理论应用起来:比如ab实验进行后的显著性检验,多少样本量的数据才能让这个结论有效可信呢。
但是,你我都知道,经典的统计分析其实是一个非常套路性的工作。其实就是套公式,对应到代码层面,可能也就一两行就搞定了。这个代码的统计分析结果可以作为ab平台的指标展示在最终的ab结果上,大家看一眼就能明白。即使是对那些可能不知道显著性是什么意思的人,你可以跟他简单说,显著了才有效,不显著就别管。
这么一想是不是其实不怎么需要投入额外的人力进行分析?
其他数据相关的工作
数据层面的规划和设计。移动互联网刚刚兴起的时候,可能那时候数据分析师需要对每一个数据怎么来设计一套方案,包括原始的埋点怎么样,又要怎么统计出想要的结果。但现在大部分已经过了快速迭代的时代了,新产品的埋点添加可以参考老产品,这就意味着形成套路了。而一旦形成套路,其实就意味着可以通过程序直接完成或者辅助完成。
数据报告。那就真的是一件人人都能做的事情了,试想谁没在大学期间做过数据报告呢?以前只是因为数据都是从分析师产出的,而如果人人都能取到数据的话,数据报告是不是也不是一个真需求呢?
在我看来,数据分析师这个岗位的天花板和其他岗位相比起来是比较低的。可能工作一两年之后,从岗位本身就已经学不到什么额外的工作知识了。主要的工作内容技术含量不是特别高,技能性的更多的是一些可以简单上手的东西,而且做的时间长了,在这些技能性的事情上得到的积累并不是很多。
数据分析师更像是一个在时代变迁过程中的一个中间岗位:我们从一个基本没有数据的时代,突然进入了一个数据极大丰富的时代,在这个过程中,我们都知道重视数据。那怎么能够利用这个数据呢?可能之前的那一帮人并没有太多的经验,于是老板就招一些人专门来研究一下它,同时做一些底层数据的优化。
经过多年的迭代,现在互联网行业的每个人都知道数据的价值,也大概知道了什么样的数据是重要的,怎样可以更好的挖掘数据背后的价值。同时底层的基础设施也已经支持可以让一个之前没有经验的同学可以快速的上手得到自己想要的关键数据。这时候对于一个职业数据分析师来说,他的任务就已经完成了。就如同当人人都会讲英语的时候,翻译其实也就没有存在的价值了。
此后的数据分析工作,可能不再是一些单独的人做的工作。它会变成一个产品和运营的基础工具,而且足够简单,没有取数的门槛。只是产品运营怎么样可以更好的认识数据,通过数据本身更好的配合产品运营的工作,这已经超脱我们一般理解的数据分析师的工作了,而是一个产品运营分内的工作。
对于那些已经在从事数据分析师岗位的同学来说,建议不要把心思全部投入到数据分析的本职工作上,以完成任务为核心KPI。而是不要给自己设置边界,多从用户的角度思考问题,不要因为是产品运营的工作就不去做了。数据分析师这个职业发展到这个阶段,要么做更加底层的数据建设,要么拥抱业务,最大化的发掘数据背后背后的价值。不要再死守着数据分析的“固有技能”沾沾自喜了。
数据本身的价值是无穷的,作为数据分析师,你们已经先人一步的掌握它了,要有先发优势。你们最接近数据的人,是最可能发现用户的宝藏的人。
如何成为合格的数据分析师近些年的大数据热度一浪高过一浪,可以说大数据时代已经来临。越来越多的企业意识到数据分析师的重要性,很多人也开始投身于这个行业。从庞大的数据中挖掘出有价值的信息,分析出未来走向,对于企业来说相当重要。作为从业者,具备哪些特质才能称得上是一名合格的分析师呢,今天我们来介绍一下分析师要具备的基本素质。
素质一:良好的思考能力
海量的数据,很多时候就是一堆庞大的数字,并不能直观反映出价值。分析师要从业务角度出发进行理解,同时还要进行分析并发现其中规律,从而找到关键点和决定因素。继而形成个人的见解,所以没有良好的思考逻辑能力,何谈数据分析能力。善于可靠可以让你的知识体系更加系统化,在对数据进行分析的时候可以带来思路上更多的帮助。
素质二:善于沟通的能力
数据分析包含着数据、技术、业务等,数据分析师需要将这些转化成高层决策者可以理解的东西。中间跨度以及流程越长,就会有越多不同岗位或不同角色的人参与进来。正确的表达自己的要求和你的分析结果才能搭建起良好的沟通桥梁,这需要出色的沟通能力。在沟通的同时也可以听取到别人的想法和意见,这样可以获得更好的思路来帮助自己。让自己的分析理论更加完善并有说服力。
素质三:优秀的业务能力
业务能力是数据分析师几个素质中最重要的,业务方面的学习需要长时间的积累,一个优秀的分析师需要很长的周期。各位在学习中,要循序渐进。可以多研究别人的分析方法和分析报告,及时了解自己的弱点,在工作中不断的提高自己的业务能力。从你踏入分析师行业这个门槛,就要不断的进行业务上的知识积累和学习。
看完以上三点,你是否对怎样才能成为一个合格的数据分析师有了一定的了解呢?
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)