如何快速成为数据分析师

2023-07-25 20:16发布

我是来自农村的一名很普通的女孩,17年大学毕业,现在在杭州一家大数据公司做分析师。想跟大家分享一下,我是如何从刚毕业的一张白纸,成长为一名大数据分析师的,希望我
3条回答
1楼 · 2023-07-25 21:15.采纳回答

企业对数据分析师的技能需求可总结如下:

  • SQL数据库的基本操作,会基本的数据管理

  • 会用Excel/SQL做基本的数据提取、分析和展示

  • 会用脚本语言进行数据分析,Python or R

  • 有获取外部数据的能力加分,如爬虫或熟悉公开数据集

  • 会基本的数据可视化技能,能撰写数据报告

  • 熟悉常用的数据挖掘算法:回归分析、决策树、分类、聚类方法

数据分析的流程,一般可以按“数据获取-数据存储与提取-数据预处理-数据建模与分析-数据可视化”这样的步骤来实施一个数据分析项目。

学习路径如下:

  • python

  • SQL语言

  • python科学计算包:pandas、numpy、scikit-learn

  • 统计学及回归分析方法

  • 数据挖掘基本算法:分类、聚类

  • 数据可视化:seaborn、matplotlib

2楼-- · 2023-07-25 20:55

诚然,任何一门技术都不可能一蹴而就,更不可能一夜成才。这世上,没有什么牛逼的事情是能够速成的,越是专业、越是基层、收益周期越长的技能越是这样,数据分析师也不例外。但这并不代表,我们不能通过一些有效的方法,把学习的过程变得高效而有趣,让自己的数据分析师学成之旅起到事半功倍的作用。倘若真的想一口吃成一个胖子,到时去面试去工作,你会被自己的好不扎实的专业基底伤害得遍体鳞伤。

学习数据分析师之前,你必须清楚自己想要达成什么目标。也就是说,你想通过这门技术来解决哪些问题或实现什么计划。有了这个目标,你才能清晰地开展自己的学习规划,并且明确它的知识体系。只有明确的目标导向,学习必备也是最有用的那部分,才能避免无效信息降低学习效率。

1、明确知识框架和学习路径

数据分析这件事,如果你要成为数据分析师,那么你可以去招聘网站看看,对应的职位的需求是什么,一般来说你就会对应该掌握的知识架构有初步的了解。你可以去看看数据分析师职位,企业对技能需求可总结如下:

SQL数据库的基本操作,会基本的数据管理;

会用Excel/SQL做基本的数据提取、分析和展示;

会用脚本语言进行数据分析,Python or R;

有获取外部数据的能力加分,如爬虫或熟悉公开数据集;

会基本的数据可视化技能,能撰写数据报告;

熟悉常用的数据挖掘算法:回归分析、决策树、分类、聚类方法;

高效的学习路径是什么?就是数据分析的流程。一般大致可以按“数据获取-数据存储与提取-数据预处理-数据建模与分析-数据可视化”这样的步骤来实现一个数据分析师的学成之旅。按这样的顺序循序渐进,你会知道每个部分需要完成的目标是什么,需要学习哪些知识点,哪些知识是暂时不必要的。然后每学习一个部分,你就能够有一些实际的成果输出,有正向的反馈和成就感,你才会愿意花更多的时间投入进去。以解决问题为目标,效率自然不会低。

按照上面的流程,我们分需要获取外部数据和不需要获取外部数据两类分析师,总结学习路径如下:

1.需要获取外部数据分析师:

python基础知识

python爬虫

SQL语言

python科学计算包:pandas、numpy、scipy、scikit-learn

统计学基础

回归分析方法

数据挖掘基本算法:分类、聚类

模型优化:特征提取

数据可视化:seaborn、matplotlib

2.不需要获取外部数据分析师:

SQL语言

python基础知识

python科学计算包:pandas、numpy、scipy、scikit-learn

统计学基础

回归分析方法

数据挖掘基本算法:分类、聚类

模型优化:特征提取

数据可视化:seaborn、matplotlib

接下来我们分别从每一个部分讲讲具体应该学什么、怎么学。

数据获取:公开数据、Python爬虫

如果接触的只是企业数据库里的数据,不需要要获取外部数据的,这个部分可以忽略。

外部数据的获取方式主要有以下两种。

第一种是获取外部的公开数据集,一些科研机构、企业、政府会开放一些数据,你需要到特定的网站去下载这些数据。这些数据集通常比较完善、质量相对较高。

另一种获取外部数据费的方式就是爬虫。

比如你可以通过爬虫获取招聘网站某一职位的招聘信息,爬取租房网站上某城市的租房信息,爬取豆瓣评分评分最高的电影列表,获取知乎点赞排行、网易云音乐评论排行列表。基于互联网爬取的数据,你可以对某个行业、某种人群进行分析。

在爬虫之前你需要先了解一些 Python 的基础知识:元素(列表、字典、元组等)、变量、循环、函数(链接的菜鸟教程非常好)……以及如何用成熟的 Python 库(urllib、BeautifulSoup、requests、scrapy)实现网页爬虫。如果是初学,建议从 urllib 和 BeautifulSoup 开始。(PS:后续的数据分析也需要 Python 的知识,以后遇到的问题也可以在这个教程查看)

网上的爬虫教程不要太多,爬虫上手推荐豆瓣的网页爬取,一方面是网页结构比较简单,二是豆瓣对爬虫相对比较友好。

掌握基础的爬虫之后,你还需要一些高级技巧,比如正则表达式、模拟用户登录、使用代理、设置爬取频率、使用cookie信息等等,来应对不同网站的反爬虫限制。

除此之外,常用的的电商网站、问答网站、点评网站、二手交易网站、婚恋网站、招聘网站的数据,都是很好的练手方式。这些网站可以获得很有分析意义的数据,最关键的是,有很多成熟的代码,可以参考。

数据存取:SQL语言

你可能有一个疑惑,为什么没有讲到Excel。在应对万以内的数据的时候,Excel对于一般的分析没有问题,一旦数据量大,就会力不从心,数据库就能够很好地解决这个问题。而且大多数的企业,都会以SQL的形式来存储数据,如果你是一个分析师,也需要懂得SQL的操作,能够查询、提取数据。

SQL作为最经典的数据库工具,为海量数据的存储与管理提供可能,并且使数据的提取的效率大大提升。你需要掌握以下技能:

提取特定情况下的数据:企业数据库里的数据一定是大而繁复的,你需要提取你需要的那一部分。比如你可以根据你的需要提取2018年所有的销售数据、提取今年销量最大的50件商品的数据、提取上海、广东地区用户的消费数据……,SQL可以通过简单的命令帮你完成这些工作。

数据库的增、删、查、改:这些是数据库最基本的操作,但只要用简单的命令就能够实现,所以你只需要记住命令就好。

数据的分组聚合、如何建立多个表之间的联系:这个部分是SQL的进阶操作,多个表之间的关联,在你处理多维度、多个数据集的时候非常有用,这也让你可以去处理更复杂的数据。

数据预处理:Python(pandas)

很多时候我们拿到的数据是不干净的,数据的重复、缺失、异常值等等,这时候就需要进行数据的清洗,把这些影响分析的数据处理好,才能获得更加精确地分析结果。

比如空气质量的数据,其中有很多天的数据由于设备的原因是没有监测到的,有一些数据是记录重复的,还有一些数据是设备故障时监测无效的。比如用户行为数据,有很多无效的操作对分析没有意义,就需要进行删除。

那么我们需要用相应的方法去处理,比如残缺数据,我们是直接去掉这条数据,还是用临近的值去补全,这些都是需要考虑的问题。

对于数据预处理,学会 pandas 的用法,应对一般的数据清洗就完全没问题了。需要掌握的知识点如下:

选择:数据访问(标签、特定值、布尔索引等)

缺失值处理:对缺失数据行进行删除或填充

重复值处理:重复值的判断与删除

空格和异常值处理:清楚不必要的空格和极端、异常数据

相关操作:描述性统计、Apply、直方图等

合并:符合各种逻辑关系的合并操作

分组:数据划分、分别执行函数、数据重组

Reshaping:快速生成数据透视表

概率论及统计学知识

数据整体分布是怎样的?什么是总体和样本?中位数、众数、均值、方差等基本的统计量如何应用?如果有时间维度的话随着时间的变化是怎样的?如何在不同的场景中做假设检验?数据分析方法大多源于统计学的概念,所以统计学的知识也是必不可少的。需要掌握的知识点如下:

基本统计量:均值、中位数、众数、百分位数、极值等

其他描述性统计量:偏度、方差、标准差、显著性等

其他统计知识:总体和样本、参数和统计量、ErrorBar

概率分布与假设检验:各种分布、假设检验流程

其他概率论知识:条件概率、贝叶斯等

有了统计学的基本知识,你就可以用这些统计量做基本的分析了。通过可视化的方式来描述数据的指标,其实可以得出很多结论了,比如排名前100的是哪些,平均水平是怎样的,近几年的变化趋势如何……

你可以使用python的包 Seaborn(python包)在做这些可视化的分析,你会轻松地画出各种可视化图形,并得出具有指导意义的结果。了解假设检验之后,可以对样本指标与假设的总体指标之间是否存在差别作出判断,已验证结果是否在可接受的范围。

python数据分析

如果你有一些了解的话,就知道目前市面上其实有很多 Python 数据分析的书籍,但每一本都很厚,学习阻力非常大。但其实真正最有用的那部分信息,只是这些书里很少的一部分。比如用 Python 实现不同案例的假设检验,其实你就可以对数据进行很好的验证。

比如掌握回归分析的方法,通过线性回归和逻辑回归,其实你就可以对大多数的数据进行回归分析,并得出相对精确地结论。比如DataCastle的训练竞赛“房价预测”和“职位预测”,都可以通过回归分析实现。这部分需要掌握的知识点如下:

回归分析:线性回归、逻辑回归

基本的分类算法:决策树、随机森林……

基本的聚类算法:k-means……

特征工程基础:如何用特征选择优化模型

调参方法:如何调节参数优化模型

Python 数据分析包:scipy、numpy、scikit-learn等

在数据分析的这个阶段,重点了解回归分析的方法,大多数的问题可以得以解决,利用描述性的统计分析和回归分析,你完全可以得到一个不错的分析结论。

当然,随着你实践量的增多,可能会遇到一些复杂的问题,你就可能需要去了解一些更高级的算法:分类、聚类,然后你会知道面对不同类型的问题的时候更适合用哪种算法模型,对于模型的优化,你需要去学习如何通过特征提取、参数调节来提升预测的精度。这就有点数据挖掘和机器学习的味道了,其实一个好的数据分析师,应该算是一个初级的数据挖掘工程师了。

系统实战

这个时候,你就已经具备了数据分析的基本能力了。但是还要根据不同的案例、不同的业务场景进行实战。能够独立完成分析任务,那么你就已经打败市面上大部分的数据分析师了。

如何进行实战呢?

上面提到的公开数据集,可以找一些自己感兴趣的方向的数据,尝试从不同的角度来分析,看看能够得到哪些有价值的结论。

另一个角度是,你可以从生活、工作中去发现一些可用于分析的问题,比如上面说到的电商、招聘、社交等平台等方向都有着很多可以挖掘的问题。

开始的时候,你可能考虑的问题不是很周全,但随着你经验的积累,慢慢就会找到分析的方向,有哪些一般分析的维度,比如top榜单、平均水平、区域分布、年龄分布、相关性分析、未来趋势预测等等。随着经验的增加,你会有一些自己对于数据的感觉,这就是我们通常说的数据思维了。

你也可以看看行业的分析报告,看看优秀的分析师看待问题的角度和分析问题的维度,其实这并不是一件困难的事情。

在掌握了初级的分析方法之后,也可以尝试做一些数据分析的竞赛,比如 DataCastle 为数据分析师专门定制的三个竞赛,提交答案即可获取评分和排名:

员工离职预测训练赛

美国King County房价预测训练赛

北京PM2.5浓度分析训练赛

种一棵树最好的时间是十年前,其次是现在。现在就去,找一个数据集开始吧!!

  我小时候的理想是将来做一名数学家,可惜长大了发现自己天赋不够,理想渐行渐远,于是开始考虑现实,开始做一些人生规划,我一直在思考将来从事何种职业,专注什么样的领域,重新定义着自己的职业理想。我现在的职业理想,比较简单,就是做一名数据分析师。
  作者:来源:网络大数据|2015-05-29 10:24
  收藏
  分享

  我小时候的理想是将来做一名数学家,可惜长大了发现自己天赋不够,理想渐行渐远,于是开始考虑现实,开始做一些人生规划,我一直在思考将来从事何种职业,专注什么样的领域,重新定义着自己的职业理想。我现在的职业理想,比较简单,就是做一名数据分析师。

  为什么要做数据分析师:
  在通信、互联网、金融等这些行业每天产生巨大的数据量(长期更是积累了大量丰富的数据,比如客户交易数据等等),据说到2020年,全球每年产生的数据量达到3500万亿GB;海量的历史数据是否有价值,是否可以利用为领导决策提供参考依据?随着软件工具、数据库技术、各种硬件设备的飞快发展,使得我们分析海量数据成为可能。
  而数据分析也越来越受到领导层的重视,借助报表告诉用户什么已经发生了,借助OLAP和可视化工具等分析工具告诉用户为什么发生了,通过dashboard监控告诉用户现在在发生什么,通过预报告诉用户什么可能会发生。数据分析会从海量数据中提取、挖掘对业务发展有价值的、潜在的知识,找出趋势,为决策层的提供有力依据,为产品或服务发展方向起到积极作用,有力推动企业内部的科学化、信息化管理。
  我们举两个通过数据分析获得成功的例子:
  (1) Facebook广告与微博、SNS等网络社区的用户相联系,通过先进的数据挖掘与分析技术,为广告商提供更为精准定位的服务,该精准广告模式收到广大广告商的热捧,根据市场调研机构eMarketer的数据,Facebook年营收额超过20亿美元,成为美国最大的在线显示广告提供商。
  (2) Hitwise发布会上,亚太区负责人John举例说明: 亚马逊30%的销售是来自其系统自动的产品推荐,通过客户分类,测试统计,行为建模,投放优化四步,运营客户的行为数据带来竞争优势。
  此外,还有好多好多,数据分析,在营销、金融、互联网等方面应用是非常广泛的:比如在营销领域,有数据库营销,精准营销,RFM分析,客户分群,销量预测等等;在金融上预测股价及其波动,套利模型等等;在互联网电子商务上面,百度的精准广告,淘宝的数据魔方等等。类似成功的案例会越来越多,以至于数据分析师也越来越受到重视。
  然而,现实却是另一种情况。我们来看一个来自微博上的信息:在美国目前面临14万~19万具有数据分析和管理能力的专业人员,以及150万具有理解和决策能力(基于对海量数据的研究)的管理人员和分析人员的人才短缺。而在中国,受过专业训练并有经验的数据分析人才,未来三年,分析能力人才供需缺口将逐渐放大,高级分析人才难寻。
  也就是说,数据分析的需求在不断增长,然而合格的为企业做分析决策的数据分析师却寥寥无几。好多人想做数据分析却不知道如何入手,要么不懂得如何清洗数据,直接把数据拿来就用;要么乱套模型,分析的头头是道,其实完全不是那么回事。按俗话说就是:见过猪跑,没吃过猪肉。
  我的职业规划:
  对于数据分析,有一句话说的非常好:spss/sql之类的软件、决策树、时间序列之类的方法,这些仅仅就都是个工具而已,最重要的是对业务的把握。没有正确的业务理解,再牛的理论,再牛的工具,都是白搭。
  做一名合格的数据分析师,除了对数据需要有良好的敏感性之外,对相关业务的背景的深入了解,对客户或业务部门的需求的清晰认识。根据实际的业务发展情况识别哪些数据可用,哪些不适用,而不是孤立地在“真空环境”下进行分析。
  为此,我对自己的规划如下:
  第一步:掌握基本的数据分析知识(比如统计,概率,数据挖掘基础理论,运筹学等),掌握基本的数据分析软件(比如,VBA,Matlab,Spss,Sql等等),掌握基本的商业经济常识(比如宏微观经济学,营销理论,投资基础知识,战略与风险管理等等)。这些基础知识,在学校里尽量的学习,而且我来到了和君商学院,这样我可以在商业分析、经济分析上面领悟到一些东西,增强我的数据分析能力。
  第二步:参与各种实习。研一开始我当时虽然有课,不过很幸运的找到一份一周只需去一两天的兼职,内容是为三星做竞争对手分析,当然分析框架是leader给定了,我只是做整合资料和往ppt里填充的内容的工作,不过通过兼职,我接触到了咨询行业,也向正式员工学习了很多商业分析、思考逻辑之类的东西。
  之后去西门子,做和VBA的事情,虽然做的事情与数据分析无关,不过在公司经常用VBA做一些自动化处理工作,为自己的数据分析工具打好了基础。再之后去了易车,在那里兼职了一个多月,参与了大众汽车销量数据短期预测的项目,一个小项目下来,数据分析的方法流程掌握了不少,也了解了企业是如何用一些时间序列模型去参与预测的,如何选取某个拟合曲线作为预测值。
  现在,我来到新的地方实习,也非常幸运的参加了一个央企的码头堆场优化系统设计,其实也算数据分析的一种吧,通过码头的数据实施调度,通过码头的数据进行决策,最后写成一个可操作的自动化系统。而这个项目,最重要的就是业务流程的把握,我也参与项目最初的需求调研,和制定工作任务说明书SOW,体会颇多。
  第三步:第一份工作,预计3-5年。我估计会选择咨询公司或者IT公司吧,主要是做数据分析这块比较强的公司,比如Fico,埃森哲,高沃,瑞尼尔,IBM,AC等等。通过第一份工作去把自己的知识打得扎实些,学会在实际中应用所学,学会数据分析的流程方*,让自己成长起来。
  第四步:去自己喜欢的一个行业,深入了解这个行业,并讲数据分析应用到这个行业里。比如我可以去电子商务做数据分析师。我觉得我选择电子商务,是因为未来必将是互联网的时代,电子商务必将取代传统商务,最显著的现象就是传统零售商老大沃尔玛正在受到亚马逊的挑战。此外,电子商务比传统的零售商具有更好的数据收集和管理能力,可以更好的跟踪用户、挖掘潜在用户、挖掘潜在商品。
  第五步:未知。我暂时没有想法,不过我希望我是在一直的进步。
  有一位数据分析牛人曾经总结过数据分析师的能力和目标:
  能力:一定要懂点战略、才能结合商业;一定要漂亮的presentation、才能buying;一定要有global view、才能打单;一定要懂业务、才能结合市场;一定要专几种工具、才能干活;一定要学好、才能有效率;一定要有强悍理论基础、才能入门;一定要努力、才能赚钱;最重要的:一定要务实、才有reputation;不懂的话以后慢慢就明白了。

3楼-- · 2023-07-25 21:04

我是来自农村的一名很普通的女孩,17年大学毕业,现在在杭州一家大数据公司做分析师。想跟大家分享一下,我是如何从刚毕业的一张白纸,成长为一名大数据分析师的,希望我的学习成长心路历程,能够给到现在想往大数据分析行业发展的小伙伴一些参考。
我刚毕业的时候和现在许多学弟学妹一样,都非常迷茫,因为我对自己未来并没有一个非常清晰的职业规划,我不知道自己能够做什么?心里还有一些自卑,因为即便我很爱我的大学,但不得不承认,它只是一个很普通的大学,并非985、211。在如今大学生多如牛毛,激烈的就业环境中,我的学历和专业并没有太大竞争力,也有些后悔为什么大学期间没有再认真努力一些,但为时已晚。毕业,意味着新的人生起点,必须要勇敢面对,未来只能靠自己的能力在社会上生存和发展。
于是,就这样,带着对母校和同学们的不舍、对社会的彷徨、对自己内心的恐惧、以及家人给予我的期望迈入社会,开始了我的求职之路。找了半个月的工作,面试20来家,有3家成功的,但是开的工资最高3500一个月,并且2家是销售岗位,1家也不是我本专业的岗位(我的专业是信息与计算科学),我算了一下,就算我接受这些陌生并且不喜欢的岗位,在杭州这样的城市,合租房包水电物业费也得1500左右,公交一个月最少200,生活费最少900,电话费100,3500一个月的工资还要扣除五险一金,每个月还要倒贴。我简直快奔溃了,感觉自己很没用,连独立在城市生存下去的能力都没有,心里非常的沮丧。
也许命运就是这样,当你面临几乎绝望的时候,往往能审视自己,明白自己真的想要什么,静下心来的时候,我问自己,为什么企业不要我这样的学生?答案其实大家都知道,一是没有工作经验,二是啥都不懂不能为企业创造价值;三是面试的时候紧张、不自信、没有很好的表现自己。按这个逻辑分析下去,再找半个月我也不指望能出现奇迹,可能连我最后一点的自信都会被打击光。我隐约的感觉到需要重新定位自己,需要与其他同学拉开区分度,目前我学的这个专业和知识好像与企业要求的能力相差太大,如此分析后,摆在我面前的路有三条,一是接受3500的工作,熬个一年半载希望能加点工资,让自己在杭州生活下去,以后再谋发展;二是回老家的小城市随便找个工作以后结婚过日子;三是选择一个现在人才缺口大的行业,并且未来有前景的职业从头开始学习,这样至少我还比别人快一步。
去年社会上最热门的字眼就是人工智能、大数据,当时我在网上查了很多信息,看了很多新闻,也在招聘网站上查询大数据岗位的薪资和招聘人数及技术要求等情况,我发现大数据行业分二个方向,一是大数据工程开发类,二是大数据分析类,开发类的编程要求比较高,而分析类的编程技术要求相对低些,在网上找了一些分析课程听了一下,感觉还挺有意思的,也能听懂,相比与开发类,自己更喜欢也更适合分析类,所以就下定决心往数据分析这个方向进行学习。后面我花了10来天的时间去了解数据分析的前景和学习路径,但是网上的信息太杂乱,只能了解一个大概,在网上买了一些课,也买了好几本书,一个星期下来还是毫无头绪,本以为把HADOOP学会就能入门了,结果发现HADOOP搭建会了后面的SPARK太吃力;这时候我感觉还是需要去正式培训一下,自学找不到方向,也比较浪费时间;上天还是比较眷顾我的,我记得是去年的7月初,我在网上查大数据分析培训的时候,发现阿里云和他的内容提供商杭州决明数据科技联合推出一个《阿里云大数据分析师企业实战训练营》,需要选拨才能进入,抱着对阿里云品牌的信任,我进行了考试筛选,当时考的内容是两部分,一是数据库、二是C语言和JAVA;说真的JAVA一窍不通,没想到第二天接到通知说通过了,接下来需要电话面试,我当时就怀疑是不是骗人的,在电话面试的时候我就问了负责的老师,老师说是从250多个报名参加的学生中选10个人参加,主要是为新研发出来的课程体系做实验,我作为计算机相关专业、不懂JAVA只懂数据库的学生样本被选中了,另外面试沟通表达能力必须通过。突然有种被实验的感觉,这不是拿我做小白鼠嘛,我问还有其他样本是怎么样的,负责老师说,有一个是大三未毕业数学统计专业的、有一个机械工程三本学生、有一个软件开发专业的一本学生、有一个工作三年软件开发的学生、有一个工商管理专业的学生……我的个神了,当时就蒙圈了,这玩意万一实验失败我钱不就白花了,还浪费1个多月时间,我给父母说后没一个人支持我的,直到7月9号正式开营的前一天我才想明白一件事,在中国连阿里云这样的企业目前都没有一套完整的科学的课程体系,那其他家肯定也没有,如果是骗人的负责老师也没必要把做实验这事情给我说的这么清楚,最后一天选择了这个训练营,其实心里非常忐忑不安。
集训营10个同学一起学习35天,近2个月时间,经过系统的训练,我们10个同学被杭州7家企业录用,全部是数据分析岗位,有去电信的、有去外贸企业的、有去金融企业的、有去阿里系相关企业的,我和那个大三的学弟一起去了阿里系的企业,我试用期,他实习期,大家都非常的开心,说真的非常感谢阿里云和阿里云的合作伙伴决明数据科技的老师们,当时给我们上课的全部都是决明的老师,老师们都非常的专业负责,公司本来就是做企业商业数据咨询的,所以有很多商业案例跟我们分享,用的实验平台是九道门商业数据分析实验平台。
从小白鼠到入行,到现在也有小三年工作经验的我,给大家一个学数据分析师的学习路径,仅供大家参考;
1、 建议大家先学习MYSQL关系数据库,在分析师岗位上数据库是经常要用到的,也是必须要会的;
2、 建议大家接下来学习数据建模、数据仓库,ETL数据清洗,特别在工作中数据质量管理是比较重的,ETL是经常用的(当然数据清洗工具也有其他的,ETL是大家通用的);
3、 HADOOP分布式其实在分析师这个岗位上用的比较少,了解就可以了,因为现在分布式这块大公司都有现成的工具用,连搭建都不需要,直接用就可以了,非常方便。
4、 分析工具还是需要好好学一下的,建议大家学Python,现在公司里面大部分都是用这个,EXCEL也需要学习学习,一些小的数据集和简单的BI报表还是比较方便的。当然分析工具比较多比如R、SPSS,SAS等都是工具,就看你自己用什么了,会用一个熟练的工具就可以了。另外Python功能非常强大,也不需要研究太深,其实工作做在做项目的时候经常用很快就能学会的,毕竟只是个工具,就像EXCEL要想全部弄清楚所有功能那可不是一天二天的事情,而我们日常经常用的也就是那点东西。
5、 接下来需要学习机器学习,原来叫数据挖掘,现在叫机器学习,也有的叫人工智能,这个需要大家花点时间去学习了,我现在经常用的比如决策树、回归问题、分类问题、聚类问题、降维问题等,还有预测、无监督、最优化也经常用到,这门学科可能是需要我们长时间学习和研究的。
6、 算法方面其实我没有学过,在项目组里面有专门的算法工程师,另外有些通用算法是可以套用的,所以这方面我觉得项目组团队可以配合来做,这方面本人没有经验不做建议。
7、 我现在觉得分析师最重要的是看待问题、处理问题的思路,在这一年工作中我发现团队的大牛们解决问题的思路和我们真不一样,在每次项目组会议的时候我感觉学到的东西最多,那就是解决问题的思路和能力;而且分析师还需要对业务深入了解,因为不同的行业数据结构和业务逻辑都是不一样的,需要花时间去理解和学习;同时我也感觉到作为数据分析师还需要学习商业思维和营销知识。
8、 另外一个就是数据可视化,这个主要是把我们分析出来的数据结构用图像、动画等按时呈现出来。我现在正在做的就是数据大屏,工具很多,BAT公司都有自己的工具,当时老师教我们的时候教的是 Tableau,个人感觉非常好用,这个随便自己喜好了,做大屏可能需要一点美术功底,当然现在模板比较多,也可以套用。
9、 其实在学习的过程中要想学得快,最好是从项目案例入手,当时阿里云和他的内容提供商决明数据就是先让我们训练九道门实验平台上的23个场景案例,数据集全部做好放在服务器里,和我们现在工作的场景很像。老师上午讲知识点,下午和晚上我们就是做实操实验,工具老师基本上都不讲,在做案例项目的时候用到什么临时去查,二次下来工具就上手了。最后一周是加拿大的赵强老师给我们训练了一个大项目,模拟一个企业的数据分析项目,那5天是我最刻苦铭心的,虽然压力很大,分组进行,但是5天时间把我们原来所学的东西全部串起来了,一下子思路就通了,最后每个人还要上台去讲,也培养了自己的沟通能力和演讲能力,整个项目流程下来,受益匪浅。赵老师原来为世界500强企业做过数据咨询项目的,又是加拿大舒立克商学院的MBA教授,项目经验丰富,确实是国内少有的专家大咖,是决明科技的创始人,也是我现在上班这家公司的项目顾问,多亏了赵老师的悉心指导,让我在成为大数据分析师的学习之路上少走了很多弯路,真的蛮感谢赵老师的,也希望大家在学习的路上都能遇到这样的良师益友。
10、 最后一个建议就是大家还需要学习学习PPT制作和演讲,最近我们项目要陆续交付,每次交付都需要向客户进行讲解,每个人做的部分由自己讲,所以PPT制作和演讲都需要训练,亚历山大。
说了这么多,只能代表我这一年来的经历和感受,也不知道对学弟学妹有没有帮助,反正如果你们想往大数据分析师这个职业发展的话,建议大家一定要从项目入手去学习,工具要学但是不要研究太深,会浪费时间,工作后用起来上手非常快,如果自学没有头绪,培训还是很有必要的,但一定要找专业方面的人进行培训,我觉得我还是非常幸运的,遇到了阿里云以及杭州决明科技的老师们,如果学弟学妹们有这样的想法,可以去了解一下,当时我们是第一批培训的,不知道他们现在还在不在做,他们集训就是从项目入手,跟我现在工作内容十分相似,虽然集训过程很辛苦学的也很累,但收获与影响是巨大的。
我当时集训结束的时候就拿到了两个个公司的OFFER,一个是全球排名前十的游戏营销咨询公司,一个是我现在上班的XX云公司;当时选择的时候其实很痛苦,两个个公司都非常不错,因为我是在阿里云实验班出来的,我还是选择了阿里系的企业。
如愿以偿进入了大数据分析职业,天天做项目,非常开心,我相信我自己能在杭州好好的工作,好好的生活下去,毕业季,也祝小伙伴们能和我一样幸运,找到自己喜欢的工作。
最后感谢阿里云和决明数据科技的老师,同时也推荐想学大数据分析的学弟学妹们去九道门商业大数据分析实训中心,因为专业所以认同。

一周热门 更多>