大数据是目前和今后的热门技术,前途看好。
学习大数据要根据自身情况来定,如果你是零基础,那就必须先从基础Java开始学起(大数据支持很多开发语言,但企业用的最多的还是JAVA),接下来学习数据结构、Linux系统操作、关系型数据库,夯实基础之后,再进入大数据的学习,具体可以按照如下体系:
第一阶段
CORE JAVA (加**的需重点熟练掌握,其他掌握)
Java基础**
数据类型,运算符、循环,算法,顺序结构程序设计,程序结构,数组及多维数组
面向对象**
构造方法、控制符、封装
继承**
多态**
抽象类、接口**
常用类
集合Collection、list**
HashSet、TreeSet、Collection
集合类Map**
异常,File
文件/流**
数据流和对象流**
线程(理解即可)
网络通信(理解即可)
第二阶段
数据结构
关系型数据库
Linux系统操作
Linux操作系统概述,安装Linux操作系统,图形界面操作基础,Linux字符界面基础,字符界面操作进阶,用户、组群和权限管理,文件系统管理,软件包管理与系统备份,Linux网络配置 (主要掌握Linux操作系统的理论基础和服务器配置实践知识,同时通过大量实验,着重培养动手能力。了解Linux操作系统在行业中的重要地位和广泛的使用范围。在学习Linux的基础上,加深对服务器操作系统的认识和实践配置能力。加深对计算机网络基础知识的理解,并在实践中加以应用。掌握Linux操作系统的安装、命令行操作、用户管理、磁盘管理、文件系统管理、软件包管理、进程管理、系统监测和系统故障排除。掌握Linux操作系统的网络配置、DNS、DHCP、HTTP、FTP、SMTP和POP3服务的配置与管理。为更深一步学习其它网络操作系统和软件系统开发奠定坚实的基础。与此同时,如果大家有时间把javaweb及框架学习一番,会让你的大数据学习更自由一些)
重点掌握:
常见算法
数据库表设计,SQL语句,Linux常见命令
第三阶段
Hadoop阶段
离线分析阶段
实时计算阶段
重点掌握:
Hadoop基础,HDFS,MapReduce,分布式集群,Hive,Hbase,Sqoop
,Pig,Storm实时数据处理平台,Spark平台
以上就是笔者总结学习阶段,如果还想了解更多的知识,还可以关注一些如“大数据cn”这类公众号,建议每个想要学习大数据的人,按照这个学习阶段循序渐进,不断完善自己的知识架构,提升自身的理论知识,然后找一个合适的项目,跟着团队去做项目,积累自己的经验,相信会在大数据的舞台上展现出很好的自己!
1、基础知识:java+linux
这个是作为基础知识学习的,没学好JAVA和LINUX,大数据是肯定学不懂的,大数据学习的基础就是JAVA。打好基础才能建房。
2、大数据技术:hadoop生态系统
大数据存储阶段:hbase、hive、sqoop。
大数据架构设计阶段:Flume分布式、Zookeeper、Kafka。
大数据实时计算阶段:Mahout、Spark、storm。
大数据数据采集阶段:Python、Scala。
Hadoop几乎已经成为现在流行的大数据处理平台的代名词了,这个是必学的。Hadoop生态系统里面包括几个组件HDFS、MapReduce和YARN,HDFS是存储数据的地方就像我们电脑的硬盘一样文件都存储在这个上面,MapReduce是对数据进行处理计算的,它有个特点就是不管多大的数据只要给它时间它就能把数据跑完,但是时间可能不是很快所以它叫数据的批处理。
具体的精进学习还是要看你从事哪方面的工作,最好根据想从事的行业来工作。我个人比较推荐大数据开发这一方向