大数据主要学习什么内容?有什么要求和条件?

用户2717790427918


学习大数据需要循序渐进的学,掌握一套学习方法很重,把需要学习的内容分成几个阶段,系统学习。我简单的列了一下需要学习的内容,仅供参考。

第一阶段

JavaSE基础核心

Java入门语法、面向对象核心、集合与泛型、线程机制、网络编程、流程控制结构、异常体系、反射体系、IO流、设计模式

第二阶段

数据库关键技术

MySql安装和使用、DML(数据操纵语言)、DCL(数据控制语言)、存储过程和函数、JDBC核心技术、SQL语言解析、DDL(数据定义语言)

第三阶段

大数据基础核心

Maven、Hadoop、Hive、Kafka、Linux、Shell、Zookeeper+HA、Flume、HBase

第四阶段

Spark生态体系框架

Scala语言、Spark SQL、Kylin、Druid、Sqoop、Spark Core、Presto、Spark Streaming、Redis缓存数据库、GIT & GIT Hub、ElasticSearch

第五阶段

Flink流式数据处理框架

Flink Environment、Flink DataSet、Flink Window、Flink State & Checkpoint、Flink on Yarn、Flink DataStream、Flink Watermark


大数据漫路求索


hadoop、Hbase、hive、spark等框架使用来分析海量的数据,进行计算、统计、得出想要的结果。

条件:开发语言JAVA、操作系统Linux系统




闭着眼睛切土豆


----专注解答大学生就业问题,欢迎提问!----

如果你是大学生,相关专业,确实应该学习,哪怕是理论层面的了解也是有价值的。

你要具备大数据思维,这点非常重要,时代变了,没有这种思维,很容易落后。

如果你想在技术上学习大数据,我建议,首先是计算机语言,和发数据开发架构,然后是数学和算法。这些是大数据的基础。

但大数据真正使用,是需要结合业务的,不同行业需要的业务不同,比如金融行业,工业,互联网等等。

----专注解答大学生就业问题,欢迎提问!----


我的沈阳


大数据技术的学习内容有很多,包括:

基础阶段:Linux、Docker、KVM、MySQL基础、Oracle基础、MongoDB、redis。

hadoop mapreduce hdfs yarn:hadoop:Hadoop 概念、版本、历史,HDFS工作原理,YARN介绍及组件介绍。

大数据存储阶段:hbase、hive、sqoop。

大数据架构设计阶段:Flume分布式、Zookeeper、Kafka。

大数据实时计算阶段:Mahout、Spark、storm。

大数据数据采集阶段:Python、Scala。

大数据商业实战阶段:实操企业大数据处理业务场景,分析需求、解决方案实施,综合技术实战应用。


武器的小知识


大数据可以学习hadoop,hive,zookeeper,hbase,scala,kafka,flume,spark很多,mysql,


分享到:


相關文章: