在线客服
扫描二维码
下载博学谷APP扫描二维码
关注博学谷微信公众号
大数据学习需要掌握很多技术知识点,包括Linux、Zookeeper、Hadoop、Redis、HDFS、MapReduce、Hive、lmpala、Hue、Oozie、Storm、Kafka、Spark、Scala、SparkSQL、Hbase、Flink、机器学习等。今天主要和大家分享一下Hadoop和spark技术。
Hadoop是什么?
Hadoop在2006年开始成为雅虎项目,随后晋升为顶级Apache开源项目。它是一种通用的分布式系统基础架构,具有多个组件:Hadoop分布式文件系统(HDFS),它将文件以Hadoop本机格式存储并在集群中并行化; YARN,协调应用程序运行时的调度程序; MapReduce,这是实际并行处理数据的算法。Hadoop使用Java编程语言构建,其上的应用程序也可以使用其他语言编写。用一个Thrift客户端,用户可以编写MapReduce或者Python代码。
除了这些基本组件外,Hadoop还包括Sqoop,它将关系数据移入HDFS; Hive,一种类似SQL的接口,允许用户在HDFS上运行查询; Mahout,机器学习。除了将HDFS用于文件存储之外,Hadoop现在还可以配置使用S3 buckets或Azure blob作为输入。
它可以在Apache发行版开源,也可以用Cloudera(规模和范围最大的Hadoop供应商),MapR或HortonWorks等厂商提供。
Spark是什么?
Spark是一个较新的项目,在2012年诞生在加州大学伯克利分校的AMPLab。它也是一个顶级Apache项目,专注于在集群中并行处理数据,一大区别在于它在内存中运行。
类似于Hadoop读取和写入文件到HDFS的概念,Spark使用RDD(弹性分布式数据集)处理RAM中的数据。Spark以独立模式运行,Hadoop集群可用作数据源,也可与Mesos一起运行。在后一种情况下,Mesos主站将取代Spark主站或YARN以进行调度。
Spark是围绕Spark Core构建的,Spark Core是驱动调度,优化和RDD抽象的引擎,并将Spark连接到正确的文件系统(HDFS,S3,RDBM或Elasticsearch)。Spark Core上还运行了几个库,包括Spark SQL,允许用户在分布式数据集上运行类似SQL的命令,用于机器学习的MLLib,用于解决图形问题的GraphX以及允许输入连续流式日志数据的Streaming。
Spark有几个API。原始界面是用Scala编写的,并且由于大量数据科学家的使用,还添加了Python和R接口。Java是编写Spark作业的另一种选择。
Databricks是由Spark创始人Matei Zaharia创立的公司,现在负责 Spark开发并为客户提供Spark分销。
现在大数据专业在各个领域不断得到应用,不仅仅是数据为企业提供了发展方向的支撑,同时对于优势资源配置以及降低生产成本都有非常明显的指导作用。而对于求知者来说,学习大数据就是在位自己未来的职业发展中加分。目前想进入大数据行业,一般都是通过参加培训的方式,而对于在职的人群,脱产学习势必会有很大的压力,所以大家可以考虑通过博学谷在线教育平台学习大数据技术。想了解博学谷的课程,可以直接与博学谷平台老师沟通。
— 申请免费试学名额 —
在职想转行提升,担心学不会?根据个人情况规划学习路线,闯关式自适应学习模式保证学习效果
讲师一对一辅导,在线答疑解惑,指导就业!
相关推荐 更多
大数据面试题 Spark知识点汇总
Spark是一个实现快速通用的集群计算平台,它是基于内存的迭代计算框架,适用于需要多次操作特定数据集的应用场合。在大数据库架构中常常需要使用Spark,Spark的知识点一直也是大数据面试题的重点,本文整理了Spark知识点汇总,现在就和大家一起梳理下吧!
6811
2019-07-25 15:33:51
ETL工程师是干什么的?ETL工程师工作内容介绍
随着大数据时代的来临,ETL工程师逐渐出现在大众的视野中,那么ETL工程师是干什么的呢?直白一点说,ETL工程师又叫数据库工程师,需要掌握各种流行的编程语言,每天的工作就是和数据库打交道,下面详细介绍一下ETL工程师的工作内容,以便于大家进一步了解这个职业。
53285
2019-09-15 12:34:13
数据能力如何体现数据价值?
数据资产的价值分两部分:数据资产直接变现的价值;通过数据资产作为资源加工后提供数据服务的业务价值。底层数据加工计算所涉及到的传输效率,决定了支撑数据产品高性能、高可靠的自身需求;应用层的传输影响了用户体验和场景实现。
5524
2020-02-13 16:45:17
大数据如何构建用户画像?
进入大数据时代,我们常常在谈论的一个概念就是用户画像。在互联网领域利用用户画像,可以达到精准营销的商业目的,因此这也是为什么构建用户画像在这个流量至上的年代如此重要的原因。任何企业公司的产品要想做好精细化运营,都需要先构建该产品和服务的用户画像。下面我们一起看看用户画像的概念和构建方法。
4535
2020-03-31 11:12:22
大数据Storm分布式实时处理框架是什么?用在哪儿?
大数据Storm分布式实时处理框架是什么?用在哪儿?Storm是Twitter开源的分布式实时大数据处理框架,是一个免费的开源分布式实时计算系统,使用起来比较简单可以与任何编程语言一起使用。Apache Storm有很多用例如实时分析、在线机器学习、连续计算、分布式RPC、ETL等。
2812
2022-03-01 14:13:44