• 在线客服

  • 扫描二维码
    下载博学谷APP

  • 扫描二维码
    关注博学谷微信公众号

  • 意见反馈

原创 怎样学习spark

发布时间:2019-04-29 09:45:32 浏览 5982 来源:博学谷资讯 作者:枫调

     现在一提到云计算大数据,就会想到spark。要怎样学习spark呢?首先我们需要简单了解一下它:Spark是一种与 Hadoop 相似的开源集群计算环境,甚至在某些工作负载方面表现得更加优越。Spark采用一个统一的技术堆栈解决了云计算大数据的如流处理、图技术、机器学习、NoSQL查询等方面的所有核心问题,具有非常完善的生态系统,这直接奠定了其一统云计算大数据领域的霸主地位;下面就和大家具体分享一下怎样学习spark

     怎样学习spark

      阶段一:掌握Scala语言

     

      Spark框架是采用Scala语言编写的。所以如果你想要成为Spark高手,就必须阅读Spark的源代码,所以掌握Scala也就是必须的了。虽说现在的Spark可以采用多语言JavaPython等进行应用程序开发,但是最快速的和支持最好的开发API依然并将永远是Scala方式的API,所以你必须掌握Scala来编写复杂的和高性能的Spark分布式程序;尤其要熟练掌握Scalatraitapply、函数式编程、泛型、逆变与协变等;

     

      阶段二:精通相应的API

     

      例如面向RDD的开发模式,掌握各种transformationaction函数的使用;Spark中的宽依赖和窄依赖以及lineage机制;掌握RDD的计算流程,例如Stage的划分、Spark应用程序提交给集群的基本过程和Worker节点基础的工作原理等

     

      阶段三:深入Spark内核

     

      此阶段主要是通过Spark框架的源码研读来深入Spark内核部分:通过源码掌握Spark的任务提交过程、Spark集群的任务调度;尤其要精通DAGSchedulerTaskSchedulerWorker节点内部的工作的每一步的细节;

     

      阶段四:掌握核心框架的使用

     

      我们使用Spark的时候大部分时间都是在使用其上的框架例如Spark Streaming是非常出色的实时流处理框架,要掌握其DStreamtransformationcheckpoint等; Spark 1.0.0版本在Shark的基础上推出了Spark SQL,离线统计分析的功能的效率有显著的提升,需要重点掌握;对于Spark的机器学习和GraphX等要掌握其原理和用法;

     

      阶段五:做实战项目

     

      通过一个完整的具有代表性的Spark项目来贯穿Spark的方方面面,包括项目的架构设计、用到的技术的剖析、开发实现、运维等,完整掌握其中的每一个阶段和细节,这样就可以让您以后可以从容面对绝大多数Spark项目。

      怎样学习spark和大家分享完了。上面完整的学习路径中,第一二阶段基本是可以通过自学完成的,而真正想学习会第三四五阶段,最好是有大咖带领或者跟着老师的思路进行学习。不管采用什么手段学习,一定要注重实战项目的练习。只有将理论知识全部应用到真是的开发环境中,才能真正成为你的技术。

      免责条款:文章部分内容来源于互联网仅供参考阅读。

    申请免费试学名额    

在职想转行提升,担心学不会?根据个人情况规划学习路线,闯关式自适应学习模式保证学习效果
讲师一对一辅导,在线答疑解惑,指导就业!

上一篇: 大数据Hbase经典面试题汇总 下一篇: 零基础大数据培训班课程怎么样?具体教些什么?

相关推荐 更多

热门文章

  • 前端是什么
  • 前端开发的工作职责
  • 前端开发需要会什么?先掌握这三大核心关键技术
  • 前端开发的工作方向有哪些?
  • 简历加分-4步写出HR想要的简历
  • 程序员如何突击面试?两大招带你拿下面试官
  • 程序员面试技巧
  • 架构师的厉害之处竟然是这……
  • 架构师书籍推荐
  • 懂了这些,才能成为架构师
  • 查看更多

扫描二维码,了解更多信息

博学谷二维码