课程试听
正在播放

阶段一 大数据基础+Java语言编程

展开
第一章 大数据操作系统基础
1-1 大数据操作系统基础(一)
  • 01-大数据概念 免费试学
  • 02-大数据的特点 免费试学
  • 03-大数据的应用场景 免费试学
  • 04-大数据的处理流程 免费试学
  • 05-大数据部门组织结构 免费试学
  • 06-计算机原理 免费试学
  • 07-计算机软件和硬件的介绍 免费试学
  • 08-操作系统的概述 免费试学
  • 09-Linux系统的概述 免费试学
  • 10-Linux系统的发行版 免费试学
  • 11-VMware的安装 免费试学
  • 12-Centos的安装 免费试学
  • 13-使用VMware打开Centos 免费试学
  • 14-虚拟化技术开启 免费试学
  • 15-虚拟机的网络配置 免费试学
  • 16-使用finalshell连接Linux 免费试学
  • 17-Linux的目录结构 免费试学
  • 18-学习Linux命令的原因 免费试学
  • 19-Linux命令-ls命令 免费试学
  • 20-Linux命令-pwd、mkdir、rm命令 免费试学
  • 21-Linux命令-cd命令 免费试学
  • 22-Linux命令-touch命令 免费试学
  • 23-Linux命令-mv命令 免费试学
  • 24-Linux命令-cp命令 免费试学
1-2 大数据操作系统基础(二)
  • 01-虚拟机环境问题和快照保存 免费试学
  • 02-快照的删除和恢复 免费试学
  • 03-Linux命令-解压命令 免费试学
  • 04-Linux命令-压缩命令 免费试学
  • 05-Linux命令-find命令 免费试学
  • 06-Linux命令-grep和which命令 免费试学
  • 07-Linux命令-ps和kill命令 免费试学
  • 08-Linux命令-管道命令 免费试学
  • 09-Linux命令-用户管理命令 免费试学
  • 10-Linux权限控制介绍 免费试学
  • 11-Linux权限控制-chmod命令 免费试学
  • 12-Linux网络管理命令 免费试学
  • 13-Linux的其他命令-ln、clear、history 免费试学
  • 14-VI编辑器-介绍 免费试学
  • 15-VI编辑器-命令行模式 免费试学
  • 16-VI编辑器-底行模式 免费试学
  • 17-通过nodepad++连接Linux 免费试学
  • 18-Mysql数据库-概述 免费试学
  • 19-Mysql数据库-常见数据库介绍 免费试学
  • 20-Mysql数据库-数据库登录 免费试学
  • 21-Mysql数据库-使用DataGrip连接Mysql 免费试学
  • 22-Mysql数据库-使用DataGrip连接Mysql-问题说明 免费试学
第二章 大数据关系型数据库
2-1 关系型数据库(一)
  • 01-SQL的概述
  • 02-SQL语言的分类
  • 03-SQL的语法和数据类型
  • 04-SQL操作-DDL命令-数据库操作
  • 05-SQL操作-DDL命令-表的基本操作
  • 06-SQL操作-DDL命令-修改表结构
  • 07-SQL操作-DML命令-insert指令
  • 08-SQL操作-DML命令-update指令
  • 09-SQL操作-DML命令-delete命令
  • 10-SQL操作-练习
  • 11-SQL约束-主键约束
  • 12-SQL约束-非空约束
  • 13-SQL约束-唯一约束
  • 14-SQL约束-外键约束
2-2 关系型数据库(二)
  • 01-SQL操作-DQL命令-简单查询
  • 02-SQL操作-DQL命令-条件判断语法
  • 03-SQL操作-DQL命令-条件查询1
  • 04-SQL操作-DQL命令-条件查询2
  • 05-SQL操作-DQL命令-排序查询
  • 06-SQL操作-DQL命令-聚合函数
  • 07-SQL操作-DQL命令-分组查询
  • 08-SQL操作-DQL命令-分组查询-having关键字
  • 09-SQL操作-DQL命令-分页查询
  • 10-SQL操作-DQL命令-insert into select语句
2-3 关系型数据库(三)
  • 01-表与表之间的关系
  • 02-外键约束概念
  • 03-外键约束的操作
  • 04-外键约束的数据插入和删除
  • 05-多表查询-交叉连接查询
  • 06-多表查询-内连接查询
  • 07-多表查询-外连接
  • 08-多表查询-子查询1
  • 09-多表查询-子查询2
  • 10-多表查询-子查询3
  • 11-索引的概念
  • 12-索引的分类
  • 13-索引的操作-普通索引
  • 14-索引的操作-唯一索引和主键索引
  • 15-索引的注意事项
  • 16-开窗函数介绍
  • 17-开窗函数的用法
  • 18-开窗函数求TopN
第三章 大数据可视化ETL平台
3-1 可视化ETL平台
  • 01-数据仓库的概念
  • 02-ETL的概念
  • 03-Kettle的介绍
  • 04-Kettle的安装
  • 05-Kettle的入门案例
  • 06-案例1-设置Excel输入组件
  • 07-案例2-设置Mysql输出组件
  • 08-设置数据库共享连接
  • 09-案例3-设置myql输入和mysql输出组件
  • 10-案例4-设置mysql输入和插入更新组件
  • 11-案例5-设置mysql输入组件和删除组件
  • 12-案例6-设置排序组件
  • 13-案例7-设置switch_case组件
第四章 大数据BI可视化开发
4-1 BI可视化开发
  • 01-案例8-设置sql脚本组件
  • 02-案例9-设置kettle转换参数
  • 03-案例10-设置kettle作业定时
  • 04-Kettle的Linux部署-使用Pan来执行转任务
  • 05-Kettle的Linux部署-使用Kitchen来执行转任务
  • 06-Superset的介绍
  • 07-Superset的安装和登录
  • 08-Superset的入门案例
  • 09-Superset案例1-统计每天的销售额
  • 10-Superset案例2-统计每天每个渠道的销售额
  • 11-Superset案例3-根据日期、区域、渠道、产品统计订单总额
  • 12-Superset案例4-根据日期、区域统计订单总额(数据透视表)
  • 13-Superset看板系统
第五章 大数据电商数据仓库实战
5-1 电商数据仓库实战
  • 01-综合案例-背景介绍
  • 02-综合案例-电商操作流程和原理介绍
  • 03-综合案例-电商系统术语介绍
  • 04-综合案例-解决方案
  • 05-综合案例-架构说明
  • 06-综合案例-DataGrip环境搭建
  • 07-综合案例-表字段介绍
  • 08-综合案例-业务数据抽取方案
  • 09-综合案例-业务数据抽取实施
  • 10-综合案例-数据抽取-作业操作
  • 11-综合案例-数据分析-统计每天的订单金额、订单总笔数
  • 12-综合案例-数据分析-统计当天下过订单的不同用户总数
  • 13-综合案例-统计不同支付方式订单总额和订单笔数分析
  • 14-综合案例-统计用户订单笔数Top5
  • 15-综合案例-统计不同分类的订单金额和总笔数-自关联
  • 16-综合案例-统计不同分类的订单金额和总笔数-自关联分类表
  • 17-综合案例-统计不同分类的订单金额和总笔数-sql编写
  • 18-综合案例-统计不同分类的订单金额和总笔数-sql优化
  • 19-综合案例-设置作业
  • 20-综合案例-数据可视化-订单销售总额和总笔数开发
  • 21-综合案例-数据可视化-订单支付方式分析开发
  • 22-综合案例-数据可视化-订单笔数TOP5用户
  • 23-综合案例-数据可视化-订单商品分类分析
  • 24-综合案例-看板开发
第六章 大数据Java语言编程-编程基础
6-1 编程基础(一)
  • 01.今日内容介绍 免费试学
  • 02.计算机基本概述 免费试学
  • 03.语言介绍 免费试学
  • 04.为什么要学习Java语言 免费试学
  • 05.Java语言介绍 免费试学
  • 06.JDK的下载安装和卸载 免费试学
  • 07.path环境变量的配置 免费试学
  • 08.HelloWorld入门案例(掌握) 免费试学
  • 09.编写HelloWorld案例常见问题 免费试学
  • 10.开发工具解释 免费试学
  • 11.IDEA的安装和首次启动设置 免费试学
  • 12.IDEA中的模块和项目之间的关系图解 免费试学
  • 13.HelloWorld案例(IDEA版)_必须掌握 免费试学
  • 14.IDEA的基本设置和快捷键 免费试学
  • 15.如何导入和删除模块 免费试学
  • 16.注释(掌握) 免费试学
  • 17.关键字解释 免费试学
  • 18.常量解释 免费试学
  • 19.变量入门 免费试学
  • 20.定义基本类型的变量并打印 免费试学
  • 21.变量的注意事项 免费试学
6-2 编程基础(二)
  • 01.昨日内容回顾 免费试学
  • 02.标识符 免费试学
  • 03.自动类型转换 免费试学
  • 04.强制类型转换 免费试学
  • 05.扩展_常量和变量相加 免费试学
  • 06.ASCII码表简介 免费试学
  • 07.算术运算符 免费试学
  • 08.自增和自减运算符 免费试学
  • 09.赋值运算符 免费试学
  • 10.关系运算符 免费试学
  • 11.逻辑运算符入门 免费试学
  • 12.短路逻辑运算符 免费试学
  • 13.三元运算符入门 免费试学
  • 14.三元案例_判断老虎体重是否相同 免费试学
  • 15.三元案例_获取三个和尚的最高身高 免费试学
  • 16.Scanner入门 免费试学
  • 17.键盘录入版和尚身高 免费试学
  • 18.Scanner练习_获取指定数字的各个位数 免费试学
  • 19.顺序结构 免费试学
  • 20.if语句之单分支 免费试学
  • 21.if语句之双分支 免费试学
  • 22.if双分支案例_判断奇偶数 免费试学
  • 23.if多分支案例_打印星期 免费试学
  • 24.if多分支案例_发放奖励 免费试学
  • 25.if多分支案例之获取三个整数的最大值 免费试学
  • 26.if使用的小技巧 免费试学
  • 27.switch语句入门 免费试学
  • 28.case穿透 免费试学
  • 29.switch的思考题 免费试学
  • 30.switch语句_发放奖励 免费试学
6-3 编程基础(三)
  • 01.Day02作业第6题讲解
  • 02.Day02作业第7题讲解
  • 03.循环简介
  • 04.for循环入门
  • 05.for循环案例_打印数字
  • 06.for循环案例_求和思想
  • 07.for循环案例_求偶数和
  • 08.for循环案例_求水仙花数
  • 09.for循环案例_计数思想
  • 10.while循环入门
  • 11.while循环案例_求和思想
  • 12.while循环案例_珠穆朗玛峰问题
  • 13.do.while循环(了解)
  • 14.三种循环之间的区别(理解)
  • 15.break的作用
  • 16.continue的入门案例
  • 17.控制跳转语句_思考题
  • 18.循环嵌套_年月案例
  • 19.循环嵌套_打印矩形
  • 20.循环嵌套_打印正三角形
  • 21.循环嵌套_打印倒三角形
  • 22.循环嵌套_打印99乘法表
  • 23.Math获取随机数_入门
6-4 编程基础(四)
  • 01.数组简介
  • 02.数组的基本用法
  • 03.一个数组的内存图_了解
  • 04.两个数组的内存图
  • 05.两个数组指向同一个地址
  • 06.数组的两个常见小问题
  • 07.数组的常见操作_遍历数组
  • 08.数组的常见操作_获取最大值
  • 09.数组的常见操作_反转数组
  • 10.方法简介
  • 11.无参无返回值的方法
  • 12.方法调用图解
  • 13.有参无返回值的方法
  • 14.无参有返回值的方法_案例一(求和)
  • 15.无参有返回值的方法_案例二(求奇偶数)
  • 16.有参有返回值的方法_案例一(求和)
  • 17.有参有返回值的方法_案例二(判断奇偶数)
  • 18.有参有返回值的方法_案例三(求最大值)
  • 19.方法练习_遍历数组
  • 20.方法练习_获取数组元素最大值
  • 21.方法练习_模拟计算器
  • 22.方法重载入门
  • 23.方法重载的思考题
  • 24.基本类型作为形参的情况
  • 25.引用类型作为形参的情况
  • 26.遍历数组
  • 27.Debug断点调试
第七章 大数据Java语言编程-面向对象
7-1 面向对象(一)
  • 01.面向对象简介
  • 02.类和对象入门
  • 03.如何使用类中的内容
  • 04.手机类的定义和使用
  • 05.一个对象的内存图(了解)
  • 06.两个对象的内存图(了解)
  • 07.两个引用指向同一个对象的内存图(了解)
  • 08.成员变量和局部变量的区别
  • 09.private关键字讲解
  • 10.加入private后的标准代码
  • 11.封装的概述和好处
  • 12.this关键字入门
  • 13.加入this关键字后的标准版的JavaBean代码
  • 14.构造方法入门
  • 15.构造方法的注意事项
7-2 面向对象(二)
  • 00.昨日作业讲解
  • 02.非继承版(人类案例)
  • 03.继承版(人类案例)
  • 04.Java中继承的特点
  • 05.继承中成员变量的访问特点
  • 06.super关键字详解
  • 07.继承关系中的构造方法的特点
  • 08.继承关系中的成员方法的访问特点
  • 09.方法重写详解
  • 10.人类案例(继承版_标准版本)
  • 11.多态入门
  • 12.多态中的成员访问特点
  • 13.多态的好处和弊端
  • 14.向上转型和向下转型
  • 15.动物案例_多态版
  • 16.扩展内容_多态在实际开发中的应用
  • 17.扩展内容_instanceof关键字
第八章 大数据Java语言编程-常用类API
8-1 常用类API(一)
  • 01.Day06作业第二题讲解
  • 02.final关键字的用法
  • 03.扩展_final关键字的常见面试题
  • 04.static关键字入门
  • 05.静态方法的访问特点
  • 06.抽象类入门
  • 07.抽象类的特点
  • 08.抽象类的成员特点
  • 09.老师类案例_抽象类版
  • 10.接口入门
  • 11.接口中的成员特点
  • 12.抽象类和接口的区别
  • 13.运动员和教练类案例(思路分析)
  • 14.运动员和教练类案例(代码实现)
  • 15.包详解
  • 16.权限修饰符
  • 17.扩展_Object#toString()方法
  • 18.面向对象总结
8-2 常用类API(二)
  • 01.Day07作业第一题讲解
  • 02.Day07作业第3题讲解
  • 03.Scanner接收字符串
  • 04.使用Scanner的小技巧
  • 05.Object类的toString()方法介绍
  • 06.Object类的equals()方法
  • 07.String类的构造方法
  • 08.String类创建对象的特点
  • 09.比较字符串是否相等
  • 10.String扩展_字符串拼接问题
  • 11.String案例_模拟用户登录
  • 12.String案例_遍历字符串
  • 13.String案例_统计各类型字符的次数
  • 14.String案例_字符串拼接
  • 15.String案例_字符串反转
  • 16.通过API帮助文档查看String类中的方法.
  • 17.StringBuilder入门案例
  • 18.StringBuilder的添加和反转方法
  • 19.StringBuilder和String的相互转换
  • 20.StringBuilder案例_拼接数组元素
  • 21.StringBuilder案例_反转字符串
8-3 常用类API(三)
  • 01.冒泡排序原理分析
  • 02.冒泡排序代码实现
  • 03.Arrays工具类介绍
  • 04.包装类简介
  • 05.int和String之间如何相互转换
  • 06.扩展_其他基本类型和String之间的转换
  • 07.案例_字符串数字排序
  • 08.JDK1.5特性_自动拆装箱
  • 09.Date入门
  • 10.Date类的构造方法
  • 11.SimpleDateFormat的格式化操作
  • 12.SimpleDateFormat的解析操作
  • 13.DateUtils工具类的定义
  • 14.Calendar入门
  • 15.Calendar类的成员变量和成员方法
  • 16.获取某年的2月有多少天
  • 17.内部类介绍
  • 18.匿名内部类的入门案例
  • 19.匿名内部类的使用场景和小技巧
第九章 大数据Java语言编程-集合操作
9-1 集合操作(一)
  • 01.Day09作业第六题讲解
  • 02.Day09作业扩展第一题
  • 03.Day09作业扩展第二题
  • 04.集合的体系图
  • 05.Collection集合入门
  • 06.Collection集合中的常用方法
  • 07.遍历集合
  • 08.Collection集合存储自定义对象并遍历
  • 09.List集合入门
  • 10.List集合的特有成员方法
  • 11.List集合的独有遍历方式
  • 12.List集合存储自定义类型的对象并遍历
  • 13.列表迭代器
  • 14.并发修改异常详解
  • 15.扩展_CopyOnWriteArrayList集合
  • 16.增强for入门
  • 17.增强for遍历List集合
  • 18.增强for遍历List集合_存储自定义类型的对象
  • 19.栈和队列介绍
  • 20.数组和链表介绍
  • 21.ArrayList集合存储字符串并遍历
  • 22.ArrayList集合存储自定义对象并遍历
  • 23.LinkedList集合入门
  • 24.LinkedList集合的特有方法
9-2 集合操作(二)
  • 01.Day10作业第4题讲解
  • 02.Set集合入门
  • 03.哈希值详解
  • 04.HashSet集合入门
  • 05.HashSet集合保证元素唯一性的原理
  • 06.数据结构之哈希表
  • 07.HashSet存储自定义对象并保证唯一性
  • 08.LinkedHashSet集合详解
  • 09.可变参数
  • 10.Map集合入门
  • 11.Map集合的成员方法详解
  • 12.Map集合的获取功能
  • 13.Map集合的遍历方式1_根据键获取其对应的值
  • 14.Map集合的遍历方式2_根据键值对获取其对应的键和值
  • 15.Map案例_键是String值是Student
  • 16.Map案例_键是Student值是String
  • 17.Map案例_ArrayList嵌套HashMap集合
  • 18.Map案例_HashMap嵌套ArrayList集合
  • 19.Map案例_统计字符个数
  • 20.Collections工具类的成员方法解释
  • 21.模拟斗地主发牌_无序的牌
  • 22.模拟斗地主发牌_有序的牌_思路分析
  • 23.模拟斗地主发牌_有序的牌_代码实现
第十章 大数据Java语言编程-IO操作
10-1 IO操作(一)
  • 01.案例_获取10个不重复的随机数
  • 02.Lambda表达式初体验
  • 03.Lambda表达式的标准格式
  • 04.Lambda表达式练习1_无参无返回方法
  • 05.Lambda表达式练习2_有参无返回方法
  • 06.Lambda表达式练习3_有参有返回值方法
  • 07.Lambda表达式的省略模式
  • 08.Lambda表达式的注意事项
  • 09.异常简介
  • 10.try.catch方式处理异常
  • 11.声明抛出异常
  • 12.关于异常的思考题
  • 13.File类的构造方法
  • 15.File类的创建功能
  • 16.File类的判断功能
  • 17.File类的获取功能
  • 18.File类的删除功能
  • 19.IO流的简介
  • 20.字节输出流讲解
  • 21.字节输出流的两个小问题
  • 22.try.catch方式解决IO流异常
  • 23.try.with.resource语句
  • 24.创建空文件
  • 25.字节输入流一次读取一个字节
  • 26.字节输入流一次读取一个字节数组
  • 27,字节流拷贝文本文件
  • 28.图片加密
  • 30.字节流拷贝文件的四种方式
10-2 字节缓冲流(补充)
  • 25-缓冲流-一次读写一个字节代码实现
  • 26-缓冲流-一次读写一个字节原理
  • 27-缓冲流-一次读写一个字节数组
10-3 IO操作(二)
  • 01.字符流的由来
  • 02.编解码问题
  • 03.普通的字符流一次读写一个字符
  • 04.高效字符流入门
  • 05.字符流拷贝文件的6种方式(了解)
  • 06.高效字符流一次读写一行
  • 07.序列化流
  • 08.反序列化流
  • 09.serialVersionUID和transient关键字
  • 10.commons-io第三方jar包的使用
  • 11.多线程入门
  • 12.多线程并行和并发的区别
  • 13.单线程程序演示
  • 14.Java程序是否是多线程版
  • 15.多线程的实现方式一_继承Thread类
  • 16.多线程的原理
  • 17.多线程的实现方式二_实现Runnable接口
  • 18.匿名内部类实现多线程
  • 19.模拟卖票案例_继承Thread类版
  • 20.多线程模拟卖票出现非法值的原因
  • 21.多线程模拟卖票_问题解决
  • 22.多线程模拟卖票_实现Runnable接口版
第十一章 大数据Java语言编程-Java基础增强
11-1 Java基础增强(一)
  • 02.死锁详解
  • 03.多线程的生命周期
  • 04.线程安全的类
  • 05.线程的优先级
  • 06.线程控制之加入线程
  • 07.线程控制之守护线程
  • 08.Lock锁简介
  • 09.实现线程池_提交Runnable接口任务
  • 10.实现线程池_提交Callable接口任务
  • 11.生产者和消费者设计模式介绍
  • 12.生产者和消费者设计模式_代码实现
  • 13.设计模式相关内容介绍
  • 14.网编介绍
  • 15.IP地址介绍
  • 16.InetAddress类讲解
  • 17.端口号和协议
  • 18.UDP协议_发送端代码
  • 19.UDP协议_接收端代码实现
  • 20.UDP协议案例_键盘录入数据然后发送
  • 21.TCP协议之客户端代码实现
  • 22.TCP协议之服务器端接收客户端发送的数据
  • 23.TCP协议之客户端和服务器端之一句话的交情
  • 24.TCP协议之客户端接收键盘录入_然后发送给服务器端打印
  • 25.服务器端接收数据写入到文件
11-2 Java基础增强(二)
  • 01.网编案例_客户端给服务器端上传文件
  • 02.网编案例_客户端上传文件_接收服务器端回执信息
  • 03.网编案例_多线程版服务器端
  • 04.Junit单元测试入门
  • 05.Junit单元测试相关注解
  • 06.类加载的过程
  • 07.类加载器详解
  • 08.类加载器的检查和运行顺序
  • 09.反射入门_获取字节码文件对象
  • 10.反射_获取类的构造方法
  • 11.反射_通过公共的构造方法创建对象
  • 12.反射_通过私有的构造方法创建对象
  • 13.反射_获取成员变量并使用
  • 14.反射_获取私有成员变量并使用
  • 15.反射_获取成员方法
  • 16.反射_获取成员方法并使用
  • 17.反射案例_越过泛型检查
  • 18.Properties集合类讲解
  • 19.反射案例_执行执行类的指定方法
  • 20.注解入门
  • 21.自定义注解
  • 22.使用自定义注解
  • 23.通过反射获取注解信息
  • 24.xml入门
  • 25.xml文件中可以写啥
  • 26.dtd约束演示
  • 27.schema约束演示
  • 28.命名空间(了解)
第十二章 大数据java基础综合_jdbc
12-1 大数据java基础综合_jdbc
  • 01-今日内容
  • 02-数据库的基本介绍
  • 03-在window中安装MySQL
  • 04-如何卸载mysql以及如何连接mysql操作
  • 05-jdbc的基本介绍
  • 06-jdbc的入门案例操作
  • 07-JDBC的API详解(上)
  • 08-JDBC的API详解(下)
  • 09-使用原始JDBC实现增加数据操作
  • 10-提取jdbc的工具类操作
  • 11-jdbc的工具类的基本使用操作
  • 12-SQL注入问题的引入
  • 13-SQL注入问题的解决
  • 14-使用预编译的方式来实现对数据库的CURD
  • 15-C3P0连接池的基本使用操作
  • 16-C3P0连接池的工具类的提前
  • 17-事务的基本概念以及如何在mysql中操作事务
  • 18-事务的四大特性
  • 19-事务的隔离性问题说明和解决方案
  • 20-jdbc中如何事务操作
  • 21-总结
第十三章 大数据java基础综合_maven
13-1 大数据java基础综合_maven
  • 01-课前回顾和今日内容
  • 02-maven的基本介绍
  • 03-安装maven软件
  • 04-配置maven的本地仓库方案
  • 05-idea中集成maven的操作
  • 06-idea中创建一个无骨架的javase的项目
  • 07-idea中创建一个有骨架的javase项目
  • 08-idea中创建一个有骨架的web工程
  • 09-idea中创建一个无骨架的web工程
  • 10-maven的常用命令
  • 11-maven的插件说明
  • 12-maven插件的总结
  • 13-maven的如何导入依赖操作
  • 14-maven中依赖范围的讲解
  • 15-maven项目中聚合工程
  • 16-总结
  • 17_扩展_web的介绍和前端技术说明
  • 18-html和css以及javascript的基本介绍
  • 19-css选择器的介绍
第十四章 大数据java基础综合_爬虫综合案例(一)
14-1 大数据java基础综合_爬虫综合案例
  • 01-课前回顾和今日内容
  • 02-爬虫的基本概念和爬虫的作用
  • 03-爬虫的分类讲解
  • 04-爬虫的执行流程
  • 05-爬墙有爬取数的爬取策略的说明
  • 06-http协议中请求部分说明
  • 07-http协议中响应部分的讲解
  • 08-如何使用jdk发送get请求操作
  • 09-如何使用JDK发送post请求
  • 10-使用httpClient发送get请求操作
  • 11-使用httpClient发送post请求操作
  • 12-使用jsoup如何获取document的四种方式
  • 13-jsoup解析数据_获取传智播客中所有的课程信息
  • 14-jsoup解析数据_获取163新闻的数据
  • 15-综合案例_起点爬虫(上)
  • 16-综合案例_起点爬虫(中)
  • 17-综合案例_起点爬虫(下)
  • 18-总结
第十五章 大数据java基础综合_爬虫综合案例(二)
15-1 大数据java基础综合_爬虫综合案例
  • 01-课前回顾和今日内容
  • 02-需求说明和项目的准备工作
  • 03-jd爬虫_发送请求获取数据(首页)
  • 04-jd爬虫_图片数据的下载操作
  • 05-jd爬虫_解析数据和封装数据操作
  • 06-jd爬虫_保存数据操作
  • 07-完成获取下一页的数据并完成最终的测试
  • 08-分页的错误说明
  • 09-优化工作_将各个阶段抽取成一个个单独方法
  • 10-使用线程池来优化爬虫程序_线程池构建思路
  • 11-线程池构建再次说明
  • 12-如何选择用于存储100页的URL的容器
  • 13-如何保证线程安全的两种措施
  • 14-最终的优化程序实现以及综合测试
  • 15-监控线程的实现
  • 16-今日总结(上)
  • 17-今日总结(下)

阶段二 Hadoop 技术栈

展开
第一章 大数据linux基础
1-1 linux基础
  • 01-课前回顾和今日内容
  • 02-计算机基本介绍
  • 03-linux系统基本介绍以及虚拟化软件介绍
  • 04-vmware的卸载
  • 05-vmware的安装操作
  • 06-centos7.7安装操作
  • 07-安装CRT并且连接虚拟机操作
  • 08-linux的目录结构说明
  • 09-linux的相关命令的基本说明
  • 10-linux命令_ll、pwd、mkdir、rm、cd
  • 11-linux命令_文件操作命令
  • 12-linux命令_压缩和解压缩的操作
  • 13-linux命令_文件查找命令
  • 14-linux命令_文件下载的命令
  • 15-linux命令k_系统管理命令
  • 16-linux命令_用户的创建和删除命令
  • 17-linux命令_权限的设置操作
  • 18-linux命令_网络和服务的命令
  • 19-linux命令_其他命令操作
  • 20-linux命令_vi编辑命令
  • 21-vmware三种上网模式
  • 22-虚拟机的静态ip设置
  • 23-linux防火墙的操作内容
  • 24-linux文件上传的两种方式
  • 25-linux安装mysql
  • 25-linux安装mysql(1)
  • 26-linux安装jdk的操作
  • 27-总结
第二章 大数据linux高级(一)
2-1 linux高级
  • 01-课前回顾和今日内容
  • 02-linux高级命令_重定向操作
  • 03-linux高级命令_cut命令
  • 04-linux高级命令_wc命令
  • 05-linux高级命令_awk基本使用
  • 06-linux高级命令_awk的分隔符号和内容匹配操作
  • 07-linux高级命令_段内容判断操作
  • 08-linux高级命令_awk中NR和NF操作
  • 09-linux高级命令_awk分段求和操作(begin操作)
  • 10-linux高级命令_awk综合练习
  • 11-shell编程_基本介绍和入门案例
  • 12-shell脚本的三种运行方式
  • 13-shell的数据类型说明
  • 14-shell的变量操作_用户变量
  • 15-shell的环境变量的内容
  • 16-shell的特殊变量的讲解
  • 17-shell的字符串的操作_字符串特点和字符串的拼接操作
  • 18-shell的字符串的讲解_获取长度截取字符串以及查找字符操作
  • 19-shell的运算符的操作内容
  • 20-总结
第三章 大数据linux高级(二)
3-1 linux高级
  • 01-课前回顾和今日内容
  • 02-if的基本介绍以及if格式案例操作
  • 03-if与esle的相关的结构说明和操作案例
  • 04-if与elif_else的相关的结构说明和操作案例
  • 05-for循环的第一种格式的操作案例
  • 06-for循环第二种格式的操作案例
  • 07-while循环的基本操作案例
  • 08-如何实现死循环操作
  • 09-case判断语句的操作案例
  • 10-跳出循环的操作(break和continue操作)
  • 11-对while进行continue操作的问题解决
  • 12-shell函数的基本定义操作以及如何返回数据内容
  • 13-shell带有参数的函数操作
  • 14-数组的基本介绍以及相关的操作
  • 15-如何遍历数组的操作
  • 16-改错(上午函数部分返回值的解决方案)
  • 17-shell中select语句的操作选项
  • 18-shell中如何在一个脚本中加载另一个脚本的操作
  • 19-shell的综合案例_猜字小游戏
  • 20-如何实现数据库的备份操作以及需求的讲解说明
  • 21-如何实现数据库的备份脚本的编写
  • 22-如何实现定时执行备份的操作案例
  • 23-今日总结
第四章 大数据环境统一与zookeeper
4-1 大数据环境统一与zookeeper??
  • 01-课前回顾和今日内容
  • 02-基于第一台拷贝出后两台虚拟机操作
  • 03-内存的配置和修改另两台mac地址操作
  • 04-配置三台虚拟机ip地址和通过CRT连接三台虚拟机
  • 05-设置主机名和域名的映射关系匹配
  • 06-下课时发生问题的解决
  • 07-三台虚拟机的防火墙和深层防火墙的关闭
  • 08-ssh免密登录的执行原理流程说明
  • 09-ssh免密配置操作项
  • 10-时钟同步的操作(第一种方式实现)
  • 11-vmware的中检测jdk以及vmware的快照机制说明
  • 12-离线时钟同步策略
  • 13-zookeeper的基本介绍
  • 14-zookeeper的架构说明及其分布式和集群的概念说明
  • 15-zookeeper的五大特性
  • 16.zookeeper的集群的配置操作
  • 17-zookeeper的可视化的说明以及如何进入命令行客户端
  • 18-zookeeper的数据模型
  • 19-zookeeper的节点类型
  • 20-zookeeper中shell操作_如何创建节点
  • 21-zookeeper中相关的shell命令的操作说明
  • 21-zookeeper的watch机制说明
  • 22-使用java操作zookeeper_创建节点
  • 23-使用java操作zookeeper_修改数据和删除数据操作
  • 24-使用java操作zookeeper_查询数据
  • 25-zookeeper的选举策略
  • 26-总结
第五章 大数据hadoop介绍与集群安装
5-1 day09_hadoop介绍与集群安装
  • 01-课前回顾和今日内容
  • 02-什么是大数据以及大数据的特点
  • 03-数据的类型
  • 04-大数据的应用场景和业务分析的流程
  • 05分布式的技术说明
  • 06-hadoop的发展历程
  • 07-hadoop的四大特性
  • 08-hadoop的特性和hadoop的发行版本
  • 09-hadoop1.x的基础架构
  • 10-hadoop的元数据的说明信息
  • 11-hadoop的2.x的架构(单节点架构)
  • 12-hadoop2.x的高可用的架构说明
  • 13-hadoop3.x的新特性的简要说明
  • 14-集群的基本介绍以及三种部署方式说明
  • 15-hadoop集群安装之前需要进行编译操作(不需要做)
  • 15-hadoop的编译后版本和官方编译版本区别说明
  • 16-hadoop的目录结构的介绍操作
  • 17-使用notepad++连接虚拟机的操作
  • 18-hadoop的配置文件的修改操作
  • 19-hadoop的目录的创建和环境变量的配置操作
  • 20-hadoop的界面启动操作方案
  • 21-如何在window中使用域名的方式来访问hadoop集群
  • 22-hadoop的初体验的操作
  • 23-总结
第六章 大数据HDFS(一)
6-1 大数据HDFS
  • 01-课前回顾和今日内容
  • 02-HDFS基本的介绍
  • 03-HDFS的设计目标及其应用场景
  • 04-HDFS的架构说明
  • 05-HDFS副本机架感知原理
  • 06-HDFS的shell基本命令(上)
  • 07-HDFS的shell基本命令(下)
  • 08-hdfs的安全模式
  • 09-hdfs的基准测试内容
  • 10-namenode的基本原理
  • 11-datanode的基本原理
  • 12-HDFS的写入数据的流程
  • 13-HDFS的读取数据的流程
  • 14-HDFS的SNN的元数据辅助管理操作
  • 15-HDFS的元数据的辅助管理基本内容
  • 16-如何使用SNN来恢复元数据操作
  • 17-总结
第七章 大数据HDFS(二)
7-1 大数据HDFS(二)
  • 01-课前回顾和今日内容
  • 02-JAVA操作Hadoop的windows环境的配置
  • 04-java操作HADOOP_如何获取FileSystem文件系统对象
  • 05-java操作HDFS_获取某个路径下所有的文件
  • 06-java操作HDFS_如何创建一个文件夹
  • 07-java操作HDFS_如何创建一个文件
  • 08-java操作HDFS_完成文件下载的操作
  • 09-java操作HDFS_完成文件的下载操作
  • 10-java操作HDFS_完成小文件合并成大文件的操作
  • 11-java操作HDFS_权限的操作内容
  • 12=服务器之间或者集群之间数据拷贝工作
  • 13-HDFS中归档文件的说明
  • 14-HDFS的快照的机制
  • 15-HDFS的垃圾桶的机制
  • 16-HDFS的高可用基本介绍
  • 17-高可用的配置操作
  • 18-高可用启动和测试操作
  • 19-hadoop的联邦机制
  • 20-总结
第八章 大数据MapReduce(一)
8-1 mapreduce
  • 01-课前回顾和今日内容
  • 02-MapReduce思想_分而治之
  • 03-MapReduce的设计构思
  • 04-MapReduce的编程规范说明_八大步骤
  • 05-如何实现map和reduce操作
  • 06-wordCount案例的实现流程说明
  • 07-wordCount的map和reduce的程序编写
  • 08-wordCount的驱动类编写
  • 09-运行方式_第一种
  • 10-运行方式_第二种分布式的运行操作
  • 11-wordCount小总结
  • 12-MapReduce的分区的概念
  • 13-阐述需求, 了解如何实现自定义分区
  • 14-如何自定义分区操作
  • 15-分区案例_map和reduce实现操作
  • 16-分区案例_驱动类的实现操作
  • 17-分区案例_分区mr两种测试
  • 18-序列化操作以及如何排序的概念说明
  • 19-自定义一个pojo实现序列化和排序的操作
  • 20-排序的案例操作_MR实现
  • 21-排序案例MR_代码测试操作
  • 22-总结
第九章 大数据MapReduce(二)
9-1 mapreduce
  • 01-课前回顾和今日内容
  • 02-昨日wordCount的案例流程回顾
  • 03-combinner基本概念及其需求的流程分析工作
  • 04-combinner操作_没有combinner实现案例操作
  • 05-combinner操作_使用combinner完成案例操作
  • 06-mapTask的并行机制
  • 07-map阶段的整个执行流程
  • 08-reduce阶段的整个执行流程
  • 09-MapReduce的工作机制的总结
  • 10-将课件中工作机制重新梳理一下
  • 11-分组的基本介绍
  • 12-MapReduce中分区和分组的区别, 以及分组的细化
  • 13-自定义分组的需求流程分析
  • 14-分组的案例进行自定义各个组件
  • 15-分组的案例的驱动类的编写以及测试操作
  • 16-mr的综合案例_案例一_需求一流程分析
  • 17-mr的综合案例_案例一_需求一代码实现
  • 18-mr的综合案例_案例一_需求二代码实现
  • 19-总结
第十章 大数据MapReduce与yarn
10-1 mapreduce和yarn
  • 01-课前回顾和今日内容
  • 02-求共同好友的思路说明
  • 03-求共同好友_求某一个用户在那些用户好友列表中MR实现
  • 04-求共同好友_最终实现操作
  • 05-案例二_倒排索引的介绍,引出需求
  • 06-案例二_倒排索引的MR实现
  • 07-mapTask的并行度机制
  • 08-MapReduce的性能优化策略
  • 09-yarn集群的基本介绍
  • 10-yarn集群中课件中描述的信息
  • 11-yarn运行机制说明
  • 12-yarn的三种调度器
  • 13-yarn常用参数说明
  • 14-总结
第十一章 大数据hive(一)
11-1 hive
  • 01-课前回顾和今日内容
  • 02-数据仓库的基本概念及其数仓的主要特征
  • 03-数据仓库和数据库的区别
  • 04-数据仓库的分层架构和数据仓库的ETL工作
  • 05-数据仓库的分层总结
  • 06-hive的基本介绍及其特点
  • 07-hive的架构和hive的元数据的存储方案
  • 08-hive的安装的三种方式的说明
  • 09-hive的安装中内嵌模式(了解)
  • 10-hive的安装操作(最终安装版本)
  • 11-hive的三种连接方式
  • 12-hive的客户端的一键启动脚本
  • 13-hive中关于数据库的相关的操作
  • 14-如何创建表的语法说明
  • 15-关于内部表的相关的操作
  • 16-关于外部表的相关的操作
  • 17内部表和外部表的区别说明
  • 18-复杂类型_array类型
  • 19-复杂类型_map和struct操作
  • 20-内部表和外部表的互转操作
  • 21-分区表的相关的操作(上)
  • 22-分区表的相关的操作(下)
  • 23-分区表的综合练习
  • 24-桶表的基本介绍与操作
  • 25-修改表结构操作
  • 26-mysql密码处理操作
第十二章 大数据hive(二)
12-1 hive
  • 01-课前回顾和今日内容
  • 02-如何进行数据的导入操作
  • 03-如何正确启动hive的步骤
  • 04-如何导出数据操作
  • 05-hive的查询的语法说明
  • 06-hive的查询操作(上)
  • 07-hive的查询操作(下)
  • 08-hive的查询的操作_数据准备工作
  • 09-hive查询操作_需求一
  • 10-hive的查询操作_需求2和需求3
  • 11-hive的查询操作_需求4,5操作
  • 12-hive的参数的三种传递操作
  • 13-hive的函数_数值,字符串以及日期函数
  • 14-hive的函数_条件函数
  • 15-hive的函数_转换函数操作
  • 16-hive的函数_行转列的操作
  • 17-hive的表生成函数_explode以及侧视图说明
  • 18-hive的函数_reflect函数
  • 19-hive的分析函数_row_number和rank以及dense_rank
  • 20-hive的分析函数_ntile函数
  • 21-hive的分析函数_sum_avg_max...
  • 22-hive的分析函数_lag和lead以及...
  • 23-总结
第十三章 大数据hive(三)
13-1 hive
  • 01-课前回顾和今日内容
  • 02-如何自定义hive的函数_UDF
  • 03-如何自定义hive的函数_UDTF
  • 04-hive的调优_hive的数据压缩方式
  • 05-hive中_什么是行式存储什么是列式存储
  • 06-数据仓库中各个层使用哪种格式来存储数据
  • 07-hive的数据各个存储格式的效率测试
  • 08-fetch的本地抓取策略
  • 09-hive的本地模式操作
  • 10-join的优化策略
  • 11-SQL的优化方向
  • 12-动态分区的调整介绍
  • 13-动态分区的相关的实操
  • 14-数据倾斜的问题的处理方案
  • 15-hive的_并行执行,严格模式.jvm重用以及推测执行
  • 16-总结

阶段三 项目一 在线教育

展开
第一章 大数据-知行教育大数据分析平台
1-1 day01_知行教育大数据分析平台
  • 01-今日内容
  • 02-项目的基本介绍及其项目的背景说明
  • 03-项目的业务需求说明(上)
  • 04-项目的业务需求说明(下)
  • 05_整个项目的架构的说明
  • 06-为什么要使用CDH版本软件
  • 07-clouderamanager基本的介绍及其相关的功能说明
  • 08-cloudera manager的虚拟机整体配置操作
  • 09-数据仓库的基本介绍
  • 10-数据仓库系统架构
  • 11-维度分析的基本介绍
  • 12-维度建模的基本概念
  • 13-维度建模中事实表的基本介绍
  • 14-维度建模中维度表的基本介绍
  • 15-数仓发展经历的三种模型介绍
  • 16-渐变维基本介绍说明
  • 17-今日总结
1-2 day02_知行教育大数据分析平台
  • 01-课前回顾和今日内容
  • 02-为什么要进行数据分层以及回顾数仓三层架构
  • 03-数据仓库细度分层方案
  • 04-数据仓库细度分析_总结
  • 05-通过一个案例简单描述一下数据仓库设计过程
  • 06-hue的基本介绍及其通过HUE操作HDFS
  • 07-通过hue操作hive
  • 08-oozie的基本介绍及其和azkaban的对比
  • 09-oozie的三种工作流及其配置的原理说明
  • 10-使用hue操作oozie
  • 11-对sqoop基本介绍
  • 12-sqoop如何实现将数据全量导入到HDFS中操作
  • 13-sqoop如何将数据全量导入到hive中
  • 14-通过where子句将符合条件数据导入到HDFS中
  • 15-通过query的方式将数据导入到hdfs中
  • 16-增量导入数据到hive表中
  • 17-sqoop的数据导出操作(hive_MySQL)
  • 18-sqoop的常用参数说明
  • 20-今日内容总结
1-3 day03_知行教育大数据分析平台
  • 01-课前回顾和今日内容 免费试学
  • 02-访问咨询主题看板需求(1~4) 免费试学
  • 03-访问咨询主题看板需求(5~8) 免费试学
  • 04-访问咨询主题看板的原始数据结构说明 免费试学
  • 05-建模分析(分析维度和指标以及DWD表有那些字段) 免费试学
  • 06-建模分析(说明为什么不建立DWM层表数据) 免费试学
  • 07-建模分析(DWS层 关于访问量的表结构分析) 免费试学
  • 08-建模分析(DWS层_关于咨询量的表结构设计) 免费试学
  • 09-维度建模的分析总结说明 免费试学
  • 10-维度建模分析_课下问题的说明 免费试学
  • 11-数仓中表使用何种数据格式以及使用何种压缩方案 免费试学
  • 12-全量和增量的说明 免费试学
  • 13-hive的分区介绍 免费试学
  • 14-建模操作_ODS层建模过程 免费试学
  • 15-建模操作_DW层建模过程 免费试学
  • 16-hive的参数优化(hdfs,yarn的基本配置) 免费试学
  • 17-hive的参数的优化方式 免费试学
  • 18-今日总结 免费试学
1-4 day04_知行教育大数据分析平台
  • 01-课前回顾和今日内容
  • 02-数据采集_MySQL到hive(web_chat_ems)
  • 03-数据采集_MySQL到hive(web_chat_text_ems)
  • 04-访问量全量操作_从ODS到DWD(SQL基本实现)-解析数据问题未解决
  • 05-访问量全量操作_从ODS到DWD(SQL基本实现)-解析数据问题以解决
  • 06-访问量全量操作_从ODS到DWD操作(SQL的执行及其异常问题解决)
  • 07-统计分析操作_根据地区统计各个时间的访问量
  • 08-统计分析操作_根据搜索来源统计各个时间的访问量
  • 09-统计分析操作_根据来源渠道统计各个时间的访问量
  • 10-统计分析操作_根据会话来源页面及其中访问量统计各个时间的访问量
  • 11-全量分析_数据导出MySQL的操作
  • 12-咨询量统计_全量统计_根据地区来统计各时间段咨询量数据
  • 13-咨询量统计_全量统计_根据来源渠道统计各个时间段的咨询量数据
  • 14-咨询量统计_全量流程_数据导出操作
  • 15-今日总结
1-5 day05_知行教育大数据分析平台
  • 01-课前回顾和今日内容
  • 02-增量流程的基本说明
  • 03-为了实现增量过程模拟出上一天的数据
  • 04-实现增量操作_数据采集(上)_SQL和sqoop的定义
  • 05-实现增量操作_shell脚本编写
  • 06-实现增量操作_数据采集shell脚本执行及其oozie的配置操作
  • 07-实现增量操作_数据转换处理操作
  • 08-实现正能量操作_数据统计分析和导出操作
  • 09-意向客户主题看板_需求说明
  • 10-导入原始数据以及对表基本说明
  • 11-建模分析_DWD层字段分析
  • 12-建模分析_DWM层表字段分析操作
  • 13-建模分析_DWS层表字段分析操作
  • 14-建模分析_总结
  • 15-分桶表的作用
  • 16-分桶表的创建及其如何加载数据到桶表说明
  • 17-分桶表的作用_数据采样操作
  • 18-如何开启mapJoin进行优化操作
  • 19-bucketJoin和SMBjoin开启的前提要求说明
  • 20-总结
1-6 day06_知行教育大数据分析平台
  • 01-课前回顾和今日内容
  • 02-分层操作_完成ODS层表构建操作
  • 03-分层操作_完成DIM层表构建
  • 04-分层操作_完成DWM与DWS层表构建
  • 05-全量流程_DIM层数据采集工作
  • 06-全量流程_ODS数据采集流程
  • 07-全量流程_ODS到DWD层的数据转换操作(抽样实现)
  • 08-全量流程_ODS到DWD层的总结
  • 09-全量流程_DWD和DIM转换到DWM操作流程(表关联)
  • 10-全量流程_DWD和DIM转换到DWM操作流程(字段与优化及其最终操作)
  • 11-统计分析_DWM到DWS的基于维度的统计分析操作
  • 12-增量流程_scd2的拉链表合并的流程
  • 13-增量流程_拉链表的合并详细讲解(另一方式)
  • 14-增量流程_课程中拉链表的增量实现操作
  • 15-意向主题看板
  • 16-总结
1-7 day07_执行教育大数据分析平台
  • 01-课前回顾和今日内容
  • 02-需求说明及其表结构说明
1-8 day08_执行教育大数据分析平台
  • 01-课前回顾和今日内容
  • 02-hive的索引_原始索引
  • 03-hive的索引_行组索引操作
  • 04-hive的索引_bloom filter index索引操作
  • 05-报名用户主题看板_需求说明
  • 06-报名用户主题看板_需求维度指标总部
  • 07-报名用户主题看板_建模分析(ODS和DWD层)
  • 08-报名用户主题看板_建模分析(DWD层操作)
  • 09-报名用户主题看板_建模分析(DWS层)
  • 10-报名用户主题看板_建模实现(ODS和DIM)
  • 11-报名用户主题看板_建模实现(DWD,DWM,DWS)
  • 12-报名用户主题看板_数据采集操作
  • 13-hive中相关的函数说明
  • 14-hive中的调优_hive的并行优化
  • 15-hive的中调优_小文件合并优化
  • 16-hive的调优_矢量化查询和读取零拷贝
  • 17-huve的数据清洗的操作_ ODS到DWD层
  • 18-hive调优_关联优化器(shuffle优化)
  • 19-hive调优_数据倾斜问题解决
  • 20-hive调优_合并优化操作(skewjoin中进行合并优化)
  • 21-hive的调优_分组的数据倾斜解决方案
  • 22-报名用户主题看板_数据处理(DWD_DWM)
  • 23-报名用户主题看板_统计实现(DWM_DWS)
1-9 day09_知行教育大数据分析平台
  • 01-课前回顾和今日内容
  • 02-学生出勤主题看板_需求说明及其分析是否出勤说明
  • 03-学生出勤主题看板_如何判断请假和旷课
  • 04-学生出勤主题看板_表结构说明以及导入原始数据到MySQL
  • 05-学生出勤主题看板_建模分析
  • 06-学生出勤主题看板_建模操作_DIM层
  • 07-学生出勤主题看板_建模操作_ODS层
  • 08-学生出勤主题看板_建模操作_DWM层
  • 09-学生出勤主题看板_建模操作_DWS与APP
  • 10-学生出勤主题看板_全量统计_数据采集
  • 11-学生出勤主题看板_全量统计_学生出勤数据(上午)
  • 12-学生出勤主题看板_全量统计_学生出勤数据统计
  • 13-上午的内容的回顾
  • 14-学生出勤主题看板_全量分析_班级出勤统计
  • 15-学生出勤主题看板_全量分析_班级请假人数的计算
  • 16-测试_班级出勤记录操作以及班级请假人数统计
  • 17-执行班级的请假人数的SQL的实现以及操作
  • 18-学生出勤主题看板_全量分析_班级的旷课人数统计
1-10 day10_知行教育大数据分析平台
  • 01-课前回顾和今日内容
  • 02-学生出勤主题看板_全量流程_生成DWS层的数据
  • 03-学生出勤主题看板_全量流程_app层的实现操作
  • 04-学生出勤主题看板_全量流程_数据导出以及增量说明
  • 05-商业BI的基本结束
  • 06-fineBi的安装过程
  • 07-使用fineBI准备工作
  • 08-使用fineBI实现报表_访问人数看板曲线
  • 09-使用fineBI实现报表_对学科和校区展示处理
  • 10-使用fineBI实现报表_有效线索量的报表展示
  • 11-使用fineBI实现报表_学生出勤情况
  • 12-使用fineBI实现报表_导出操作
  • 13-git的基本结束
  • 14-git的安装操作
  • 15-git的基本使用操作
  • 16-git的案例_提交一个java项目到本地版本库
  • 17-git的远程仓库的基本结束
  • 18-码云的ssh的免密配置
  • 19-如何将本地的git版本库上传到码云共享仓库中
  • 20-如何克隆版本库, 以及如何更新版本库
  • 21-分支管理
  • 22-如何在IDEA中使用git的操作

阶段四 NoSQL存储

展开
第一章 大数据redis
1-1 redis
  • 001.NoSQL数据库发展历史简介
  • 002.Redis介绍
  • 003.Redis安装
  • 004.String数据类型操作
  • 005.对常用数据结构的操作
  • 006.对位图Bitmaps的操作
  • 007.HyperLogLog结构操作
  • 008.离线架构和实时架构_Redis应用
  • 009.Redis Java操作_Redis连接
  • 010.Jedis String操作
  • 011.Jedis的list_hash_set的操作
  • 012.Redis的两种持久化策略
  • 013.Redis的事务
  • 014.Redis的过期策略和内存淘汰策略
  • 015.主从复制架构
  • 016.三台服务器搭建Redis主从复制
  • 017.哨兵介绍与环境搭建
  • 018.Redis的sentinel模式代码开发连接
  • 019.Redis集群与分区策略
  • 020.Redis集群的特点与集群的规划
  • 021.Redis集群搭建
  • 022.问题解决&学习技术三点
  • 023.主从切换
  • 024.JavaAPI操作redis集群
  • 025.Redis缓存穿透
  • 026.Redis的击穿和雪崩
  • 027.常见Redis高频面试题总结
第二章 大数据hbase
2-1 hbase
  • 001.Hadoop和HBase
  • 002.HBase的应用场景
  • 003.HBase对比mysq、对比Hive
  • 004.HBase安装
  • 005.参考硬件配置
  • 006.HBase的数据模型
  • 007.HBase_shell操作
  • 008.计数器和简单scan扫描操作
  • 009.使用RowFilter过滤器来进行过滤
  • 010.使用列过滤器和组合过滤器
  • 012.HBase计数器
  • 013.HBase的管理命令
  • 014.Java编程——建表操作
  • 015.Java编程——插入数据操作
  • 016.Java编程——根据rowkey获取数据
  • 017.Java编程——scan + filter过滤操作
  • 018.HBase的HMaster高可用
  • 019.HBase的架构模型
  • 020.昨日回顾_今日目标
  • 021.案例介绍+环境搭建
  • 022.名称空间
  • 023.列蔟设计_版本设计_数据压缩
  • 024.避免热点的关键操作
  • 025.预分区
  • 026.项目初始化
  • 027.Java代码开发——随机生成一条数据
  • 028.Java代码开发——生成rowkey
  • 029.Java代码开发——将随机生成的数据推入到HBase
  • 030.Java代码开发——实现getMessage数据接口
  • 031.Apache Phoenix介绍
  • 032.Phoenix安装
  • 033.Phoenix的建表语法
  • 034.Phoenix数据操作语法
  • 035.Phoenix的分页查询
  • 036.Phoenix预分区
  • 037.Phoenix创建视图
  • 038.Phoenix JDBC开发
  • 039.Phoenix4种索引类型
  • 040.Phoenix全局索引_覆盖索引
  • 041.Phoenix本地索引_函数索引
  • 042.关于Phoenix本地索引SALT_BUCKETS不支持问题
  • 043.HBase的读流程
  • 044.HBase的写数据流程和2.x_in_meory_compaction
  • 045.写数据的两阶段合并
  • 046.Region的管理
  • 047.Master上下线
  • 048.Bulkload和Mapper实现
  • 049.Bulkload Driver开发和排错技巧
  • 050.HBase协处理器
  • 051.HBase事务
  • 052.常见数据结构理解
  • 053.LSM树
  • 054.布隆过滤器BloomFilter
  • 055.StoreFile结构
第三章 大数据Elasticstack
3-1 ELASTICSEARCH
  • 001.ElasticSearach的简介
  • 002.使用Lucence建立索引
  • 003.使用Lucence查询关键字
  • 004.ES的核心概念
  • 005.ES集群安装
  • 006.ES集群安装head插件_IK分词器
  • 007.VSCode开发环境与IK分词器
  • 008.创建索引avi
  • 009.使用REST方式演示查询、创建文档
  • 010.使用ES的scroll分页查询解决深分页的问题
  • 011.构建Java ES项目_初始化连接
  • 012.JavaAPI-添加职位数据到ES中
  • 013.JavaAPI-ES查询_删除_搜索_分页
  • 014.JavaAPI-使用scroll分页方式查询
  • 015.JavaAPI-高亮查询
  • 016.架构原理-节点类型分片和副本
  • 017.索引的写入和读取过程
  • 018.Elasticsearch准实时索引实现
  • 019.ES_SQL简介
  • 020.ES_SQL基础的查询
  • 021.ES_SQL_JDBC查询
  • 022.FileBeat基本应用
  • 023.FileBeat的原理架构
  • 024.Logstash
  • 025.Logstash写ES、Grok插件
  • 026.使用Grok解析所有的字段
  • 027.上午总结
  • 028.解决索引名称日期失效的问题
  • 029.使用Logstash配合插件写入数据到ES中
  • 030.Kibana介绍
  • 031.Kibana索引模式和Discovery
  • 032.Discovery组件
  • 033.可视化展示
  • 034.索引生命周期管理
第四章 大数据kafka
4-1 kafka
  • 001.Kafka简介 - 消息队列
  • 002.Kafka简介 - 应用背景
  • 003.消息队列的两种模型
  • 004.Kafka集群搭建
  • 005.Kafka生产者、消费者测试、KafkaTool工具avi
  • 006.Kafka的基准测试
  • 007.JavaAPI - 生产者程序开发
  • 008.JavaAPI - 消费者程序开发
  • 009.JavaAPI - 生产者使用异步方式生产消息
  • 010.Kafka中的重要概念
  • 011.消费者组演示
  • 012.Kafka幂等性
  • 013.Kafka生产者的分区写入策略
  • 014.Consumer Group Rebalance机制
  • 015.消费者的分区分配策略
  • 016.producer的ACK机制
  • 017.高级API(High-Level API)、低级API(Low-Level API)
  • 018.安装Kafka egale
  • 019.leader和follower
  • 020.topic中的partition的ar、isr、osr
  • 021.controller介绍与leader选举
  • 022.leader的负载均衡
  • 023.Kafka读写流程
  • 024.Kafka的物理存储
  • 025.Kafka的消息不丢失
  • 026.数据积压
  • 027.日志清理

阶段五 Spark技术栈

展开
第一章 scala
1-1 Scala基础语法
  • 00-[了解]-课程介绍
  • 01-[了解]-Scala概述
  • 02-[掌握]-Scala运行环境准备
  • 03-[掌握]-Scala开发环境准备
  • 04-[掌握]-Scala初体验
  • 05-[掌握]-Scala基础语法-变量
  • 06-[掌握]-Scala基础语法-数据类型
  • 07-[掌握]-Scala基础语法-操作符
  • 08-[掌握]-Scala基础语法-块表达式
  • 09-[掌握]-Scala基础语法-判断
  • 10-[掌握]-Scala基础语法-循环
1-2 Scala函数定义
  • 11-[掌握]-Scala方法定义和语法细节
  • 12-[掌握]-Scala函数定义格式
  • 13-[理解]-Scala函数的本质
1-3 Scala集合
  • 14-[了解]-Scala集合分类和继承体系
  • 14-[掌握]-Scala集合-Array-基本使用
  • 15-[掌握]-Scala集合-List-基本使用
  • 16-[掌握]-Scala集合-Set-基本使用
  • 17-[掌握]-Scala集合-Tuple-基本使用
  • 18-[掌握]-Scala集合-Map-基本使用
  • 19-[掌握]-Scala集合-Queue和Stack-基本使用
  • 20-[掌握]-Scala集合-集合遍历-基本使用
  • 21-[总结]-总结和作业
1-4 Scala函数式编程
  • 01-[重点]-函数式编程API-遍历-过滤
  • 02-[重点]-函数式编程API-排序
  • 03-[重点]-函数式编程API-映射
  • 04-[重点]-函数式编程API-扁平化映射
  • 05-[重点]-函数式编程API-分组
  • 06-[重点]-函数式编程API-聚合
  • 07-[重点]-函数式编程API-折叠
1-5 Scala综合练习
  • 08-[重点]-综合练习-WordCount-1-普通API
  • 09-[重点]-综合练习-WordCount-2-函数式API
  • 10-[重点]-综合练习-WordCount-3-加载文件数据
  • 11-[重点]-综合练习-WordCount-4-加载文件夹数据
1-6 Scala面向对象
  • 12-[理解]-面向对象-class定义
  • 13-[理解]-面向对象-class-构造器
  • 14-[理解]-面向对象-object-作为程序入口
  • 15-[理解]-面向对象-object-作为伴生对象
  • 16-[理解]-面向对象-object-作为工具类
  • 17-[理解]-面向对象-object-提供apply
  • 18-[理解]-面向对象-继承-关键字
  • 19-[理解]-面向对象-继承-类型判断-转换-获取
  • 20-[理解]-面向对象-继承-子父构造
  • 21-[理解]-面向对象-继承-抽象类
  • 22-[理解]-面向对象-Trait-作为接口
  • 23-[理解]-面向对象-Trait-继承class
  • 24-[理解]-面向对象-Trait-对象混入trait
  • 25-[理解]-面向对象-Trait-trait构造
  • 26-[理解]-面向对象-样例类
  • 27-[理解]-面向对象-总结
1-7 Scala模式匹配
  • 01-[掌握]-Scala-模式匹配
  • 02-[掌握]-Scala-模式匹配-其他用法-Option
  • 03-[掌握]-Scala-模式匹配-其他用法-偏函数
  • 04-[掌握]-Scala-模式匹配-其他用法-unapply
  • 05-[掌握]-Scala-模式匹配-其他用法-异常处理
1-8 Scala隐式转换和正则表达式
  • 06-[掌握]-Scala-隐式转换
  • 07-[掌握]-Scala-正则表达式
1-9 Scala高阶函数
  • 08-[掌握]-Scala-高阶函数-函数回顾
  • 09-[掌握]-Scala-高阶函数-闭包
  • 10-[掌握]-Scala-高阶函数-柯里化
1-10 Scala泛型
  • 11-[复习]-Java中的泛型回顾
  • 12-[掌握]-Scala泛型-定义泛型类和泛型方法
  • 13-[掌握]-Scala泛型-协变-逆变-非变
  • 14-[掌握]-Scala泛型-泛型上下界
  • 15-[总结]-总结和作业
1-11 Actor
  • 01-[理解]-Actor引入
  • 02-[掌握]-Actor的创建
  • 03-[掌握]-Actor发送接收消息
  • 04-[掌握]-Actor循环发送接收消息
  • 05-[掌握]-Actor复用线程
  • 06-[掌握]-Actor发送接收各种消息
  • 07-[重点]-Actor-WordCount需求分析
  • 08-[重点]-Actor-WordCount-代码实现
1-12 Akka
  • 09-[了解]-Akka并发编程-Akka介绍
  • 10-[掌握]-Akka并发编程-模拟简单的RPC通信
  • 11-[掌握]-Akka并发编程-模拟Spark通信-需求分析和准备工作
  • 12-[理解]-Akka并发编程-模拟Spark通信-Master代码实现
  • 13-[理解]-Akka并发编程-模拟Spark通信-Worker代码实现
  • 14-[总结]-总结和作业
第二章 spark
2-1 spark简介
  • 1-Spark课程内容介绍
  • 2-大数据架构理解
  • 3-Spark的引入
  • 4-Spark的引入
  • 5-Spark介绍
  • 6-Spark相关知识的补充
2-2 spark环境部署
  • 7-Spark的运行模式
  • 8-Spark的local模式的详解
  • 9-Spark的local模式读取文件演示
  • 10-Spark的Wordcount的实战
  • 11-Spark的WebUi
  • 12-补充
  • 13-Spark的Spark-submit提交任务
  • 14-Spark的蒙特卡洛方法求解Pi
  • 15-Spark的Standalone的模式详解
  • 16-Spark的Standalone模式的搭建过程
  • 17-Spark的Standalone提交任务
  • 18-Spark的StandAloneHA的模式
  • 19-基于IDEA开发的步骤
  • 20-基于IDEA打包运行代码
  • 21-基于Java的代码实战
  • 22-总结复习
  • 01-回顾1
2-3 SparkOnYarn介绍
  • 02-回顾2-SparkBase
  • 03-回顾-Spark的Wordcount回顾
  • 04-读取HDFS的文件操作
  • 05-今日重点知识
  • 06-SparkOnYarn的配置
  • 07-引入Spark的两种deploy方式
  • 08-Spark的client模式
  • 09-Spark的cluster模式
  • 10-Spark两种模式的区别和联系
  • 11-Spark的yarn的两种运行模式
  • 12-Spark的两种模式的原理详解
  • 13-Saprk提交的参数
  • 14-Spark的main函数执行过程
  • 15-Spark的TopK的代码思路及编写
2-4 Spark_RDD
  • 16-RDD的简介
  • 17-RDD的五大属性简介
  • 18-Spark的五大属性详解
  • 19-Spark的RDD的补充
  • 20-Spark的makerdd和paralleise的区别
  • 21-Spark的textFile的默认的分区
  • 22-RDD的算子分类
  • 23-RDD的单value类型的算子
  • 24-RDD的双值类型的操作
  • 25-RDD的重分区
  • 26-总结
  • 01-回顾1-SparkBase
  • 02-回顾SparkCore
  • 03-textFile的分区设置补充
  • 04-hdfs和rdd的分区对应关系
  • 05-RDD的key-value类型算子1
  • 06-RDD的key-value类型算子操作2
  • 07-RDD的key-value类型算子3
  • 08-RDD的Action的操作
  • 09-RDD的关键算子的操作1
  • 10-RDD的关键算子操作2
  • 11-RDD的关键算子的补充
2-5 综合案例
  • 12-Spark的案例实战PVUVTopK
  • 13-Spark的IP地址查询案例分析
  • 14-Spark的IP地址查询分析的广播变量
  • 15-Spark的IP地址查询代码实战
  • 16-Sougou分词测试
  • 17-Sougou的热点分析
  • 18-总结
2-6 缓存及容错机制
  • 01-SparkCore的回顾
  • 02-Spark的Yarn的补充
  • 03-Spark的依赖关系、
  • 04-DAG理解
  • 05-RDD的缓存
  • 06-RDD的检查点机制
2-7 累加器和广播变量
  • 07-RDD的累加器
  • 08-RDD的广播变量
2-8 spark原理解析
  • 09-Spark的执行流程简介
  • 10-Spark的执行流程细节1
  • 11-Spark的完整流程分析
  • 12-Spark的完整调度的源码分析(了解)
  • 13-Spark的容错机制
  • 14-Sark的Shuffle
  • 15-Spark的Shuffle的源码解读
  • 16-SparkCore的读写MySQL
  • 17-Spark的内核的调度总复习
  • 18-Spark的参数设置
  • 19-总结
2-9 Spark_SQL简介
  • 01-回顾
  • 02-今日重难点知识
  • 03-Spark的内存模型
  • 04-SparkSQL的引入
  • 05-SparkSQL的演变之路
  • 06-SparkSQL的数据结构的变化
  • 07-SparksQL的数据结构
2-10 DataFrame
  • 08-Spark的DataFrame的两种方式
  • 09-SparkSQL的DF的两种查询方式
  • 10-SparkSQL的花式查询
  • 11-SparkSQL的动态编程
  • 12-SparkSQL的其他方法创建DF
2-11 DataSet
  • 13-Spark的DataSet的操作案例及数据类型转换
  • 14-Spark的两种wordcount
  • 15-Spark的全局的Session演示
2-12 spark和hive整合
  • 16-Spark和Hive的整合
  • 17-SparkSQL案例分析步骤1
  • 18-案例分析
  • 19-扩展:数据的读取
  • 20-Spark和MySQL整合及其他数据写入
  • 21-UDF函数
  • 22-SparkSQL开窗 函数
  • 23-复习
  • 01-SparkSQL的复习
  • 02-问题处理及今日重点
  • 03-SparkSQL整合HIve
  • 04-SparkSQL和Hive的整合
  • 05-SparkSQL的分区个数参数补充
  • 06-SparkUDAF
  • 07-SparkSQL的执行引擎
  • 08-SparkSQL的执行总结
  • 09-SparkSQL的其他客户端访问
2-13 SparkStreaming简介
  • 10-SparkStreaming应用场景
  • 11-SparkStreaming计算方式
  • 12-SparkStreaming的数据结构引入
  • 13-SparkStreaming的原理的初步
  • 14-SparkStreaming的第一个程序
2-14 SparkStreaming处理流程
  • 15-SparkStreaming的两种算子
  • 16-SparkStreaming的transform的方法详解
  • 17-SparkStreaming的有状态的计算案例实战
  • 18-SparkStreaming的状态监控查看
  • 19-SparkStreaming原理
  • 20-SparkStreaming缓存和检查点补充
  • 21-总结
  • 01-SparkSQL回顾
  • 02-SparkStreaming的回顾
  • 03-SparkStreaming的双流Join
  • 04-SparkStreaming的mapState
  • 05-SparkStreaming的窗口的操作
  • 06-SparkStreamiing窗口操作编程
  • 07-SparkStreaming的windows函数操作
  • 08-SparkSTreming的百度热词统计
  • 09-SparkStreaming和SparkSQL的有状态的计算
2-15 SparkStreaming对接数据源
  • 10-SparkStreaming处理HDFS文件系统的 数据
  • 11-SparkStreaming队列数据源
  • 12-SparkStreaming自定义数据源
  • 13-Kafka的复习
  • 14-Kafka的0.8和0.10版本的区别和联系
  • 15-SparkStreaming整合kafka的前序步骤
  • 16-SparkStreaming的关键步骤1
  • 17-SparkStreaming整合Kafka的完成整合
  • 18-SparkStreamin整合Kafka得到offset并提交
  • 19-代码重构
  • 20-CheckPoint驱动器容错
  • 21-MySQL存储偏移量
  • 22-总结
  • 01-回顾
2-16 优化及原理
  • 02-SparkStreaming注意的问题
  • 03-SparkStreaming的反压机制了解
2-17 structuredStreaming简介
  • 04-结构化流的引入
  • 05-StructuredStreaming介绍
2-18 structuredStreaming应用
  • 06-StructuredStreaming应用Scoeket
  • 07-StructuredStreaming结构化流的数据源文本数据源
  • 08-StructuredStreaming结构化流数据源Rate数据源
  • 09-数据写入CSV的方法简介
  • 10-结构化流的整体的三大步骤的复习
  • 11-StructuredStreaming整合
  • 12-结构化流的原理补充
  • 13-StructedStreaming处理ETL数据
  • 14-SQL实现方式补充
  • 15-物联网设备的两种方法的实现
  • 16-Json的补充
  • 17-structuredStreaming写入Mysql方法1
  • 18-foreachBatch写入MySQL
  • 19-数据的去重操作
  • 20-连续时间的处理模式了解
  • 21-水位线的技术详解
  • 22-延迟时间的处理方法
  • 23-复习

阶段六 项目二千面电商用户画像项目

展开
第一章 大数据-千面电商用户画像项目
1-1 profile_day01
  • 01_复习:Spark 框架综合回顾概述 免费试学
  • 02_企业级360°全方位用户画像:项目课程安排 免费试学
  • 03_企业级360°全方位用户画像:数仓、画像及推荐 免费试学
  • 04_企业级360°全方位用户画像:引入神策用户画像和初步认知 免费试学
  • 05_企业级360°全方位用户画像:用户画像应用场景 免费试学
  • 06_企业级360°全方位用户画像:标签存储(HBase和ES) 免费试学
  • 07_企业级360°全方位用户画像:用户标注(本体论) 免费试学
  • 08_企业级360°全方位用户画像:项目功能概述 免费试学
  • 09_企业级360°全方位用户画像:导入虚拟机 免费试学
  • 10_企业级360°全方位用户画像:项目工程导入和启动 免费试学
  • 11_企业级360°全方位用户画像:功能模块 免费试学
  • 12_企业级360°全方位用户画像:技术架构(离线) 免费试学
  • 13_企业级360°全方位用户画像:标签功能架构图 免费试学
  • 14_企业级360°全方位用户画像:标签梳理(分类) 免费试学
  • 15_标签系统WEB 平台:主分类标签(123级标签) 免费试学
  • 16_标签系统WEB 平台:业务标签(4级标签) 免费试学
  • 17_标签系统WEB 平台:新建属性标签 免费试学
  • 18_标签系统WEB 平台:其他功能说明 免费试学
  • 19_项目环境搭建:环境概述说明 免费试学
  • 20_项目环境搭建:框架回顾(一) 免费试学
  • 21_项目环境搭建:框架回顾(二) 免费试学
  • 22_项目工程搭建:创建Project和Module 免费试学
  • 23_用户画像业务数据导入:ETL总述 免费试学
  • 24_用户画像业务数据导入:数据调研和数据导入方案 免费试学
  • 25_用户画像业务数据导入:Hive创建业务表 免费试学
  • 26_用户画像业务数据导入:数据导入Hive表 免费试学
1-2 profile_day02
  • 01_上次课程内容回顾
  • 02_今日课程内容提纲
  • 03_用户画像业务数据导入:数据导入方案
  • 04_用户画像业务数据导入:SQOOP导入HBase表
  • 05_用户画像业务数据导入:HBase ImportTvs导入logs数据
  • 06_用户画像业务数据导入:数据导入方式Put和BulkLoad
  • 07_用户画像业务数据导入:HBase ImportTvs中BulkLoad
  • 08_用户画像业务数据导入:BulkLoad加载批量数据(原理)
  • 09_用户画像业务数据导入:BulkLoad加载批量数据(MR)
  • 10_用户画像业务数据导入:BulkLoad加载批量数据(Spark)
  • 11_用户画像标签数据存储
  • 12_Oozie调度Spark2:回顾Oozie及工作流组成
  • 13_Oozie调度Spark2:使用Hue创建工作流和调度器调度Spark2
  • 14_Oozie Java Client API使用说明
  • 15_Oozie Java Client API运行Workflow
  • 16_Oozie Java Client API运行Coordinator
  • 17_标签存储与计算:标签管理
  • 18_标签存储与计算:标签存储设计
  • 19_标签存储与计算:标签计算引擎
  • 20_用户画像模块:模块划分及概述
  • 21_用户画像模块:标签调度(导入)
  • 22_用户画像模块:标签调度(测试及安装Install)
  • 23_用户画像模块:标签管理平台(导入及测试)
  • 24_用户画像模块:标签模型测试(新建标签和调度运行)
  • 25_用户画像模块:标签模型计算(概述及流程
  • 26_用户画像模块:标签模型计算(Module创建及设置)
  • 27_标签开发流程:提交流程(标签规则)
  • 28_标签开发流程:执行流程(4步骤)
  • 29_Spark 交互HBase:读写表数据
1-3 profile_day03
  • 01_额外:项目学习建议
  • 02_上次课程内容回顾:业务数据迁移ETL
  • 03_上次课程内容回顾:标签模型应用调度
  • 04_上课课程内容回顾:项目模块及标签模型流程
  • 05_今日课程内容提纲
  • 06_标签模型开发【用户性别标签】:整体概述说明
  • 07_标签模型开发【用户性别标签】:新建标签(4级和5级)
  • 08_标签模型开发【用户性别标签】:编写模型主类(SparkSession构建)
  • 09_工具类HBaseTools:方法声明定义
  • 10_工具类HBaseTools:read加载数据(一)
  • 11_工具类HBaseTools:read加载数据(二)
  • 12_工具类HBaseTools:read加载数据(三)
  • 13_工具类HBaseTools:write保存数据(一)
  • 14_工具类HBaseTools:write保存数据(二)
  • 15_标签模型开发【用户性别标签】:标签数据读取
  • 16_标签模型开发【用户性别标签】:业务标签规则
  • 17_标签模型开发【用户性别标签】:HBase数据源Meta和读取业务数据
  • 18_标签模型开发【用户性别标签】:构建标签
  • 19_标签模型开发【用户性别标签】:保存画像标签数据
  • 20_标签模型开发【用户性别标签】:回顾标签模型开发步骤
  • 21_标签模型开发【规则匹配类型标签开发概述】
  • 22_标签模型开发【用户职业标签】:确立标签
  • 23_标签模型开发【用户职业标签】:新建标签
  • 24_标签模型开发【用户职业标签】:构建SparkSession(集成Hive)
  • 25_标签模型开发【用户职业标签】:采用UDF函数打标签
  • 26_标签模型开发【用户职业标签】:计算标签方式
  • 27_标签模型开发【用户职业标签】:规则匹配类型标签工具类
  • 28_标签模型开发【标签模板】:标签模型代码重构概述
  • 29_标签模型开发【标签模板】:模板方法模式(Template)
  • 30_标签模型开发【标签模板】:标签基类BasicModel结构
  • 31_标签模型开发【标签模板】:标签基类BasicModel具体代码
  • 32_标签模型开发【政治面貌标签】:需求分析及新建标签
  • 33_标签模型开发【政治面貌标签】:编码实现和测试
  • 34_标签模型开发【标签模板】:属性配置文件及解析
  • 35_标签模型开发【标签模板】:创建SparkSession实例思路
  • 36_标签模型开发【标签模板】:Typesafe获取某属性文件值
  • 37_标签模型开发【标签模板】:工具类SparkUitls
  • 38_标签模型开发【标签模板】:重构标签基类AbstractModel
  • 39_标签模型开发【标签模板】:测试类(职业标签)
1-4 profile_day04
  • 01_上次课程内容回顾:标签模型开发四步骤
  • 02上次课程内容回顾:HBaseTools工具类
  • 03_次课程内容回顾:规则匹配类型标签业务实现
  • 04_上次课程内容回顾:标签模型基类
  • 05_标签模型开发【用户国籍标签】:新建标签
  • 06_标签模型开发【用户国籍标签】:模型开发测试
  • 07_标签开发:【总述】标签模型开发相关数据
  • 08_今日课程内容提纲
  • 09_自定义外部数据源HBase:引入ExternalDataSource
  • 10_自定义外部数据源HBase:External DataSource概述
  • 11_自定义外部数据源HBase:BaseRelation接口
  • 12_自定义外部数据源HBase:RelationProvider接口
  • 13_自定义外部数据源HBase:定义类HBaseRelation和DefaultSource
  • 14_自定义外部数据源HBase:实现加载load数据(一)
  • 15_自定义外部数据源HBase:实现加载load数据(二)
  • 16_自定义外部数据源HBase:实现保存save数据
  • 17_自定义外部数据源HBase:注册数据源
  • 18_自定义外部数据源HBase:修改标签基类AbstractModel
  • 19_自定义外部数据源HBase:Spark与HBase交互三种方式封装
  • 20_标签开发:统计型标签概述
  • 21_标签模型开发【用户年龄段标签】:需求分析及新建标签
  • 22_标签模型开发【用户年龄段标签】:标签实现思路分析
  • 23_标签模型开发【用户年龄段标签】:计算标签(一)
  • 24_标签模型开发【用户年龄段标签】:计算标签(二)
  • 25_标签模型开发【消费周期标签】:需求分析
  • 26_标签模型开发【消费周期标签】:新建标签
  • 27_标签模型开发:导入业务订单数据
  • 28_标签模型开发【消费周期标签】:提取属性标签规则
  • 29_标签模型开发【消费周期标签】:标签实现思路分析和日期函数使用
  • 30_标签模型开发【消费周期标签】:计算标签
  • 31_标签模型开发【支付方式标签】:业务字段调研
  • 32_标签模型开发【支付方式标签】:新建标签
  • 33_标签模型开发【支付方式标签】:开窗函数使用(SQL和DSL)
  • 34_标签模型开发【支付方式标签】:计算标签及测试
1-5 profile_day05
  • 01_上次课程内容回顾:自定义外部数据源HBase
  • 02_回顾用户画像:标签系统及模型开发步骤
  • 03_回顾用户画像:标签模型开发业务逻辑流程
  • 04_回顾用户画像:规则匹配类型标签和统计类型标签核心思路
  • 05_回顾用户画像:职业标签模型快速开发
  • 06_标签模型开发【订单数据相关】:其他标签(订单金额)
  • 07_标签模型开发【订单数据相关】:其他标签(订单状态)
  • 08_今日课程内容提纲
  • 09_自定义外部数据源HBase:过滤条件需求引入
  • 10_自定义外部数据源HBase:HBase Filter使用
  • 11_自定义外部数据源HBase:字段值过滤【思路分析】及【业务代码】
  • 12_自定义外部数据源HBase:字段值过滤【Condition类封装】
  • 13_自定义外部数据源HBase:字段值过滤【测试功能】
  • 14_自定义外部数据源HBase:业务标签规则rule传递WhereCondition思路
  • 15_自定义外部数据源HBase:日期时间工具类DateUtils
  • 16_自定义外部数据源HBase:解析WhereCondition动态生成日期范围
  • 17_自定义外部数据源HBase:传递WhereCondition测试功能(一)
  • 18_自定义外部数据源HBase:传递WhereCondition测试功能(二)
  • 19_自定义外部数据源HBase:优化标签模型基类
  • 20_推荐系统入门:推荐引入和协同过滤算法初识
  • 21_推荐系统入门:推荐算法分类
  • 22_推荐系统入门:协同过滤算法核心
  • 23_推荐系统入门:ALS算法思想
  • 24_推荐系统入门:矩阵因子模型预测和推荐
  • 25_推荐系统入门:创建Maven Module
  • 26_推荐系统入门:基于RDD 算法API讲解
  • 27_推荐系统入门:构建电影推荐模型(一)
  • 28_推荐系统入门:构建电影推荐模型(二).wmv
1-6 profile_day06
  • 01_上次课程内容回顾:自定义外部数据源HBase(加强版)
  • 02_上次课程内容回顾:推荐算法ALS
  • 03_今日课程内容提纲
  • 04_机器学习入门:AI发展浪潮和机器学习核心三要素
  • 05_机器学习入门:ML定义及数据特征features
  • 06_机器学习入门:ML算法分类
  • 07_机器学习入门:机器学习算法库SK-Learn和SparkMLlib
  • 08_机器学习入门:相关术语概念
  • 09_机器学习入门:鸢尾花数据【特征提取】
  • 10_机器学习入门:鸢尾花数据【类别标签label索引化】
  • 11_机器学习入门:鸢尾花数据【特征features标准化】
  • 12_机器学习入门:鸢尾花数据构建逻辑回归分类模型
  • 13_机器学习入门:线性回归算法概述
  • 14_机器学习入门:线性回归算法实现之最小二乘法
  • 15_机器学习入门:线性回归算法实现之梯度下降法
  • 16_机器学习入门:波士顿房价预测模型(一)
  • 17_机器学习入门:波士顿房价预测模型(二)
  • 18_机器学习入门:逻辑回归分类算法概述(Sigmoid)函数
1-7 profile_day07
  • 01_上次课程内容回顾:机器学习基础(概念)
  • 02_上次课程内容回顾:线性回归和逻辑回归
  • 03_实战案例【泰塔尼克号生存预测】:案例背景及数据调研
  • 04_实战案例【泰塔尼克号生存预测】:加载数据(CSV格式)
  • 05_实战案例【泰塔尼克号生存预测】:特征工程
  • 06_实战案例【泰塔尼克号生存预测】:LR分类模型及预测评估
  • 07_今日课程内容提纲
  • 08_客户价值模型RFM:RFM概念.
  • 09__客户价值模型RFM:RFM模型应用
  • 10_客户价值模型RFM:标签管理平台新建标签
  • 11_客户价值模型RFM:标签模型开发思路分析
  • 12_客户价值模型RFM:依据订单数据计算RFM
  • 13_客户价值模型RFM:依据规则进行RFM Score
  • 14_客户价值模型RFM:牧师与村民模型
  • 15_客户价值模型RFM:KMeans算法核心要点
  • 16_客户价值模型RFM:KMeans聚类鸢尾花数据
  • 17_客户价值模型RFM:聚类评估指标SSE
  • 18_客户价值模型RFM:KMeans++算法
  • 19_客户价值模型RFM:KMeansII算法
  • 20_客户价值模型RFM:KMeans训练模型
  • 21_客户价值模型RFM:计算标签(一)
  • 22_客户价值模型RFM:计算标签(二)
  • 23_客户价值模型RFM:类簇索引标签(工具类)
  • 24_客户价值模型RFM:KMeans算法2个问题
  • 25_客户价值模型RFM:KMeans算法肘部法则
  • 26_客户价值模型RFM:KMeans算法轮廓系数
  • 27_客户价值模型RFM:鸢尾花数据集演示肘部法确定K
1-8 profile_day08
  • 01_上次课程内容回顾:聚类KMeans算法
  • 02_上次课程内容回顾:客户价值模型RFM
  • 03_今日课程内容提纲
  • 04_客户价值模型RFM:算法模型构建流程步骤
  • 05_客户价值模型RFM:模型调优概述
  • 06_客户价值模型RFM:模型调优【特征归一化】
  • 07_客户价值模型RFM:模型调优【调整超参数】
  • 08_客户价值模型RFM:保存加载模型(一)
  • 09_客户价值模型RFM:保存加载模型(二)
  • 10_客户价值模型RFM:总述开发算法模型流程
  • 11_用户活跃度模型RFE:用户活跃度及用户生命周期
  • 12_用户活跃度模型RFE:RFE模型概述及实践应用
  • 13_用户活跃度模型RFE:新建标签及标签模型类
  • 14_用户活跃度模型RFE:加载访问日志数据计算RFE和打分
  • 15_用户活跃度模型RFE:组合特征和训练模型
  • 16_用户活跃度模型RFE:标签计算
  • 17_用户活跃度模型RFE:KMeans算法模型标签计算
  • 18_ID-Mapping:标识符引入及认识标识符
  • 19_ID-Mapping:统一用户识别(构建连通图)
  • 20_价格敏感度模型PSM:PSM概念和功能
  • 21_价格敏感度模型PSM:PSM计算方式
  • 22_价格敏感度模型PSM:使用KMeans对单值特征聚类
  • 23_价格敏感度模型PSM:计算PSM值业务逻辑
  • 24_价格敏感度模型PSM:计算PSM值业务逻辑
  • 25_价格敏感度模型PSM:计算PSM值代码实现
  • 26_价格敏感度模型PSM:训练KMeans聚类模型和打标签
  • 27_价格敏感度模型PSM:算法中距离度量方法
1-9 profile_day09
  • 01_上次课程内容回顾:算法模型调优
  • 02_上次课程内容回顾:RFE和PSM标签
  • 03_今日课程内容提纲
  • 04_用户购物性别模型USG:USG模型概念理解
  • 05_用户购物性别模型USG:USG模型构建过程(一)
  • 06_用户购物性别模型USG:USG模型构建过程(二)
  • 07_用户购物性别模型USG:决策树是什么
  • 08_用户购物性别模型USG:决策树构造及优缺点
  • 09_用户购物性别模型USG:决策树算法实现(ID3、C4.5和CART)
  • 10_用户购物性别模型USG:决策树分类官方案例(一)
  • 11_用户购物性别模型USG:决策树分类官方案例(二)
  • 12_用户购物性别模型USG:新建标签
  • 13_用户购物性别模型USG:涉及订单表和维度表分析
  • 14_用户购物性别模型USG:加载订单表和维度表数据
  • 15_用户购物性别模型USG:构建维度表数据为WHEN条件语句
  • 16_用户购物性别模型USG:标注数据和打标签
  • 17_用户购物性别模型USG:训练算法模型并预测(一)
  • 18_用户购物性别模型USG:训练算法模型并预测(二)
  • 19_用户购物性别模型USG:Pipeline管道模型
  • 20_用户购物性别模型USG:Pipeline 官方案例
  • 21_用户购物性别模型USG:训练Pipeline模型
  • 22_用户购物性别模型USG:训练验证分割和交叉验证区别
  • 23_用户购物性别模型USG:模型超参数设置ParamGrid
  • 24_用户购物性别模型USG:TrainValidationSplit模型调优
  • 25_用户购物性别模型USG:CrossValidator模型调优
1-10 profile_day10
  • 01_上次课程内容回顾:USG模型和决策树算法
  • 02_上次课程内容回顾:管道Pipeline和模型调优
  • 03_集成学习算法:Ensemble Algorithm概述
  • 04_集成学习算法:Bagging算法和Boosting算法
  • 05_集成学习算法:Bagging算法及随机森林RF
  • 06_集成学习算法:Boosting 算法和梯度提升树GBT
  • 07_今日课程内容提纲
  • 08_业务数据多种数据源:多数据源概述
  • 09_业务数据多种数据源:重构加载业务数据代码
  • 10_业务数据多种数据源:加载MySQL表(MySQLMeta)
  • 11_业务数据多种数据源:加载Hive表(HiveMeta)
  • 12_业务数据多种数据源:加载HDFS文件(HDFSMeta)
  • 13_用户购物偏好模型BP:Bp模型概述
  • 14_用户购物偏好模型BP:推荐系统概述
  • 15_用户购物偏好模型BP:推荐算法ALS
  • 16_基于DataFrame API构建推荐模型:加载数据及数据转换、训练模型
  • 17_基于DataFrame API构建推荐模型:模型推荐、评估和保存加载
  • 18_用户购物偏好模型BP:如何获取用户对物品评分(思路分析)
  • 19_用户购物偏好模型BP:新建标签(用户推荐商品)
  • 20_用户购物偏好模型BP:标签模型实现思路步骤
  • 21_用户购物偏好模型BP:提取用户对物品评分(点击物品次数)
  • 22_用户购物偏好模型BP:构建ALS算法模型、评估和推荐
  • 23_用户购物偏好模型BP:保存推荐商品至HBase表
  • 24_总述全方位用户画像(一)
  • 25_总述全方位用户画像(二)

阶段七 Flink技术栈

展开
第一章 flink
1-1 flink安装部署及入门案例
  • 01.【Flink基础-day01】Flink课程介绍和课程特点
  • 02.【Flink基础-day01】【了解】第一章:课程说明
  • 03.【Flink基础-day01】【了解】第一章:流计算简介
  • 04.【Flink基础-day01】【了解】第一章:Flink简介
  • 05.【Flink基础-day01】【掌握】第一章:Flink的重要角色
  • 06.【Flink基础-day01】【掌握】第一章:Flink编程模型及libraries支持
  • 07.【Flink基础-day01】【了解】第一章:伪分布环境部署
  • 08.【Flink基础-day01】【了解】第一章:完全分布式集群环境
  • 09.【Flink基础-day01】【了解】第一章:完全分布式之高可用HA集群环境
  • 10.【Flink基础-day01】【掌握】第一章:yarn集群环境说明
  • 11.【Flink基础-day01】【掌握】第一章:flink on yarn部署方式演示
  • 12.【Flink基础-day01】【掌握】第一章:flink实现批处理的单词计数
  • 13.【Flink基础-day01】【掌握】第一章:flink实现流处理的单词计数
  • 14.【Flink基础-day01】【掌握】第一章:flinkLambda实现流处理的单词计数
  • 15.【Flink基础-day01】【掌握】第一章:使用批流一体API编程模型实现
  • 16.【Flink基础-day01】【掌握】第一章:Flink程序递交部署
  • 17.【Flink基础-day01】知识点总结
1-2 flink原理初探
  • 01.【Flink基础-day02】知识点回顾
  • 02.【Flink基础-day02】【掌握】第一章:Flink运行时组件
  • 03.【Flink基础-day02】【掌握】第一章:Flink运行时架构
1-3 flink流式处理
  • 04.【Flink基础-day02】【掌握】第二章:Flink流处理相关的概念
  • 05.【Flink基础-day02】【掌握】第二章:基于本地集合的source
  • 06.【Flink基础-day02】【掌握】第二章:基于文件的source
  • 07.【Flink基础-day02】【掌握】第二章:基于Socket的Source
  • 08.【Flink基础-day02】【掌握】第二章:基于随机生成DataSource
  • 09.【Flink基础-day02】【掌握】第二章:基于mysql的source操作
  • 10.【Flink基础-day02】【掌握】第二章:transformation操作-1
  • 11.【Flink基础-day02】【掌握】第二章:transformation操作-2
  • 12.【Flink基础-day02】【掌握】第二章:物理分区
  • 13.【Flink基础-day02】【掌握】第二章:数据输出Data Sinks
  • 14.【Flink基础-day02】【掌握】知识点总结
  • 01.【Flink基础-day03】知识点回顾
  • 02.【Flink基础-day03】【掌握】第二章:JDBCSink使用
  • 03.【Flink基础-day03】【掌握】第二章:kafka消费者使用
  • 04.【Flink基础-day03】【掌握】第二章:kafka生产者使用
  • 05.【Flink基础-day03】【掌握】第二章:redis连接器使用
  • 06.【Flink基础-day03】【扩展】第二章:其他批处理的API
1-4 四大基石_window
  • 07.【Flink基础-day03】【了解】第三章:四大基石的介绍
  • 08.【Flink基础-day03】【掌握】第三章:window的介绍及使用和窗口范围的划分
  • 09.【Flink基础-day03】【了解】第三章:window的API操作
  • 10.【Flink基础-day03】【掌握】第三章:Time Window 案例
  • 11.【Flink基础-day03】【掌握】第三章:Count-Window 案例和会话窗口(Session Windows) 概念和案例
  • 12.【Flink基础-day03】【掌握】第三章:窗口的增量聚合函数使用
  • 13.【Flink基础-day03】【掌握】第三章:窗口的全量聚合函数使用
  • 14.【Flink基础-day03】知识点总结
1-5 四大基石_time
  • 01.【Flink基础-day04】知识点回顾
  • 02.【Flink基础-day04】【掌握】第三章:水印的介绍
  • 03.【Flink基础-day04】【掌握】第三章:水印的生成策略
  • 04.【Flink基础-day04】【掌握】第三章:单调递增水印的演示(数据必须有序)
  • 05.【Flink基础-day04】【掌握】第三章:固定延迟水印的演示(数据必须有序)
  • 06.【Flink基础-day04】【了解】第三章:自定义水印策略开发
  • 07.【Flink基础-day04】【掌握】第三章:多并行度下的水印操作
  • 08.【Flink基础-day04】【掌握】第三章:flink整合kafka实现水印操作
  • 09.【Flink基础-day04】【掌握】第三章:水印的延迟处理机制
1-6 四大基石_state
  • 10.【Flink基础-day04】【掌握】第三章:状态的介绍
  • 11.【Flink基础-day04】【掌握】第三章:状态的API介绍
  • 12.【Flink基础-day04】【掌握】第三章:KeyedState的使用案例
  • 13.【Flink基础-day04】【掌握】第三章:OperatorState的使用案例
  • 14.【Flink基础-day04】知识点总结
  • 01.【Flink基础-day05】知识点回顾
  • 02.【Flink基础-day05】【掌握】State的TTL机制
  • 03.【Flink基础-day05】【扩展】QueryableState的使用
  • 04.【Flink基础-day05】【掌握】BroadcastState的使用
1-7 四大基石_checkpoint
  • 05.【Flink基础-day05】【掌握】checkpoint的介绍
  • 06.【Flink基础-day05】【掌握】checkpoint的使用
  • 07.【Flink基础-day05】【掌握】checkpoint的重启策略
  • 08.【Flink基础-day05】【掌握】savepoint的使用
  • 09.【Flink基础-day05】【扩展】flink的任务链
  • 10.【Flink基础-day05】知识点总结
1-8 语义一致性
  • 01.【Flink基础-day06】知识点回顾
  • 02.【Flink基础-day06】flink一致性语义的介绍
  • 03.【Flink基础-day06】flink基于kafka实现一次性语义的代码分析
  • 04.【Flink基础-day06】flink基于kafka代码
  • 05.【Flink基础-day06】flink基于mysql代码
  • 06.【Flink基础-day06】flink实现processfunction
  • 07.【Flink基础-day06】flink实现具有增量聚合的processwindowfunction
  • 08.【Flink基础-day06】flink的双流join介绍
  • 09.【Flink基础-day06】flink的双流join代码演示
  • 10.【Flink基础-day06】flink的数据类型和自定义序列化及反序列化
  • 11.【Flink基础-day06】知识点总结
1-9 flinkSQL_1
  • 01.【FlinkSQL-day07】整体概述
  • 02.【FlinkSQL-day07】环境初始化和程序结构分析
  • 03.【FlinkSQL-day07】将DataStream转换成Table对象演示
  • 04.【FlinkSQL-day07】将查询结果写入到文件中
  • 05.【FlinkSQL-day07】将查询结果写入到kafka中
  • 06.【FlinkSQL-day07】将查询结果写入到mysql中
  • 07.【FlinkSQL-day07】flinksql整合hive
  • 08.【FlinkSQL-day07】flinksqlclient递交作业的步骤分析
  • 09.【FlinkSQL-day07】flinksqlapi使用hivecatalog
  • 10.【FlinkSQL-day07】flinksqlclient消费kafka数据实时写入到hive中
  • 11.【FlinkSQL-day07】动态表的概念理解
  • 12.【FlinkSQL-day07】flinksql使用处理时间
  • 13.【FlinkSQL-day07】知识点总结
1-10 flinkSQL_2
  • 01.【FlinkSQL-day08】知识点回顾
  • 02.【FlinkSQL-day08】flinksql使用事件时间
  • 03.【FlinkSQL-day08】flinksql使用时区-1
  • 04.【FlinkSQL-day08】flinksql使用时区-2
  • 05.【FlinkSQL-day08】flinksql理解时态表的概念
  • 06.【FlinkSQL-day08】flinksql时态表函数在批计算场景使用
  • 07.【FlinkSQL-day08】flinksql时态表函数在流计算场景代码实现
  • 08.【FlinkSQL-day08】flinksql时态表join操作
  • 09.【FlinkSQL-day08】flinksql使用窗口的介绍
  • 10.【FlinkSQL-day08】flinksql使用滚动窗口的示例
  • 11.【FlinkSQL-day08】flinksql使用其他窗口的示例
  • 12.【FlinkSQL-day08】知识点总结
1-11 flinkSQL_3
  • 01.【FlinkSQL-day09】知识点回顾
  • 02.【FlinkSQL-day09】flinksql的多维数据分析
  • 03.【FlinkSQL-day09】flinksql的多维数据分析-topN
  • 04.【FlinkSQL-day09】flinksql的over window
  • 05.【FlinkSQL-day09】flinksql的tableapi操作window
  • 06.【FlinkSQL-day09】flinksql的函数介绍和标量函数使用
  • 07.【FlinkSQL-day09】flinksql的表函数实现
  • 08.【FlinkSQL-day09】flinksql的其他函数实现
  • 09.【FlinkSQL-day09】flinksql的外部连接器(扩展)
  • 10.【FlinkSQL-day09】flinksql的优化点概述

阶段八 项目三星途车联网

展开
第一章 大数据-星途车联网
1-1 day01
  • 01.【星途车联网】day01-项目的内容介绍及章节规划
  • 02.【星途车联网】day01-车联网行业介绍
  • 03.【星途车联网】day01-车联网项目探索和发现
  • 04.【星途车联网】day01-项目整体架构
  • 05.【星途车联网】day01-项目技术架构及逻辑架构图
  • 06.【星途车联网】day01-数据流转过程分析
  • 07.【星途车联网】day01-服务器及数据量的计算和数据格式分析
  • 08.【星途车联网】day01-项目环境的搭建
  • 09.【星途车联网】day01-解析简单的json字符串
  • 10.【星途车联网】day01-解析复杂的json字符串
  • 11.【星途车联网】day01-解析复杂的json字符串优化后的写法
  • 12.【星途车联网】day01-知识点总结
1-2 day02
  • 01.【星途车联网】day02-知识点回顾
  • 02.【星途车联网】day02-分析数据采集上报过程以及编写kafka的生产者和消费者代码
  • 03.【星途车联网】day02-流式处理模块的初始化
  • 04.【星途车联网】day02-梳理实时ETL开发的流程步骤
  • 05.【星途车联网】day02-编写时间处理的工具类
  • 06.【星途车联网】day02-工具类的编写
  • 07.【星途车联网】day02-json解析工具类的编写
  • 08.【星途车联网】day02-flink流式处理程序消费kafka数据测试
  • 09.【星途车联网】day02-对流式计算程序的任务进行封装公共类
  • 10.【星途车联网】day02-etl任务的设计及反压的原理介绍
  • 11.【星途车联网】day02-知识点总结
1-3 day03
  • 01.【星途车联网】day03-知识点回顾
  • 02.【星途车联网】day03-消费kafka数据过滤出来正常数据和异常数据
  • 03.【星途车联网】day03-StreamingFileSink的介绍
  • 04.【星途车联网】day03-StreamingFileSink的使用案例
  • 05.【星途车联网】day03-使用StreamingFileSink的将正常和异常数据分别写入到hdfs中
  • 06.【星途车联网】day03-hive创建分区映射hdfs数据所在目录加载到hive表中
  • 07.【星途车联网】day03-回顾rowkey的设计原则和设计方法
  • 08.【星途车联网】day03-将数据写入到hbase的流程分析
  • 09.【星途车联网】day03-将数据实时的写入到hbase中
  • 10.【星途车联网】day03-buffredmuator写入优化
  • 11.【星途车联网】day03-使用优化后的buffredmuator方案将数据实时写入到hbase表中
  • 12.【星途车联网】day03-buffredmuator源码分析
  • 13.【星途车联网】day03-知识点总结
1-4 day04
  • 01.【星途车联网】day04-知识点回顾
  • 02.【星途车联网】day04-回顾hbase的预写日志
  • 03.【星途车联网】day04-回顾hbase的编码和压缩
  • 04.【星途车联网】day04-Phoenix的介绍
  • 05.【星途车联网】day04-Phoenix的常用操作
  • 06.【星途车联网】day04-hbase的二级索引介绍
  • 07.【星途车联网】day04-车辆明细表数据的实时写入
  • 08.【星途车联网】day04-基于车辆明细表数据进行数据统计
  • 09.【星途车联网】day04-zepplin介绍和使用场景
  • 10.【星途车联网】day04-zepplinUI介绍
  • 11.【星途车联网】day04-zepplin与mysql和hive的整合案例
  • 12.【星途车联网】day04-zepplin集成Phoenix进行即席查询
  • 13.【星途车联网】day04-知识点总结
1-5 day05
  • 01.【星途车联网】day05-知识点回顾
  • 02.【星途车联网】day05-驾驶行程存储分层设计
  • 03.【星途车联网】day05-驾驶行程业务实现逻辑分析
  • 04.【星途车联网】day05-驾驶行程业务添加水印处理
  • 05.【星途车联网】day05-驾驶行程采样数据自定义窗口开发
  • 06.【星途车联网】day05-驾驶行程采样数据实时写入到hbase中
  • 07.【星途车联网】day05-驾驶行程数据处理分析
  • 08.【星途车联网】day05-驾驶行程数据自定义窗口开发
  • 09.【星途车联网】day05-驾驶行程数据实时写入到hbase
  • 10.【星途车联网】day05-驾驶行程数据离线同步到mysql数据库
  • 11.【星途车联网】day05-知识点总结
1-6 day06
  • 01.【星途车联网】day06-知识点回顾
  • 02.【星途车联网】day06-电子围栏的介绍和应用场景
  • 03.【星途车联网】day06-电子围栏的数据结构介绍
  • 04.【星途车联网】day06-电子围栏业务开发流程梳理
  • 05.【星途车联网】day06-电子围栏业务开发步骤编写
  • 06.【星途车联网】day06-将电子围栏规则应用到原始数据流
  • 07.【星途车联网】day07-测试两点之间距离的工具类
  • 08.【星途车联网】day07-将电子围栏规则与原始数据进行拉宽操作并测试
  • 09.【星途车联网】day07-分析电子围栏状态的切换逻辑
  • 10.【星途车联网】day07-实现电子围栏状态的切换逻辑并测试
  • 11.【星途车联网】day07-实现电子围栏分析结果写入到mysql并进行测试
  • 12.【星途车联网】day07-知识点总结
1-7 day07
  • 01.【星途车联网】day07-知识点回顾
  • 02.【星途车联网】day07-在线实时故障分析业务介绍
  • 03.【星途车联网】day07-表结构介绍及高德地图解决逆地理坐标问题
  • 04.【星途车联网】day07-在线实时异常告警分析流程
  • 05.【星途车联网】day07-异步io实现高德逆地理位置查询的逻辑梳理
  • 06.【星途车联网】day07-异步io实现高德逆地理位置查询并测试
  • 07.【星途车联网】day07-实现自定义窗口函数区分出来异常字段和正常指标字段
  • 08.【星途车联网】day07-将车辆基础信息数据应用到原始数据流流
  • 09.【星途车联网】day07-在线实时故障分析结果实时写入到数据库中
  • 10.【星途车联网】day07-知识点总结
1-8 day08
  • 01.【星途车联网】day08-知识点回顾
  • 02.【星途车联网】day08-自定义告警规则业务分析和数据存储
  • 03.【星途车联网】day08-存储介质mongodb的介绍
  • 04.【星途车联网】day08-mongodb服务的部署
  • 05.【星途车联网】day08-mongodb数据库及集合的常用操作
  • 06.【星途车联网】day08-mongodb高阶操作
  • 07.【星途车联网】day08-mongodb的索引介绍
  • 08.【星途车联网】day08-mongodb的高阶操作
  • 09.【星途车联网】day08-js实现mongodb的id自增操作
  • 10.【星途车联网】day08-基于地理位置的查询
  • 11.【星途车联网】day08-mongodb的客户端操作
  • 12.【星途车联网】day08-知识点总结
1-9 day09
  • 01.【星途车联网】day09-知识点回顾
  • 02.【星途车联网】day09-使用jdbc对mongodb的数据进行添加或更新
  • 03.【星途车联网】day09-使用jdbc对mongodb的数据进行删除及高级查询
  • 04.【星途车联网】day09-mongodb的副本集原理及演示
  • 05.【星途车联网】day09-自定义告警规则业务分析及相关表结构介绍
  • 06.【星途车联网】day09-自定义告警规则业务代码实现步骤分析
  • 07.【星途车联网】day09-自定义告警规则业务代码实现水印及自定义窗口操作
  • 08.【星途车联网】day09-加载自定义告警规则数据并进行广播
  • 09.【星途车联网】day09-梳理自定义告警规则应用到原始拉宽数据流的逻辑
  • 10.【星途车联网】day09-自定义规则计算表达式工具类
  • 11.【星途车联网】day09-知识点总结
1-10 day10
  • 01.【星途车联网】day10-知识点回顾
  • 02.【星途车联网】day10-将自定义告警规则应用到数据流拉宽分析结果模型数据
  • 03.【星途车联网】day10-分析数据写入到mongodb的逻辑
  • 04.【星途车联网】day10-分析数据写入到mongodb的实现
  • 05.【星途车联网】day10-分析数据写入到mongodb的测试
  • 06.【星途车联网】day10-离线指标分析业务介绍及课程目标
  • 07.【星途车联网】day10-jdbc六大对象介绍以及各自使用场景
  • 08.【星途车联网】day10-使用jdbcinputformat和jdbcoutformat案例演示
  • 09.【星途车联网】day10-知识点总结
1-11 day11
  • 01.【星途车联网】day11-知识点回顾
  • 02.【星途车联网】day11-编写数据汇总计算准备率实现逻辑
  • 03.【星途车联网】day11-编写数据汇总计算准备率写入到mysql表中
  • 04.【星途车联网】day11-多维度分析数据准备率写入到mysql表中
  • 05.【星途车联网】day11-自定义告警类型和告警状态统计分析
  • 06.【星途车联网】day11-车联网项目数仓分层
  • 07.【星途车联网】day11-车辆动态监测分析
  • 08.【星途车联网】day11-BI分析及介绍
  • 09.【星途车联网】day11-superset入门案例
  • 10.【星途车联网】day11-前端页面介绍
  • 11.【星途车联网】day11-知识点总结
1-12 day12
  • 01.【星途车联网】day12-知识点回顾
  • 02.【星途车联网】day12-回顾flink应用程序的部署方式以及flinkonyarn部署
  • 03.【星途车联网】day12-车联网任务分类的总结
  • 04.【星途车联网】day12-ds介绍及安装部署
  • 05.【星途车联网】day12-ds定义并调度任务
  • 06.【星途车联网】day12-ds基本使用和项目管理界面操作
  • 07.【星途车联网】day12-扩展了解充电桩业务
  • 08.【星途车联网】day12-项目总结1
  • 09.【星途车联网】day12-项目总结2

阶段九 大数据-就业指导技巧

展开
第一章 工作篇
1-1 工作篇
  • 工作篇
第二章 大数据市场篇
2-1 大数据-市场篇
  • 大数据市场篇
第三章 求职篇
3-1 求职篇
  • 求职篇1简历制作
  • 求职篇2简历投递技巧
  • 应聘渠道使用技巧
第四章 面试篇
4-1 面试篇
  • 面试篇1
  • 面试篇2
第五章 试用期篇
5-1 试用期
  • 试用期篇1
  • 试用期篇2