课程试听
阶段一 大数据基础+Java语言编程
展开第一章 大数据操作系统基础

1-1 大数据操作系统基础(一)

- 01-大数据概念 免费试学
- 02-大数据的特点 免费试学
- 03-大数据的应用场景 免费试学
- 04-大数据的处理流程 免费试学
- 05-大数据部门组织结构 免费试学
- 06-计算机原理 免费试学
- 07-计算机软件和硬件的介绍 免费试学
- 08-操作系统的概述 免费试学
- 09-Linux系统的概述 免费试学
- 10-Linux系统的发行版 免费试学
- 11-VMware的安装 免费试学
- 12-Centos的安装 免费试学
- 13-使用VMware打开Centos 免费试学
- 14-虚拟化技术开启 免费试学
- 15-虚拟机的网络配置 免费试学
- 16-使用finalshell连接Linux 免费试学
- 17-Linux的目录结构 免费试学
- 18-学习Linux命令的原因 免费试学
- 19-Linux命令-ls命令 免费试学
- 20-Linux命令-pwd、mkdir、rm命令 免费试学
- 21-Linux命令-cd命令 免费试学
- 22-Linux命令-touch命令 免费试学
- 23-Linux命令-mv命令 免费试学
- 24-Linux命令-cp命令 免费试学
1-2 大数据操作系统基础(二)

- 01-虚拟机环境问题和快照保存 免费试学
- 02-快照的删除和恢复 免费试学
- 03-Linux命令-解压命令 免费试学
- 04-Linux命令-压缩命令 免费试学
- 05-Linux命令-find命令 免费试学
- 06-Linux命令-grep和which命令 免费试学
- 07-Linux命令-ps和kill命令 免费试学
- 08-Linux命令-管道命令 免费试学
- 09-Linux命令-用户管理命令 免费试学
- 10-Linux权限控制介绍 免费试学
- 11-Linux权限控制-chmod命令 免费试学
- 12-Linux网络管理命令 免费试学
- 13-Linux的其他命令-ln、clear、history 免费试学
- 14-VI编辑器-介绍 免费试学
- 15-VI编辑器-命令行模式 免费试学
- 16-VI编辑器-底行模式 免费试学
- 17-通过nodepad++连接Linux 免费试学
- 18-Mysql数据库-概述 免费试学
- 19-Mysql数据库-常见数据库介绍 免费试学
- 20-Mysql数据库-数据库登录 免费试学
- 21-Mysql数据库-使用DataGrip连接Mysql 免费试学
- 22-Mysql数据库-使用DataGrip连接Mysql-问题说明 免费试学
第二章 大数据关系型数据库

2-1 关系型数据库(一)

- 01-SQL的概述
- 02-SQL语言的分类
- 03-SQL的语法和数据类型
- 04-SQL操作-DDL命令-数据库操作
- 05-SQL操作-DDL命令-表的基本操作
- 06-SQL操作-DDL命令-修改表结构
- 07-SQL操作-DML命令-insert指令
- 08-SQL操作-DML命令-update指令
- 09-SQL操作-DML命令-delete命令
- 10-SQL操作-练习
- 11-SQL约束-主键约束
- 12-SQL约束-非空约束
- 13-SQL约束-唯一约束
- 14-SQL约束-外键约束
2-2 关系型数据库(二)

- 01-SQL操作-DQL命令-简单查询
- 02-SQL操作-DQL命令-条件判断语法
- 03-SQL操作-DQL命令-条件查询1
- 04-SQL操作-DQL命令-条件查询2
- 05-SQL操作-DQL命令-排序查询
- 06-SQL操作-DQL命令-聚合函数
- 07-SQL操作-DQL命令-分组查询
- 08-SQL操作-DQL命令-分组查询-having关键字
- 09-SQL操作-DQL命令-分页查询
- 10-SQL操作-DQL命令-insert into select语句
2-3 关系型数据库(三)

- 01-表与表之间的关系
- 02-外键约束概念
- 03-外键约束的操作
- 04-外键约束的数据插入和删除
- 05-多表查询-交叉连接查询
- 06-多表查询-内连接查询
- 07-多表查询-外连接
- 08-多表查询-子查询1
- 09-多表查询-子查询2
- 10-多表查询-子查询3
- 11-索引的概念
- 12-索引的分类
- 13-索引的操作-普通索引
- 14-索引的操作-唯一索引和主键索引
- 15-索引的注意事项
- 16-开窗函数介绍
- 17-开窗函数的用法
- 18-开窗函数求TopN
第三章 大数据可视化ETL平台

3-1 可视化ETL平台

- 01-数据仓库的概念
- 02-ETL的概念
- 03-Kettle的介绍
- 04-Kettle的安装
- 05-Kettle的入门案例
- 06-案例1-设置Excel输入组件
- 07-案例2-设置Mysql输出组件
- 08-设置数据库共享连接
- 09-案例3-设置myql输入和mysql输出组件
- 10-案例4-设置mysql输入和插入更新组件
- 11-案例5-设置mysql输入组件和删除组件
- 12-案例6-设置排序组件
- 13-案例7-设置switch_case组件
第四章 大数据BI可视化开发

4-1 BI可视化开发

- 01-案例8-设置sql脚本组件
- 02-案例9-设置kettle转换参数
- 03-案例10-设置kettle作业定时
- 04-Kettle的Linux部署-使用Pan来执行转任务
- 05-Kettle的Linux部署-使用Kitchen来执行转任务
- 06-Superset的介绍
- 07-Superset的安装和登录
- 08-Superset的入门案例
- 09-Superset案例1-统计每天的销售额
- 10-Superset案例2-统计每天每个渠道的销售额
- 11-Superset案例3-根据日期、区域、渠道、产品统计订单总额
- 12-Superset案例4-根据日期、区域统计订单总额(数据透视表)
- 13-Superset看板系统
第五章 大数据电商数据仓库实战

5-1 电商数据仓库实战

- 01-综合案例-背景介绍
- 02-综合案例-电商操作流程和原理介绍
- 03-综合案例-电商系统术语介绍
- 04-综合案例-解决方案
- 05-综合案例-架构说明
- 06-综合案例-DataGrip环境搭建
- 07-综合案例-表字段介绍
- 08-综合案例-业务数据抽取方案
- 09-综合案例-业务数据抽取实施
- 10-综合案例-数据抽取-作业操作
- 11-综合案例-数据分析-统计每天的订单金额、订单总笔数
- 12-综合案例-数据分析-统计当天下过订单的不同用户总数
- 13-综合案例-统计不同支付方式订单总额和订单笔数分析
- 14-综合案例-统计用户订单笔数Top5
- 15-综合案例-统计不同分类的订单金额和总笔数-自关联
- 16-综合案例-统计不同分类的订单金额和总笔数-自关联分类表
- 17-综合案例-统计不同分类的订单金额和总笔数-sql编写
- 18-综合案例-统计不同分类的订单金额和总笔数-sql优化
- 19-综合案例-设置作业
- 20-综合案例-数据可视化-订单销售总额和总笔数开发
- 21-综合案例-数据可视化-订单支付方式分析开发
- 22-综合案例-数据可视化-订单笔数TOP5用户
- 23-综合案例-数据可视化-订单商品分类分析
- 24-综合案例-看板开发
第六章 大数据Java语言编程-编程基础

6-1 编程基础(一)

- 01.今日内容介绍 免费试学
- 02.计算机基本概述 免费试学
- 03.语言介绍 免费试学
- 04.为什么要学习Java语言 免费试学
- 05.Java语言介绍 免费试学
- 06.JDK的下载安装和卸载 免费试学
- 07.path环境变量的配置 免费试学
- 08.HelloWorld入门案例(掌握) 免费试学
- 09.编写HelloWorld案例常见问题 免费试学
- 10.开发工具解释 免费试学
- 11.IDEA的安装和首次启动设置 免费试学
- 12.IDEA中的模块和项目之间的关系图解 免费试学
- 13.HelloWorld案例(IDEA版)_必须掌握 免费试学
- 14.IDEA的基本设置和快捷键 免费试学
- 15.如何导入和删除模块 免费试学
- 16.注释(掌握) 免费试学
- 17.关键字解释 免费试学
- 18.常量解释 免费试学
- 19.变量入门 免费试学
- 20.定义基本类型的变量并打印 免费试学
- 21.变量的注意事项 免费试学
6-2 编程基础(二)

- 01.昨日内容回顾 免费试学
- 02.标识符 免费试学
- 03.自动类型转换 免费试学
- 04.强制类型转换 免费试学
- 05.扩展_常量和变量相加 免费试学
- 06.ASCII码表简介 免费试学
- 07.算术运算符 免费试学
- 08.自增和自减运算符 免费试学
- 09.赋值运算符 免费试学
- 10.关系运算符 免费试学
- 11.逻辑运算符入门 免费试学
- 12.短路逻辑运算符 免费试学
- 13.三元运算符入门 免费试学
- 14.三元案例_判断老虎体重是否相同 免费试学
- 15.三元案例_获取三个和尚的最高身高 免费试学
- 16.Scanner入门 免费试学
- 17.键盘录入版和尚身高 免费试学
- 18.Scanner练习_获取指定数字的各个位数 免费试学
- 19.顺序结构 免费试学
- 20.if语句之单分支 免费试学
- 21.if语句之双分支 免费试学
- 22.if双分支案例_判断奇偶数 免费试学
- 23.if多分支案例_打印星期 免费试学
- 24.if多分支案例_发放奖励 免费试学
- 25.if多分支案例之获取三个整数的最大值 免费试学
- 26.if使用的小技巧 免费试学
- 27.switch语句入门 免费试学
- 28.case穿透 免费试学
- 29.switch的思考题 免费试学
- 30.switch语句_发放奖励 免费试学
6-3 编程基础(三)

- 01.Day02作业第6题讲解
- 02.Day02作业第7题讲解
- 03.循环简介
- 04.for循环入门
- 05.for循环案例_打印数字
- 06.for循环案例_求和思想
- 07.for循环案例_求偶数和
- 08.for循环案例_求水仙花数
- 09.for循环案例_计数思想
- 10.while循环入门
- 11.while循环案例_求和思想
- 12.while循环案例_珠穆朗玛峰问题
- 13.do.while循环(了解)
- 14.三种循环之间的区别(理解)
- 15.break的作用
- 16.continue的入门案例
- 17.控制跳转语句_思考题
- 18.循环嵌套_年月案例
- 19.循环嵌套_打印矩形
- 20.循环嵌套_打印正三角形
- 21.循环嵌套_打印倒三角形
- 22.循环嵌套_打印99乘法表
- 23.Math获取随机数_入门
6-4 编程基础(四)

- 01.数组简介
- 02.数组的基本用法
- 03.一个数组的内存图_了解
- 04.两个数组的内存图
- 05.两个数组指向同一个地址
- 06.数组的两个常见小问题
- 07.数组的常见操作_遍历数组
- 08.数组的常见操作_获取最大值
- 09.数组的常见操作_反转数组
- 10.方法简介
- 11.无参无返回值的方法
- 12.方法调用图解
- 13.有参无返回值的方法
- 14.无参有返回值的方法_案例一(求和)
- 15.无参有返回值的方法_案例二(求奇偶数)
- 16.有参有返回值的方法_案例一(求和)
- 17.有参有返回值的方法_案例二(判断奇偶数)
- 18.有参有返回值的方法_案例三(求最大值)
- 19.方法练习_遍历数组
- 20.方法练习_获取数组元素最大值
- 21.方法练习_模拟计算器
- 22.方法重载入门
- 23.方法重载的思考题
- 24.基本类型作为形参的情况
- 25.引用类型作为形参的情况
- 26.遍历数组
- 27.Debug断点调试
第七章 大数据Java语言编程-面向对象

7-1 面向对象(一)

- 01.面向对象简介
- 02.类和对象入门
- 03.如何使用类中的内容
- 04.手机类的定义和使用
- 05.一个对象的内存图(了解)
- 06.两个对象的内存图(了解)
- 07.两个引用指向同一个对象的内存图(了解)
- 08.成员变量和局部变量的区别
- 09.private关键字讲解
- 10.加入private后的标准代码
- 11.封装的概述和好处
- 12.this关键字入门
- 13.加入this关键字后的标准版的JavaBean代码
- 14.构造方法入门
- 15.构造方法的注意事项
7-2 面向对象(二)

- 00.昨日作业讲解
- 02.非继承版(人类案例)
- 03.继承版(人类案例)
- 04.Java中继承的特点
- 05.继承中成员变量的访问特点
- 06.super关键字详解
- 07.继承关系中的构造方法的特点
- 08.继承关系中的成员方法的访问特点
- 09.方法重写详解
- 10.人类案例(继承版_标准版本)
- 11.多态入门
- 12.多态中的成员访问特点
- 13.多态的好处和弊端
- 14.向上转型和向下转型
- 15.动物案例_多态版
- 16.扩展内容_多态在实际开发中的应用
- 17.扩展内容_instanceof关键字
第八章 大数据Java语言编程-常用类API

8-1 常用类API(一)

- 01.Day06作业第二题讲解
- 02.final关键字的用法
- 03.扩展_final关键字的常见面试题
- 04.static关键字入门
- 05.静态方法的访问特点
- 06.抽象类入门
- 07.抽象类的特点
- 08.抽象类的成员特点
- 09.老师类案例_抽象类版
- 10.接口入门
- 11.接口中的成员特点
- 12.抽象类和接口的区别
- 13.运动员和教练类案例(思路分析)
- 14.运动员和教练类案例(代码实现)
- 15.包详解
- 16.权限修饰符
- 17.扩展_Object#toString()方法
- 18.面向对象总结
8-2 常用类API(二)

- 01.Day07作业第一题讲解
- 02.Day07作业第3题讲解
- 03.Scanner接收字符串
- 04.使用Scanner的小技巧
- 05.Object类的toString()方法介绍
- 06.Object类的equals()方法
- 07.String类的构造方法
- 08.String类创建对象的特点
- 09.比较字符串是否相等
- 10.String扩展_字符串拼接问题
- 11.String案例_模拟用户登录
- 12.String案例_遍历字符串
- 13.String案例_统计各类型字符的次数
- 14.String案例_字符串拼接
- 15.String案例_字符串反转
- 16.通过API帮助文档查看String类中的方法.
- 17.StringBuilder入门案例
- 18.StringBuilder的添加和反转方法
- 19.StringBuilder和String的相互转换
- 20.StringBuilder案例_拼接数组元素
- 21.StringBuilder案例_反转字符串
8-3 常用类API(三)

- 01.冒泡排序原理分析
- 02.冒泡排序代码实现
- 03.Arrays工具类介绍
- 04.包装类简介
- 05.int和String之间如何相互转换
- 06.扩展_其他基本类型和String之间的转换
- 07.案例_字符串数字排序
- 08.JDK1.5特性_自动拆装箱
- 09.Date入门
- 10.Date类的构造方法
- 11.SimpleDateFormat的格式化操作
- 12.SimpleDateFormat的解析操作
- 13.DateUtils工具类的定义
- 14.Calendar入门
- 15.Calendar类的成员变量和成员方法
- 16.获取某年的2月有多少天
- 17.内部类介绍
- 18.匿名内部类的入门案例
- 19.匿名内部类的使用场景和小技巧
第九章 大数据Java语言编程-集合操作

9-1 集合操作(一)

- 01.Day09作业第六题讲解
- 02.Day09作业扩展第一题
- 03.Day09作业扩展第二题
- 04.集合的体系图
- 05.Collection集合入门
- 06.Collection集合中的常用方法
- 07.遍历集合
- 08.Collection集合存储自定义对象并遍历
- 09.List集合入门
- 10.List集合的特有成员方法
- 11.List集合的独有遍历方式
- 12.List集合存储自定义类型的对象并遍历
- 13.列表迭代器
- 14.并发修改异常详解
- 15.扩展_CopyOnWriteArrayList集合
- 16.增强for入门
- 17.增强for遍历List集合
- 18.增强for遍历List集合_存储自定义类型的对象
- 19.栈和队列介绍
- 20.数组和链表介绍
- 21.ArrayList集合存储字符串并遍历
- 22.ArrayList集合存储自定义对象并遍历
- 23.LinkedList集合入门
- 24.LinkedList集合的特有方法
9-2 集合操作(二)

- 01.Day10作业第4题讲解
- 02.Set集合入门
- 03.哈希值详解
- 04.HashSet集合入门
- 05.HashSet集合保证元素唯一性的原理
- 06.数据结构之哈希表
- 07.HashSet存储自定义对象并保证唯一性
- 08.LinkedHashSet集合详解
- 09.可变参数
- 10.Map集合入门
- 11.Map集合的成员方法详解
- 12.Map集合的获取功能
- 13.Map集合的遍历方式1_根据键获取其对应的值
- 14.Map集合的遍历方式2_根据键值对获取其对应的键和值
- 15.Map案例_键是String值是Student
- 16.Map案例_键是Student值是String
- 17.Map案例_ArrayList嵌套HashMap集合
- 18.Map案例_HashMap嵌套ArrayList集合
- 19.Map案例_统计字符个数
- 20.Collections工具类的成员方法解释
- 21.模拟斗地主发牌_无序的牌
- 22.模拟斗地主发牌_有序的牌_思路分析
- 23.模拟斗地主发牌_有序的牌_代码实现
第十章 大数据Java语言编程-IO操作

10-1 IO操作(一)

- 01.案例_获取10个不重复的随机数
- 02.Lambda表达式初体验
- 03.Lambda表达式的标准格式
- 04.Lambda表达式练习1_无参无返回方法
- 05.Lambda表达式练习2_有参无返回方法
- 06.Lambda表达式练习3_有参有返回值方法
- 07.Lambda表达式的省略模式
- 08.Lambda表达式的注意事项
- 09.异常简介
- 10.try.catch方式处理异常
- 11.声明抛出异常
- 12.关于异常的思考题
- 13.File类的构造方法
- 15.File类的创建功能
- 16.File类的判断功能
- 17.File类的获取功能
- 18.File类的删除功能
- 19.IO流的简介
- 20.字节输出流讲解
- 21.字节输出流的两个小问题
- 22.try.catch方式解决IO流异常
- 23.try.with.resource语句
- 24.创建空文件
- 25.字节输入流一次读取一个字节
- 26.字节输入流一次读取一个字节数组
- 27,字节流拷贝文本文件
- 28.图片加密
- 30.字节流拷贝文件的四种方式
10-2 字节缓冲流(补充)

- 25-缓冲流-一次读写一个字节代码实现
- 26-缓冲流-一次读写一个字节原理
- 27-缓冲流-一次读写一个字节数组
10-3 IO操作(二)

- 01.字符流的由来
- 02.编解码问题
- 03.普通的字符流一次读写一个字符
- 04.高效字符流入门
- 05.字符流拷贝文件的6种方式(了解)
- 06.高效字符流一次读写一行
- 07.序列化流
- 08.反序列化流
- 09.serialVersionUID和transient关键字
- 10.commons-io第三方jar包的使用
- 11.多线程入门
- 12.多线程并行和并发的区别
- 13.单线程程序演示
- 14.Java程序是否是多线程版
- 15.多线程的实现方式一_继承Thread类
- 16.多线程的原理
- 17.多线程的实现方式二_实现Runnable接口
- 18.匿名内部类实现多线程
- 19.模拟卖票案例_继承Thread类版
- 20.多线程模拟卖票出现非法值的原因
- 21.多线程模拟卖票_问题解决
- 22.多线程模拟卖票_实现Runnable接口版
第十一章 大数据Java语言编程-Java基础增强

11-1 Java基础增强(一)

- 02.死锁详解
- 03.多线程的生命周期
- 04.线程安全的类
- 05.线程的优先级
- 06.线程控制之加入线程
- 07.线程控制之守护线程
- 08.Lock锁简介
- 09.实现线程池_提交Runnable接口任务
- 10.实现线程池_提交Callable接口任务
- 11.生产者和消费者设计模式介绍
- 12.生产者和消费者设计模式_代码实现
- 13.设计模式相关内容介绍
- 14.网编介绍
- 15.IP地址介绍
- 16.InetAddress类讲解
- 17.端口号和协议
- 18.UDP协议_发送端代码
- 19.UDP协议_接收端代码实现
- 20.UDP协议案例_键盘录入数据然后发送
- 21.TCP协议之客户端代码实现
- 22.TCP协议之服务器端接收客户端发送的数据
- 23.TCP协议之客户端和服务器端之一句话的交情
- 24.TCP协议之客户端接收键盘录入_然后发送给服务器端打印
- 25.服务器端接收数据写入到文件
11-2 Java基础增强(二)

- 01.网编案例_客户端给服务器端上传文件
- 02.网编案例_客户端上传文件_接收服务器端回执信息
- 03.网编案例_多线程版服务器端
- 04.Junit单元测试入门
- 05.Junit单元测试相关注解
- 06.类加载的过程
- 07.类加载器详解
- 08.类加载器的检查和运行顺序
- 09.反射入门_获取字节码文件对象
- 10.反射_获取类的构造方法
- 11.反射_通过公共的构造方法创建对象
- 12.反射_通过私有的构造方法创建对象
- 13.反射_获取成员变量并使用
- 14.反射_获取私有成员变量并使用
- 15.反射_获取成员方法
- 16.反射_获取成员方法并使用
- 17.反射案例_越过泛型检查
- 18.Properties集合类讲解
- 19.反射案例_执行执行类的指定方法
- 20.注解入门
- 21.自定义注解
- 22.使用自定义注解
- 23.通过反射获取注解信息
- 24.xml入门
- 25.xml文件中可以写啥
- 26.dtd约束演示
- 27.schema约束演示
- 28.命名空间(了解)
第十二章 大数据java基础综合_jdbc

12-1 大数据java基础综合_jdbc

- 01-今日内容
- 02-数据库的基本介绍
- 03-在window中安装MySQL
- 04-如何卸载mysql以及如何连接mysql操作
- 05-jdbc的基本介绍
- 06-jdbc的入门案例操作
- 07-JDBC的API详解(上)
- 08-JDBC的API详解(下)
- 09-使用原始JDBC实现增加数据操作
- 10-提取jdbc的工具类操作
- 11-jdbc的工具类的基本使用操作
- 12-SQL注入问题的引入
- 13-SQL注入问题的解决
- 14-使用预编译的方式来实现对数据库的CURD
- 15-C3P0连接池的基本使用操作
- 16-C3P0连接池的工具类的提前
- 17-事务的基本概念以及如何在mysql中操作事务
- 18-事务的四大特性
- 19-事务的隔离性问题说明和解决方案
- 20-jdbc中如何事务操作
- 21-总结
第十三章 大数据java基础综合_maven

13-1 大数据java基础综合_maven

- 01-课前回顾和今日内容
- 02-maven的基本介绍
- 03-安装maven软件
- 04-配置maven的本地仓库方案
- 05-idea中集成maven的操作
- 06-idea中创建一个无骨架的javase的项目
- 07-idea中创建一个有骨架的javase项目
- 08-idea中创建一个有骨架的web工程
- 09-idea中创建一个无骨架的web工程
- 10-maven的常用命令
- 11-maven的插件说明
- 12-maven插件的总结
- 13-maven的如何导入依赖操作
- 14-maven中依赖范围的讲解
- 15-maven项目中聚合工程
- 16-总结
- 17_扩展_web的介绍和前端技术说明
- 18-html和css以及javascript的基本介绍
- 19-css选择器的介绍
第十四章 大数据java基础综合_爬虫综合案例(一)

14-1 大数据java基础综合_爬虫综合案例

- 01-课前回顾和今日内容
- 02-爬虫的基本概念和爬虫的作用
- 03-爬虫的分类讲解
- 04-爬虫的执行流程
- 05-爬墙有爬取数的爬取策略的说明
- 06-http协议中请求部分说明
- 07-http协议中响应部分的讲解
- 08-如何使用jdk发送get请求操作
- 09-如何使用JDK发送post请求
- 10-使用httpClient发送get请求操作
- 11-使用httpClient发送post请求操作
- 12-使用jsoup如何获取document的四种方式
- 13-jsoup解析数据_获取传智播客中所有的课程信息
- 14-jsoup解析数据_获取163新闻的数据
- 15-综合案例_起点爬虫(上)
- 16-综合案例_起点爬虫(中)
- 17-综合案例_起点爬虫(下)
- 18-总结
第十五章 大数据java基础综合_爬虫综合案例(二)

15-1 大数据java基础综合_爬虫综合案例

- 01-课前回顾和今日内容
- 02-需求说明和项目的准备工作
- 03-jd爬虫_发送请求获取数据(首页)
- 04-jd爬虫_图片数据的下载操作
- 05-jd爬虫_解析数据和封装数据操作
- 06-jd爬虫_保存数据操作
- 07-完成获取下一页的数据并完成最终的测试
- 08-分页的错误说明
- 09-优化工作_将各个阶段抽取成一个个单独方法
- 10-使用线程池来优化爬虫程序_线程池构建思路
- 11-线程池构建再次说明
- 12-如何选择用于存储100页的URL的容器
- 13-如何保证线程安全的两种措施
- 14-最终的优化程序实现以及综合测试
- 15-监控线程的实现
- 16-今日总结(上)
- 17-今日总结(下)
阶段二 Hadoop 技术栈
展开第一章 大数据linux基础

1-1 linux基础

- 01-课前回顾和今日内容
- 02-计算机基本介绍
- 03-linux系统基本介绍以及虚拟化软件介绍
- 04-vmware的卸载
- 05-vmware的安装操作
- 06-centos7.7安装操作
- 07-安装CRT并且连接虚拟机操作
- 08-linux的目录结构说明
- 09-linux的相关命令的基本说明
- 10-linux命令_ll、pwd、mkdir、rm、cd
- 11-linux命令_文件操作命令
- 12-linux命令_压缩和解压缩的操作
- 13-linux命令_文件查找命令
- 14-linux命令_文件下载的命令
- 15-linux命令k_系统管理命令
- 16-linux命令_用户的创建和删除命令
- 17-linux命令_权限的设置操作
- 18-linux命令_网络和服务的命令
- 19-linux命令_其他命令操作
- 20-linux命令_vi编辑命令
- 21-vmware三种上网模式
- 22-虚拟机的静态ip设置
- 23-linux防火墙的操作内容
- 24-linux文件上传的两种方式
- 25-linux安装mysql
- 25-linux安装mysql(1)
- 26-linux安装jdk的操作
- 27-总结
第二章 大数据linux高级(一)

2-1 linux高级

- 01-课前回顾和今日内容
- 02-linux高级命令_重定向操作
- 03-linux高级命令_cut命令
- 04-linux高级命令_wc命令
- 05-linux高级命令_awk基本使用
- 06-linux高级命令_awk的分隔符号和内容匹配操作
- 07-linux高级命令_段内容判断操作
- 08-linux高级命令_awk中NR和NF操作
- 09-linux高级命令_awk分段求和操作(begin操作)
- 10-linux高级命令_awk综合练习
- 11-shell编程_基本介绍和入门案例
- 12-shell脚本的三种运行方式
- 13-shell的数据类型说明
- 14-shell的变量操作_用户变量
- 15-shell的环境变量的内容
- 16-shell的特殊变量的讲解
- 17-shell的字符串的操作_字符串特点和字符串的拼接操作
- 18-shell的字符串的讲解_获取长度截取字符串以及查找字符操作
- 19-shell的运算符的操作内容
- 20-总结
第三章 大数据linux高级(二)

3-1 linux高级

- 01-课前回顾和今日内容
- 02-if的基本介绍以及if格式案例操作
- 03-if与esle的相关的结构说明和操作案例
- 04-if与elif_else的相关的结构说明和操作案例
- 05-for循环的第一种格式的操作案例
- 06-for循环第二种格式的操作案例
- 07-while循环的基本操作案例
- 08-如何实现死循环操作
- 09-case判断语句的操作案例
- 10-跳出循环的操作(break和continue操作)
- 11-对while进行continue操作的问题解决
- 12-shell函数的基本定义操作以及如何返回数据内容
- 13-shell带有参数的函数操作
- 14-数组的基本介绍以及相关的操作
- 15-如何遍历数组的操作
- 16-改错(上午函数部分返回值的解决方案)
- 17-shell中select语句的操作选项
- 18-shell中如何在一个脚本中加载另一个脚本的操作
- 19-shell的综合案例_猜字小游戏
- 20-如何实现数据库的备份操作以及需求的讲解说明
- 21-如何实现数据库的备份脚本的编写
- 22-如何实现定时执行备份的操作案例
- 23-今日总结
第四章 大数据环境统一与zookeeper

4-1 大数据环境统一与zookeeper??

- 01-课前回顾和今日内容
- 02-基于第一台拷贝出后两台虚拟机操作
- 03-内存的配置和修改另两台mac地址操作
- 04-配置三台虚拟机ip地址和通过CRT连接三台虚拟机
- 05-设置主机名和域名的映射关系匹配
- 06-下课时发生问题的解决
- 07-三台虚拟机的防火墙和深层防火墙的关闭
- 08-ssh免密登录的执行原理流程说明
- 09-ssh免密配置操作项
- 10-时钟同步的操作(第一种方式实现)
- 11-vmware的中检测jdk以及vmware的快照机制说明
- 12-离线时钟同步策略
- 13-zookeeper的基本介绍
- 14-zookeeper的架构说明及其分布式和集群的概念说明
- 15-zookeeper的五大特性
- 16.zookeeper的集群的配置操作
- 17-zookeeper的可视化的说明以及如何进入命令行客户端
- 18-zookeeper的数据模型
- 19-zookeeper的节点类型
- 20-zookeeper中shell操作_如何创建节点
- 21-zookeeper中相关的shell命令的操作说明
- 21-zookeeper的watch机制说明
- 22-使用java操作zookeeper_创建节点
- 23-使用java操作zookeeper_修改数据和删除数据操作
- 24-使用java操作zookeeper_查询数据
- 25-zookeeper的选举策略
- 26-总结
第五章 大数据hadoop介绍与集群安装

5-1 day09_hadoop介绍与集群安装

- 01-课前回顾和今日内容
- 02-什么是大数据以及大数据的特点
- 03-数据的类型
- 04-大数据的应用场景和业务分析的流程
- 05分布式的技术说明
- 06-hadoop的发展历程
- 07-hadoop的四大特性
- 08-hadoop的特性和hadoop的发行版本
- 09-hadoop1.x的基础架构
- 10-hadoop的元数据的说明信息
- 11-hadoop的2.x的架构(单节点架构)
- 12-hadoop2.x的高可用的架构说明
- 13-hadoop3.x的新特性的简要说明
- 14-集群的基本介绍以及三种部署方式说明
- 15-hadoop集群安装之前需要进行编译操作(不需要做)
- 15-hadoop的编译后版本和官方编译版本区别说明
- 16-hadoop的目录结构的介绍操作
- 17-使用notepad++连接虚拟机的操作
- 18-hadoop的配置文件的修改操作
- 19-hadoop的目录的创建和环境变量的配置操作
- 20-hadoop的界面启动操作方案
- 21-如何在window中使用域名的方式来访问hadoop集群
- 22-hadoop的初体验的操作
- 23-总结
第六章 大数据HDFS(一)

6-1 大数据HDFS

- 01-课前回顾和今日内容
- 02-HDFS基本的介绍
- 03-HDFS的设计目标及其应用场景
- 04-HDFS的架构说明
- 05-HDFS副本机架感知原理
- 06-HDFS的shell基本命令(上)
- 07-HDFS的shell基本命令(下)
- 08-hdfs的安全模式
- 09-hdfs的基准测试内容
- 10-namenode的基本原理
- 11-datanode的基本原理
- 12-HDFS的写入数据的流程
- 13-HDFS的读取数据的流程
- 14-HDFS的SNN的元数据辅助管理操作
- 15-HDFS的元数据的辅助管理基本内容
- 16-如何使用SNN来恢复元数据操作
- 17-总结
第七章 大数据HDFS(二)

7-1 大数据HDFS(二)

- 01-课前回顾和今日内容
- 02-JAVA操作Hadoop的windows环境的配置
- 04-java操作HADOOP_如何获取FileSystem文件系统对象
- 05-java操作HDFS_获取某个路径下所有的文件
- 06-java操作HDFS_如何创建一个文件夹
- 07-java操作HDFS_如何创建一个文件
- 08-java操作HDFS_完成文件下载的操作
- 09-java操作HDFS_完成文件的下载操作
- 10-java操作HDFS_完成小文件合并成大文件的操作
- 11-java操作HDFS_权限的操作内容
- 12=服务器之间或者集群之间数据拷贝工作
- 13-HDFS中归档文件的说明
- 14-HDFS的快照的机制
- 15-HDFS的垃圾桶的机制
- 16-HDFS的高可用基本介绍
- 17-高可用的配置操作
- 18-高可用启动和测试操作
- 19-hadoop的联邦机制
- 20-总结
第八章 大数据MapReduce(一)

8-1 mapreduce

- 01-课前回顾和今日内容
- 02-MapReduce思想_分而治之
- 03-MapReduce的设计构思
- 04-MapReduce的编程规范说明_八大步骤
- 05-如何实现map和reduce操作
- 06-wordCount案例的实现流程说明
- 07-wordCount的map和reduce的程序编写
- 08-wordCount的驱动类编写
- 09-运行方式_第一种
- 10-运行方式_第二种分布式的运行操作
- 11-wordCount小总结
- 12-MapReduce的分区的概念
- 13-阐述需求, 了解如何实现自定义分区
- 14-如何自定义分区操作
- 15-分区案例_map和reduce实现操作
- 16-分区案例_驱动类的实现操作
- 17-分区案例_分区mr两种测试
- 18-序列化操作以及如何排序的概念说明
- 19-自定义一个pojo实现序列化和排序的操作
- 20-排序的案例操作_MR实现
- 21-排序案例MR_代码测试操作
- 22-总结
第九章 大数据MapReduce(二)

9-1 mapreduce

- 01-课前回顾和今日内容
- 02-昨日wordCount的案例流程回顾
- 03-combinner基本概念及其需求的流程分析工作
- 04-combinner操作_没有combinner实现案例操作
- 05-combinner操作_使用combinner完成案例操作
- 06-mapTask的并行机制
- 07-map阶段的整个执行流程
- 08-reduce阶段的整个执行流程
- 09-MapReduce的工作机制的总结
- 10-将课件中工作机制重新梳理一下
- 11-分组的基本介绍
- 12-MapReduce中分区和分组的区别, 以及分组的细化
- 13-自定义分组的需求流程分析
- 14-分组的案例进行自定义各个组件
- 15-分组的案例的驱动类的编写以及测试操作
- 16-mr的综合案例_案例一_需求一流程分析
- 17-mr的综合案例_案例一_需求一代码实现
- 18-mr的综合案例_案例一_需求二代码实现
- 19-总结
第十章 大数据MapReduce与yarn

10-1 mapreduce和yarn

- 01-课前回顾和今日内容
- 02-求共同好友的思路说明
- 03-求共同好友_求某一个用户在那些用户好友列表中MR实现
- 04-求共同好友_最终实现操作
- 05-案例二_倒排索引的介绍,引出需求
- 06-案例二_倒排索引的MR实现
- 07-mapTask的并行度机制
- 08-MapReduce的性能优化策略
- 09-yarn集群的基本介绍
- 10-yarn集群中课件中描述的信息
- 11-yarn运行机制说明
- 12-yarn的三种调度器
- 13-yarn常用参数说明
- 14-总结
第十一章 大数据hive(一)

11-1 hive

- 01-课前回顾和今日内容
- 02-数据仓库的基本概念及其数仓的主要特征
- 03-数据仓库和数据库的区别
- 04-数据仓库的分层架构和数据仓库的ETL工作
- 05-数据仓库的分层总结
- 06-hive的基本介绍及其特点
- 07-hive的架构和hive的元数据的存储方案
- 08-hive的安装的三种方式的说明
- 09-hive的安装中内嵌模式(了解)
- 10-hive的安装操作(最终安装版本)
- 11-hive的三种连接方式
- 12-hive的客户端的一键启动脚本
- 13-hive中关于数据库的相关的操作
- 14-如何创建表的语法说明
- 15-关于内部表的相关的操作
- 16-关于外部表的相关的操作
- 17内部表和外部表的区别说明
- 18-复杂类型_array类型
- 19-复杂类型_map和struct操作
- 20-内部表和外部表的互转操作
- 21-分区表的相关的操作(上)
- 22-分区表的相关的操作(下)
- 23-分区表的综合练习
- 24-桶表的基本介绍与操作
- 25-修改表结构操作
- 26-mysql密码处理操作
第十二章 大数据hive(二)

12-1 hive

- 01-课前回顾和今日内容
- 02-如何进行数据的导入操作
- 03-如何正确启动hive的步骤
- 04-如何导出数据操作
- 05-hive的查询的语法说明
- 06-hive的查询操作(上)
- 07-hive的查询操作(下)
- 08-hive的查询的操作_数据准备工作
- 09-hive查询操作_需求一
- 10-hive的查询操作_需求2和需求3
- 11-hive的查询操作_需求4,5操作
- 12-hive的参数的三种传递操作
- 13-hive的函数_数值,字符串以及日期函数
- 14-hive的函数_条件函数
- 15-hive的函数_转换函数操作
- 16-hive的函数_行转列的操作
- 17-hive的表生成函数_explode以及侧视图说明
- 18-hive的函数_reflect函数
- 19-hive的分析函数_row_number和rank以及dense_rank
- 20-hive的分析函数_ntile函数
- 21-hive的分析函数_sum_avg_max...
- 22-hive的分析函数_lag和lead以及...
- 23-总结
第十三章 大数据hive(三)

13-1 hive

- 01-课前回顾和今日内容
- 02-如何自定义hive的函数_UDF
- 03-如何自定义hive的函数_UDTF
- 04-hive的调优_hive的数据压缩方式
- 05-hive中_什么是行式存储什么是列式存储
- 06-数据仓库中各个层使用哪种格式来存储数据
- 07-hive的数据各个存储格式的效率测试
- 08-fetch的本地抓取策略
- 09-hive的本地模式操作
- 10-join的优化策略
- 11-SQL的优化方向
- 12-动态分区的调整介绍
- 13-动态分区的相关的实操
- 14-数据倾斜的问题的处理方案
- 15-hive的_并行执行,严格模式.jvm重用以及推测执行
- 16-总结
阶段三 项目一 在线教育
展开第一章 大数据-知行教育大数据分析平台

1-1 day01_知行教育大数据分析平台

- 01-今日内容
- 02-项目的基本介绍及其项目的背景说明
- 03-项目的业务需求说明(上)
- 04-项目的业务需求说明(下)
- 05_整个项目的架构的说明
- 06-为什么要使用CDH版本软件
- 07-clouderamanager基本的介绍及其相关的功能说明
- 08-cloudera manager的虚拟机整体配置操作
- 09-数据仓库的基本介绍
- 10-数据仓库系统架构
- 11-维度分析的基本介绍
- 12-维度建模的基本概念
- 13-维度建模中事实表的基本介绍
- 14-维度建模中维度表的基本介绍
- 15-数仓发展经历的三种模型介绍
- 16-渐变维基本介绍说明
- 17-今日总结
1-2 day02_知行教育大数据分析平台

- 01-课前回顾和今日内容
- 02-为什么要进行数据分层以及回顾数仓三层架构
- 03-数据仓库细度分层方案
- 04-数据仓库细度分析_总结
- 05-通过一个案例简单描述一下数据仓库设计过程
- 06-hue的基本介绍及其通过HUE操作HDFS
- 07-通过hue操作hive
- 08-oozie的基本介绍及其和azkaban的对比
- 09-oozie的三种工作流及其配置的原理说明
- 10-使用hue操作oozie
- 11-对sqoop基本介绍
- 12-sqoop如何实现将数据全量导入到HDFS中操作
- 13-sqoop如何将数据全量导入到hive中
- 14-通过where子句将符合条件数据导入到HDFS中
- 15-通过query的方式将数据导入到hdfs中
- 16-增量导入数据到hive表中
- 17-sqoop的数据导出操作(hive_MySQL)
- 18-sqoop的常用参数说明
- 20-今日内容总结
1-3 day03_知行教育大数据分析平台

- 01-课前回顾和今日内容 免费试学
- 02-访问咨询主题看板需求(1~4) 免费试学
- 03-访问咨询主题看板需求(5~8) 免费试学
- 04-访问咨询主题看板的原始数据结构说明 免费试学
- 05-建模分析(分析维度和指标以及DWD表有那些字段) 免费试学
- 06-建模分析(说明为什么不建立DWM层表数据) 免费试学
- 07-建模分析(DWS层 关于访问量的表结构分析) 免费试学
- 08-建模分析(DWS层_关于咨询量的表结构设计) 免费试学
- 09-维度建模的分析总结说明 免费试学
- 10-维度建模分析_课下问题的说明 免费试学
- 11-数仓中表使用何种数据格式以及使用何种压缩方案 免费试学
- 12-全量和增量的说明 免费试学
- 13-hive的分区介绍 免费试学
- 14-建模操作_ODS层建模过程 免费试学
- 15-建模操作_DW层建模过程 免费试学
- 16-hive的参数优化(hdfs,yarn的基本配置) 免费试学
- 17-hive的参数的优化方式 免费试学
- 18-今日总结 免费试学
1-4 day04_知行教育大数据分析平台

- 01-课前回顾和今日内容
- 02-数据采集_MySQL到hive(web_chat_ems)
- 03-数据采集_MySQL到hive(web_chat_text_ems)
- 04-访问量全量操作_从ODS到DWD(SQL基本实现)-解析数据问题未解决
- 05-访问量全量操作_从ODS到DWD(SQL基本实现)-解析数据问题以解决
- 06-访问量全量操作_从ODS到DWD操作(SQL的执行及其异常问题解决)
- 07-统计分析操作_根据地区统计各个时间的访问量
- 08-统计分析操作_根据搜索来源统计各个时间的访问量
- 09-统计分析操作_根据来源渠道统计各个时间的访问量
- 10-统计分析操作_根据会话来源页面及其中访问量统计各个时间的访问量
- 11-全量分析_数据导出MySQL的操作
- 12-咨询量统计_全量统计_根据地区来统计各时间段咨询量数据
- 13-咨询量统计_全量统计_根据来源渠道统计各个时间段的咨询量数据
- 14-咨询量统计_全量流程_数据导出操作
- 15-今日总结
1-5 day05_知行教育大数据分析平台

- 01-课前回顾和今日内容
- 02-增量流程的基本说明
- 03-为了实现增量过程模拟出上一天的数据
- 04-实现增量操作_数据采集(上)_SQL和sqoop的定义
- 05-实现增量操作_shell脚本编写
- 06-实现增量操作_数据采集shell脚本执行及其oozie的配置操作
- 07-实现增量操作_数据转换处理操作
- 08-实现正能量操作_数据统计分析和导出操作
- 09-意向客户主题看板_需求说明
- 10-导入原始数据以及对表基本说明
- 11-建模分析_DWD层字段分析
- 12-建模分析_DWM层表字段分析操作
- 13-建模分析_DWS层表字段分析操作
- 14-建模分析_总结
- 15-分桶表的作用
- 16-分桶表的创建及其如何加载数据到桶表说明
- 17-分桶表的作用_数据采样操作
- 18-如何开启mapJoin进行优化操作
- 19-bucketJoin和SMBjoin开启的前提要求说明
- 20-总结
1-6 day06_知行教育大数据分析平台

- 01-课前回顾和今日内容
- 02-分层操作_完成ODS层表构建操作
- 03-分层操作_完成DIM层表构建
- 04-分层操作_完成DWM与DWS层表构建
- 05-全量流程_DIM层数据采集工作
- 06-全量流程_ODS数据采集流程
- 07-全量流程_ODS到DWD层的数据转换操作(抽样实现)
- 08-全量流程_ODS到DWD层的总结
- 09-全量流程_DWD和DIM转换到DWM操作流程(表关联)
- 10-全量流程_DWD和DIM转换到DWM操作流程(字段与优化及其最终操作)
- 11-统计分析_DWM到DWS的基于维度的统计分析操作
- 12-增量流程_scd2的拉链表合并的流程
- 13-增量流程_拉链表的合并详细讲解(另一方式)
- 14-增量流程_课程中拉链表的增量实现操作
- 15-意向主题看板
- 16-总结
1-7 day07_执行教育大数据分析平台

- 01-课前回顾和今日内容
- 02-需求说明及其表结构说明
1-8 day08_执行教育大数据分析平台

- 01-课前回顾和今日内容
- 02-hive的索引_原始索引
- 03-hive的索引_行组索引操作
- 04-hive的索引_bloom filter index索引操作
- 05-报名用户主题看板_需求说明
- 06-报名用户主题看板_需求维度指标总部
- 07-报名用户主题看板_建模分析(ODS和DWD层)
- 08-报名用户主题看板_建模分析(DWD层操作)
- 09-报名用户主题看板_建模分析(DWS层)
- 10-报名用户主题看板_建模实现(ODS和DIM)
- 11-报名用户主题看板_建模实现(DWD,DWM,DWS)
- 12-报名用户主题看板_数据采集操作
- 13-hive中相关的函数说明
- 14-hive中的调优_hive的并行优化
- 15-hive的中调优_小文件合并优化
- 16-hive的调优_矢量化查询和读取零拷贝
- 17-huve的数据清洗的操作_ ODS到DWD层
- 18-hive调优_关联优化器(shuffle优化)
- 19-hive调优_数据倾斜问题解决
- 20-hive调优_合并优化操作(skewjoin中进行合并优化)
- 21-hive的调优_分组的数据倾斜解决方案
- 22-报名用户主题看板_数据处理(DWD_DWM)
- 23-报名用户主题看板_统计实现(DWM_DWS)
1-9 day09_知行教育大数据分析平台

- 01-课前回顾和今日内容
- 02-学生出勤主题看板_需求说明及其分析是否出勤说明
- 03-学生出勤主题看板_如何判断请假和旷课
- 04-学生出勤主题看板_表结构说明以及导入原始数据到MySQL
- 05-学生出勤主题看板_建模分析
- 06-学生出勤主题看板_建模操作_DIM层
- 07-学生出勤主题看板_建模操作_ODS层
- 08-学生出勤主题看板_建模操作_DWM层
- 09-学生出勤主题看板_建模操作_DWS与APP
- 10-学生出勤主题看板_全量统计_数据采集
- 11-学生出勤主题看板_全量统计_学生出勤数据(上午)
- 12-学生出勤主题看板_全量统计_学生出勤数据统计
- 13-上午的内容的回顾
- 14-学生出勤主题看板_全量分析_班级出勤统计
- 15-学生出勤主题看板_全量分析_班级请假人数的计算
- 16-测试_班级出勤记录操作以及班级请假人数统计
- 17-执行班级的请假人数的SQL的实现以及操作
- 18-学生出勤主题看板_全量分析_班级的旷课人数统计
1-10 day10_知行教育大数据分析平台

- 01-课前回顾和今日内容
- 02-学生出勤主题看板_全量流程_生成DWS层的数据
- 03-学生出勤主题看板_全量流程_app层的实现操作
- 04-学生出勤主题看板_全量流程_数据导出以及增量说明
- 05-商业BI的基本结束
- 06-fineBi的安装过程
- 07-使用fineBI准备工作
- 08-使用fineBI实现报表_访问人数看板曲线
- 09-使用fineBI实现报表_对学科和校区展示处理
- 10-使用fineBI实现报表_有效线索量的报表展示
- 11-使用fineBI实现报表_学生出勤情况
- 12-使用fineBI实现报表_导出操作
- 13-git的基本结束
- 14-git的安装操作
- 15-git的基本使用操作
- 16-git的案例_提交一个java项目到本地版本库
- 17-git的远程仓库的基本结束
- 18-码云的ssh的免密配置
- 19-如何将本地的git版本库上传到码云共享仓库中
- 20-如何克隆版本库, 以及如何更新版本库
- 21-分支管理
- 22-如何在IDEA中使用git的操作
阶段四 NoSQL存储
展开第一章 大数据redis

1-1 redis

- 001.NoSQL数据库发展历史简介
- 002.Redis介绍
- 003.Redis安装
- 004.String数据类型操作
- 005.对常用数据结构的操作
- 006.对位图Bitmaps的操作
- 007.HyperLogLog结构操作
- 008.离线架构和实时架构_Redis应用
- 009.Redis Java操作_Redis连接
- 010.Jedis String操作
- 011.Jedis的list_hash_set的操作
- 012.Redis的两种持久化策略
- 013.Redis的事务
- 014.Redis的过期策略和内存淘汰策略
- 015.主从复制架构
- 016.三台服务器搭建Redis主从复制
- 017.哨兵介绍与环境搭建
- 018.Redis的sentinel模式代码开发连接
- 019.Redis集群与分区策略
- 020.Redis集群的特点与集群的规划
- 021.Redis集群搭建
- 022.问题解决&学习技术三点
- 023.主从切换
- 024.JavaAPI操作redis集群
- 025.Redis缓存穿透
- 026.Redis的击穿和雪崩
- 027.常见Redis高频面试题总结
第二章 大数据hbase

2-1 hbase

- 001.Hadoop和HBase
- 002.HBase的应用场景
- 003.HBase对比mysq、对比Hive
- 004.HBase安装
- 005.参考硬件配置
- 006.HBase的数据模型
- 007.HBase_shell操作
- 008.计数器和简单scan扫描操作
- 009.使用RowFilter过滤器来进行过滤
- 010.使用列过滤器和组合过滤器
- 012.HBase计数器
- 013.HBase的管理命令
- 014.Java编程——建表操作
- 015.Java编程——插入数据操作
- 016.Java编程——根据rowkey获取数据
- 017.Java编程——scan + filter过滤操作
- 018.HBase的HMaster高可用
- 019.HBase的架构模型
- 020.昨日回顾_今日目标
- 021.案例介绍+环境搭建
- 022.名称空间
- 023.列蔟设计_版本设计_数据压缩
- 024.避免热点的关键操作
- 025.预分区
- 026.项目初始化
- 027.Java代码开发——随机生成一条数据
- 028.Java代码开发——生成rowkey
- 029.Java代码开发——将随机生成的数据推入到HBase
- 030.Java代码开发——实现getMessage数据接口
- 031.Apache Phoenix介绍
- 032.Phoenix安装
- 033.Phoenix的建表语法
- 034.Phoenix数据操作语法
- 035.Phoenix的分页查询
- 036.Phoenix预分区
- 037.Phoenix创建视图
- 038.Phoenix JDBC开发
- 039.Phoenix4种索引类型
- 040.Phoenix全局索引_覆盖索引
- 041.Phoenix本地索引_函数索引
- 042.关于Phoenix本地索引SALT_BUCKETS不支持问题
- 043.HBase的读流程
- 044.HBase的写数据流程和2.x_in_meory_compaction
- 045.写数据的两阶段合并
- 046.Region的管理
- 047.Master上下线
- 048.Bulkload和Mapper实现
- 049.Bulkload Driver开发和排错技巧
- 050.HBase协处理器
- 051.HBase事务
- 052.常见数据结构理解
- 053.LSM树
- 054.布隆过滤器BloomFilter
- 055.StoreFile结构
第三章 大数据Elasticstack

3-1 ELASTICSEARCH

- 001.ElasticSearach的简介
- 002.使用Lucence建立索引
- 003.使用Lucence查询关键字
- 004.ES的核心概念
- 005.ES集群安装
- 006.ES集群安装head插件_IK分词器
- 007.VSCode开发环境与IK分词器
- 008.创建索引avi
- 009.使用REST方式演示查询、创建文档
- 010.使用ES的scroll分页查询解决深分页的问题
- 011.构建Java ES项目_初始化连接
- 012.JavaAPI-添加职位数据到ES中
- 013.JavaAPI-ES查询_删除_搜索_分页
- 014.JavaAPI-使用scroll分页方式查询
- 015.JavaAPI-高亮查询
- 016.架构原理-节点类型分片和副本
- 017.索引的写入和读取过程
- 018.Elasticsearch准实时索引实现
- 019.ES_SQL简介
- 020.ES_SQL基础的查询
- 021.ES_SQL_JDBC查询
- 022.FileBeat基本应用
- 023.FileBeat的原理架构
- 024.Logstash
- 025.Logstash写ES、Grok插件
- 026.使用Grok解析所有的字段
- 027.上午总结
- 028.解决索引名称日期失效的问题
- 029.使用Logstash配合插件写入数据到ES中
- 030.Kibana介绍
- 031.Kibana索引模式和Discovery
- 032.Discovery组件
- 033.可视化展示
- 034.索引生命周期管理
第四章 大数据kafka

4-1 kafka

- 001.Kafka简介 - 消息队列
- 002.Kafka简介 - 应用背景
- 003.消息队列的两种模型
- 004.Kafka集群搭建
- 005.Kafka生产者、消费者测试、KafkaTool工具avi
- 006.Kafka的基准测试
- 007.JavaAPI - 生产者程序开发
- 008.JavaAPI - 消费者程序开发
- 009.JavaAPI - 生产者使用异步方式生产消息
- 010.Kafka中的重要概念
- 011.消费者组演示
- 012.Kafka幂等性
- 013.Kafka生产者的分区写入策略
- 014.Consumer Group Rebalance机制
- 015.消费者的分区分配策略
- 016.producer的ACK机制
- 017.高级API(High-Level API)、低级API(Low-Level API)
- 018.安装Kafka egale
- 019.leader和follower
- 020.topic中的partition的ar、isr、osr
- 021.controller介绍与leader选举
- 022.leader的负载均衡
- 023.Kafka读写流程
- 024.Kafka的物理存储
- 025.Kafka的消息不丢失
- 026.数据积压
- 027.日志清理
阶段五 Spark技术栈
展开第一章 scala

1-1 Scala基础语法

- 00-[了解]-课程介绍
- 01-[了解]-Scala概述
- 02-[掌握]-Scala运行环境准备
- 03-[掌握]-Scala开发环境准备
- 04-[掌握]-Scala初体验
- 05-[掌握]-Scala基础语法-变量
- 06-[掌握]-Scala基础语法-数据类型
- 07-[掌握]-Scala基础语法-操作符
- 08-[掌握]-Scala基础语法-块表达式
- 09-[掌握]-Scala基础语法-判断
- 10-[掌握]-Scala基础语法-循环
1-2 Scala函数定义

- 11-[掌握]-Scala方法定义和语法细节
- 12-[掌握]-Scala函数定义格式
- 13-[理解]-Scala函数的本质
1-3 Scala集合

- 14-[了解]-Scala集合分类和继承体系
- 14-[掌握]-Scala集合-Array-基本使用
- 15-[掌握]-Scala集合-List-基本使用
- 16-[掌握]-Scala集合-Set-基本使用
- 17-[掌握]-Scala集合-Tuple-基本使用
- 18-[掌握]-Scala集合-Map-基本使用
- 19-[掌握]-Scala集合-Queue和Stack-基本使用
- 20-[掌握]-Scala集合-集合遍历-基本使用
- 21-[总结]-总结和作业
1-4 Scala函数式编程

- 01-[重点]-函数式编程API-遍历-过滤
- 02-[重点]-函数式编程API-排序
- 03-[重点]-函数式编程API-映射
- 04-[重点]-函数式编程API-扁平化映射
- 05-[重点]-函数式编程API-分组
- 06-[重点]-函数式编程API-聚合
- 07-[重点]-函数式编程API-折叠
1-5 Scala综合练习

- 08-[重点]-综合练习-WordCount-1-普通API
- 09-[重点]-综合练习-WordCount-2-函数式API
- 10-[重点]-综合练习-WordCount-3-加载文件数据
- 11-[重点]-综合练习-WordCount-4-加载文件夹数据
1-6 Scala面向对象

- 12-[理解]-面向对象-class定义
- 13-[理解]-面向对象-class-构造器
- 14-[理解]-面向对象-object-作为程序入口
- 15-[理解]-面向对象-object-作为伴生对象
- 16-[理解]-面向对象-object-作为工具类
- 17-[理解]-面向对象-object-提供apply
- 18-[理解]-面向对象-继承-关键字
- 19-[理解]-面向对象-继承-类型判断-转换-获取
- 20-[理解]-面向对象-继承-子父构造
- 21-[理解]-面向对象-继承-抽象类
- 22-[理解]-面向对象-Trait-作为接口
- 23-[理解]-面向对象-Trait-继承class
- 24-[理解]-面向对象-Trait-对象混入trait
- 25-[理解]-面向对象-Trait-trait构造
- 26-[理解]-面向对象-样例类
- 27-[理解]-面向对象-总结
1-7 Scala模式匹配

- 01-[掌握]-Scala-模式匹配
- 02-[掌握]-Scala-模式匹配-其他用法-Option
- 03-[掌握]-Scala-模式匹配-其他用法-偏函数
- 04-[掌握]-Scala-模式匹配-其他用法-unapply
- 05-[掌握]-Scala-模式匹配-其他用法-异常处理
1-8 Scala隐式转换和正则表达式

- 06-[掌握]-Scala-隐式转换
- 07-[掌握]-Scala-正则表达式
1-9 Scala高阶函数

- 08-[掌握]-Scala-高阶函数-函数回顾
- 09-[掌握]-Scala-高阶函数-闭包
- 10-[掌握]-Scala-高阶函数-柯里化
1-10 Scala泛型

- 11-[复习]-Java中的泛型回顾
- 12-[掌握]-Scala泛型-定义泛型类和泛型方法
- 13-[掌握]-Scala泛型-协变-逆变-非变
- 14-[掌握]-Scala泛型-泛型上下界
- 15-[总结]-总结和作业
1-11 Actor

- 01-[理解]-Actor引入
- 02-[掌握]-Actor的创建
- 03-[掌握]-Actor发送接收消息
- 04-[掌握]-Actor循环发送接收消息
- 05-[掌握]-Actor复用线程
- 06-[掌握]-Actor发送接收各种消息
- 07-[重点]-Actor-WordCount需求分析
- 08-[重点]-Actor-WordCount-代码实现
1-12 Akka

- 09-[了解]-Akka并发编程-Akka介绍
- 10-[掌握]-Akka并发编程-模拟简单的RPC通信
- 11-[掌握]-Akka并发编程-模拟Spark通信-需求分析和准备工作
- 12-[理解]-Akka并发编程-模拟Spark通信-Master代码实现
- 13-[理解]-Akka并发编程-模拟Spark通信-Worker代码实现
- 14-[总结]-总结和作业
第二章 spark

2-1 spark简介

- 1-Spark课程内容介绍
- 2-大数据架构理解
- 3-Spark的引入
- 4-Spark的引入
- 5-Spark介绍
- 6-Spark相关知识的补充
2-2 spark环境部署

- 7-Spark的运行模式
- 8-Spark的local模式的详解
- 9-Spark的local模式读取文件演示
- 10-Spark的Wordcount的实战
- 11-Spark的WebUi
- 12-补充
- 13-Spark的Spark-submit提交任务
- 14-Spark的蒙特卡洛方法求解Pi
- 15-Spark的Standalone的模式详解
- 16-Spark的Standalone模式的搭建过程
- 17-Spark的Standalone提交任务
- 18-Spark的StandAloneHA的模式
- 19-基于IDEA开发的步骤
- 20-基于IDEA打包运行代码
- 21-基于Java的代码实战
- 22-总结复习
- 01-回顾1
2-3 SparkOnYarn介绍

- 02-回顾2-SparkBase
- 03-回顾-Spark的Wordcount回顾
- 04-读取HDFS的文件操作
- 05-今日重点知识
- 06-SparkOnYarn的配置
- 07-引入Spark的两种deploy方式
- 08-Spark的client模式
- 09-Spark的cluster模式
- 10-Spark两种模式的区别和联系
- 11-Spark的yarn的两种运行模式
- 12-Spark的两种模式的原理详解
- 13-Saprk提交的参数
- 14-Spark的main函数执行过程
- 15-Spark的TopK的代码思路及编写
2-4 Spark_RDD

- 16-RDD的简介
- 17-RDD的五大属性简介
- 18-Spark的五大属性详解
- 19-Spark的RDD的补充
- 20-Spark的makerdd和paralleise的区别
- 21-Spark的textFile的默认的分区
- 22-RDD的算子分类
- 23-RDD的单value类型的算子
- 24-RDD的双值类型的操作
- 25-RDD的重分区
- 26-总结
- 01-回顾1-SparkBase
- 02-回顾SparkCore
- 03-textFile的分区设置补充
- 04-hdfs和rdd的分区对应关系
- 05-RDD的key-value类型算子1
- 06-RDD的key-value类型算子操作2
- 07-RDD的key-value类型算子3
- 08-RDD的Action的操作
- 09-RDD的关键算子的操作1
- 10-RDD的关键算子操作2
- 11-RDD的关键算子的补充
2-5 综合案例

- 12-Spark的案例实战PVUVTopK
- 13-Spark的IP地址查询案例分析
- 14-Spark的IP地址查询分析的广播变量
- 15-Spark的IP地址查询代码实战
- 16-Sougou分词测试
- 17-Sougou的热点分析
- 18-总结
2-6 缓存及容错机制

- 01-SparkCore的回顾
- 02-Spark的Yarn的补充
- 03-Spark的依赖关系、
- 04-DAG理解
- 05-RDD的缓存
- 06-RDD的检查点机制
2-7 累加器和广播变量

- 07-RDD的累加器
- 08-RDD的广播变量
2-8 spark原理解析

- 09-Spark的执行流程简介
- 10-Spark的执行流程细节1
- 11-Spark的完整流程分析
- 12-Spark的完整调度的源码分析(了解)
- 13-Spark的容错机制
- 14-Sark的Shuffle
- 15-Spark的Shuffle的源码解读
- 16-SparkCore的读写MySQL
- 17-Spark的内核的调度总复习
- 18-Spark的参数设置
- 19-总结
2-9 Spark_SQL简介

- 01-回顾
- 02-今日重难点知识
- 03-Spark的内存模型
- 04-SparkSQL的引入
- 05-SparkSQL的演变之路
- 06-SparkSQL的数据结构的变化
- 07-SparksQL的数据结构
2-10 DataFrame

- 08-Spark的DataFrame的两种方式
- 09-SparkSQL的DF的两种查询方式
- 10-SparkSQL的花式查询
- 11-SparkSQL的动态编程
- 12-SparkSQL的其他方法创建DF
2-11 DataSet

- 13-Spark的DataSet的操作案例及数据类型转换
- 14-Spark的两种wordcount
- 15-Spark的全局的Session演示
2-12 spark和hive整合

- 16-Spark和Hive的整合
- 17-SparkSQL案例分析步骤1
- 18-案例分析
- 19-扩展:数据的读取
- 20-Spark和MySQL整合及其他数据写入
- 21-UDF函数
- 22-SparkSQL开窗 函数
- 23-复习
- 01-SparkSQL的复习
- 02-问题处理及今日重点
- 03-SparkSQL整合HIve
- 04-SparkSQL和Hive的整合
- 05-SparkSQL的分区个数参数补充
- 06-SparkUDAF
- 07-SparkSQL的执行引擎
- 08-SparkSQL的执行总结
- 09-SparkSQL的其他客户端访问
2-13 SparkStreaming简介

- 10-SparkStreaming应用场景
- 11-SparkStreaming计算方式
- 12-SparkStreaming的数据结构引入
- 13-SparkStreaming的原理的初步
- 14-SparkStreaming的第一个程序
2-14 SparkStreaming处理流程

- 15-SparkStreaming的两种算子
- 16-SparkStreaming的transform的方法详解
- 17-SparkStreaming的有状态的计算案例实战
- 18-SparkStreaming的状态监控查看
- 19-SparkStreaming原理
- 20-SparkStreaming缓存和检查点补充
- 21-总结
- 01-SparkSQL回顾
- 02-SparkStreaming的回顾
- 03-SparkStreaming的双流Join
- 04-SparkStreaming的mapState
- 05-SparkStreaming的窗口的操作
- 06-SparkStreamiing窗口操作编程
- 07-SparkStreaming的windows函数操作
- 08-SparkSTreming的百度热词统计
- 09-SparkStreaming和SparkSQL的有状态的计算
2-15 SparkStreaming对接数据源

- 10-SparkStreaming处理HDFS文件系统的 数据
- 11-SparkStreaming队列数据源
- 12-SparkStreaming自定义数据源
- 13-Kafka的复习
- 14-Kafka的0.8和0.10版本的区别和联系
- 15-SparkStreaming整合kafka的前序步骤
- 16-SparkStreaming的关键步骤1
- 17-SparkStreaming整合Kafka的完成整合
- 18-SparkStreamin整合Kafka得到offset并提交
- 19-代码重构
- 20-CheckPoint驱动器容错
- 21-MySQL存储偏移量
- 22-总结
- 01-回顾
2-16 优化及原理

- 02-SparkStreaming注意的问题
- 03-SparkStreaming的反压机制了解
2-17 structuredStreaming简介

- 04-结构化流的引入
- 05-StructuredStreaming介绍
2-18 structuredStreaming应用

- 06-StructuredStreaming应用Scoeket
- 07-StructuredStreaming结构化流的数据源文本数据源
- 08-StructuredStreaming结构化流数据源Rate数据源
- 09-数据写入CSV的方法简介
- 10-结构化流的整体的三大步骤的复习
- 11-StructuredStreaming整合
- 12-结构化流的原理补充
- 13-StructedStreaming处理ETL数据
- 14-SQL实现方式补充
- 15-物联网设备的两种方法的实现
- 16-Json的补充
- 17-structuredStreaming写入Mysql方法1
- 18-foreachBatch写入MySQL
- 19-数据的去重操作
- 20-连续时间的处理模式了解
- 21-水位线的技术详解
- 22-延迟时间的处理方法
- 23-复习
阶段六 项目二千面电商用户画像项目
展开第一章 大数据-千面电商用户画像项目

1-1 profile_day01

- 01_复习:Spark 框架综合回顾概述 免费试学
- 02_企业级360°全方位用户画像:项目课程安排 免费试学
- 03_企业级360°全方位用户画像:数仓、画像及推荐 免费试学
- 04_企业级360°全方位用户画像:引入神策用户画像和初步认知 免费试学
- 05_企业级360°全方位用户画像:用户画像应用场景 免费试学
- 06_企业级360°全方位用户画像:标签存储(HBase和ES) 免费试学
- 07_企业级360°全方位用户画像:用户标注(本体论) 免费试学
- 08_企业级360°全方位用户画像:项目功能概述 免费试学
- 09_企业级360°全方位用户画像:导入虚拟机 免费试学
- 10_企业级360°全方位用户画像:项目工程导入和启动 免费试学
- 11_企业级360°全方位用户画像:功能模块 免费试学
- 12_企业级360°全方位用户画像:技术架构(离线) 免费试学
- 13_企业级360°全方位用户画像:标签功能架构图 免费试学
- 14_企业级360°全方位用户画像:标签梳理(分类) 免费试学
- 15_标签系统WEB 平台:主分类标签(123级标签) 免费试学
- 16_标签系统WEB 平台:业务标签(4级标签) 免费试学
- 17_标签系统WEB 平台:新建属性标签 免费试学
- 18_标签系统WEB 平台:其他功能说明 免费试学
- 19_项目环境搭建:环境概述说明 免费试学
- 20_项目环境搭建:框架回顾(一) 免费试学
- 21_项目环境搭建:框架回顾(二) 免费试学
- 22_项目工程搭建:创建Project和Module 免费试学
- 23_用户画像业务数据导入:ETL总述 免费试学
- 24_用户画像业务数据导入:数据调研和数据导入方案 免费试学
- 25_用户画像业务数据导入:Hive创建业务表 免费试学
- 26_用户画像业务数据导入:数据导入Hive表 免费试学
1-2 profile_day02

- 01_上次课程内容回顾
- 02_今日课程内容提纲
- 03_用户画像业务数据导入:数据导入方案
- 04_用户画像业务数据导入:SQOOP导入HBase表
- 05_用户画像业务数据导入:HBase ImportTvs导入logs数据
- 06_用户画像业务数据导入:数据导入方式Put和BulkLoad
- 07_用户画像业务数据导入:HBase ImportTvs中BulkLoad
- 08_用户画像业务数据导入:BulkLoad加载批量数据(原理)
- 09_用户画像业务数据导入:BulkLoad加载批量数据(MR)
- 10_用户画像业务数据导入:BulkLoad加载批量数据(Spark)
- 11_用户画像标签数据存储
- 12_Oozie调度Spark2:回顾Oozie及工作流组成
- 13_Oozie调度Spark2:使用Hue创建工作流和调度器调度Spark2
- 14_Oozie Java Client API使用说明
- 15_Oozie Java Client API运行Workflow
- 16_Oozie Java Client API运行Coordinator
- 17_标签存储与计算:标签管理
- 18_标签存储与计算:标签存储设计
- 19_标签存储与计算:标签计算引擎
- 20_用户画像模块:模块划分及概述
- 21_用户画像模块:标签调度(导入)
- 22_用户画像模块:标签调度(测试及安装Install)
- 23_用户画像模块:标签管理平台(导入及测试)
- 24_用户画像模块:标签模型测试(新建标签和调度运行)
- 25_用户画像模块:标签模型计算(概述及流程
- 26_用户画像模块:标签模型计算(Module创建及设置)
- 27_标签开发流程:提交流程(标签规则)
- 28_标签开发流程:执行流程(4步骤)
- 29_Spark 交互HBase:读写表数据
1-3 profile_day03

- 01_额外:项目学习建议
- 02_上次课程内容回顾:业务数据迁移ETL
- 03_上次课程内容回顾:标签模型应用调度
- 04_上课课程内容回顾:项目模块及标签模型流程
- 05_今日课程内容提纲
- 06_标签模型开发【用户性别标签】:整体概述说明
- 07_标签模型开发【用户性别标签】:新建标签(4级和5级)
- 08_标签模型开发【用户性别标签】:编写模型主类(SparkSession构建)
- 09_工具类HBaseTools:方法声明定义
- 10_工具类HBaseTools:read加载数据(一)
- 11_工具类HBaseTools:read加载数据(二)
- 12_工具类HBaseTools:read加载数据(三)
- 13_工具类HBaseTools:write保存数据(一)
- 14_工具类HBaseTools:write保存数据(二)
- 15_标签模型开发【用户性别标签】:标签数据读取
- 16_标签模型开发【用户性别标签】:业务标签规则
- 17_标签模型开发【用户性别标签】:HBase数据源Meta和读取业务数据
- 18_标签模型开发【用户性别标签】:构建标签
- 19_标签模型开发【用户性别标签】:保存画像标签数据
- 20_标签模型开发【用户性别标签】:回顾标签模型开发步骤
- 21_标签模型开发【规则匹配类型标签开发概述】
- 22_标签模型开发【用户职业标签】:确立标签
- 23_标签模型开发【用户职业标签】:新建标签
- 24_标签模型开发【用户职业标签】:构建SparkSession(集成Hive)
- 25_标签模型开发【用户职业标签】:采用UDF函数打标签
- 26_标签模型开发【用户职业标签】:计算标签方式
- 27_标签模型开发【用户职业标签】:规则匹配类型标签工具类
- 28_标签模型开发【标签模板】:标签模型代码重构概述
- 29_标签模型开发【标签模板】:模板方法模式(Template)
- 30_标签模型开发【标签模板】:标签基类BasicModel结构
- 31_标签模型开发【标签模板】:标签基类BasicModel具体代码
- 32_标签模型开发【政治面貌标签】:需求分析及新建标签
- 33_标签模型开发【政治面貌标签】:编码实现和测试
- 34_标签模型开发【标签模板】:属性配置文件及解析
- 35_标签模型开发【标签模板】:创建SparkSession实例思路
- 36_标签模型开发【标签模板】:Typesafe获取某属性文件值
- 37_标签模型开发【标签模板】:工具类SparkUitls
- 38_标签模型开发【标签模板】:重构标签基类AbstractModel
- 39_标签模型开发【标签模板】:测试类(职业标签)
1-4 profile_day04

- 01_上次课程内容回顾:标签模型开发四步骤
- 02上次课程内容回顾:HBaseTools工具类
- 03_次课程内容回顾:规则匹配类型标签业务实现
- 04_上次课程内容回顾:标签模型基类
- 05_标签模型开发【用户国籍标签】:新建标签
- 06_标签模型开发【用户国籍标签】:模型开发测试
- 07_标签开发:【总述】标签模型开发相关数据
- 08_今日课程内容提纲
- 09_自定义外部数据源HBase:引入ExternalDataSource
- 10_自定义外部数据源HBase:External DataSource概述
- 11_自定义外部数据源HBase:BaseRelation接口
- 12_自定义外部数据源HBase:RelationProvider接口
- 13_自定义外部数据源HBase:定义类HBaseRelation和DefaultSource
- 14_自定义外部数据源HBase:实现加载load数据(一)
- 15_自定义外部数据源HBase:实现加载load数据(二)
- 16_自定义外部数据源HBase:实现保存save数据
- 17_自定义外部数据源HBase:注册数据源
- 18_自定义外部数据源HBase:修改标签基类AbstractModel
- 19_自定义外部数据源HBase:Spark与HBase交互三种方式封装
- 20_标签开发:统计型标签概述
- 21_标签模型开发【用户年龄段标签】:需求分析及新建标签
- 22_标签模型开发【用户年龄段标签】:标签实现思路分析
- 23_标签模型开发【用户年龄段标签】:计算标签(一)
- 24_标签模型开发【用户年龄段标签】:计算标签(二)
- 25_标签模型开发【消费周期标签】:需求分析
- 26_标签模型开发【消费周期标签】:新建标签
- 27_标签模型开发:导入业务订单数据
- 28_标签模型开发【消费周期标签】:提取属性标签规则
- 29_标签模型开发【消费周期标签】:标签实现思路分析和日期函数使用
- 30_标签模型开发【消费周期标签】:计算标签
- 31_标签模型开发【支付方式标签】:业务字段调研
- 32_标签模型开发【支付方式标签】:新建标签
- 33_标签模型开发【支付方式标签】:开窗函数使用(SQL和DSL)
- 34_标签模型开发【支付方式标签】:计算标签及测试
1-5 profile_day05

- 01_上次课程内容回顾:自定义外部数据源HBase
- 02_回顾用户画像:标签系统及模型开发步骤
- 03_回顾用户画像:标签模型开发业务逻辑流程
- 04_回顾用户画像:规则匹配类型标签和统计类型标签核心思路
- 05_回顾用户画像:职业标签模型快速开发
- 06_标签模型开发【订单数据相关】:其他标签(订单金额)
- 07_标签模型开发【订单数据相关】:其他标签(订单状态)
- 08_今日课程内容提纲
- 09_自定义外部数据源HBase:过滤条件需求引入
- 10_自定义外部数据源HBase:HBase Filter使用
- 11_自定义外部数据源HBase:字段值过滤【思路分析】及【业务代码】
- 12_自定义外部数据源HBase:字段值过滤【Condition类封装】
- 13_自定义外部数据源HBase:字段值过滤【测试功能】
- 14_自定义外部数据源HBase:业务标签规则rule传递WhereCondition思路
- 15_自定义外部数据源HBase:日期时间工具类DateUtils
- 16_自定义外部数据源HBase:解析WhereCondition动态生成日期范围
- 17_自定义外部数据源HBase:传递WhereCondition测试功能(一)
- 18_自定义外部数据源HBase:传递WhereCondition测试功能(二)
- 19_自定义外部数据源HBase:优化标签模型基类
- 20_推荐系统入门:推荐引入和协同过滤算法初识
- 21_推荐系统入门:推荐算法分类
- 22_推荐系统入门:协同过滤算法核心
- 23_推荐系统入门:ALS算法思想
- 24_推荐系统入门:矩阵因子模型预测和推荐
- 25_推荐系统入门:创建Maven Module
- 26_推荐系统入门:基于RDD 算法API讲解
- 27_推荐系统入门:构建电影推荐模型(一)
- 28_推荐系统入门:构建电影推荐模型(二).wmv
1-6 profile_day06

- 01_上次课程内容回顾:自定义外部数据源HBase(加强版)
- 02_上次课程内容回顾:推荐算法ALS
- 03_今日课程内容提纲
- 04_机器学习入门:AI发展浪潮和机器学习核心三要素
- 05_机器学习入门:ML定义及数据特征features
- 06_机器学习入门:ML算法分类
- 07_机器学习入门:机器学习算法库SK-Learn和SparkMLlib
- 08_机器学习入门:相关术语概念
- 09_机器学习入门:鸢尾花数据【特征提取】
- 10_机器学习入门:鸢尾花数据【类别标签label索引化】
- 11_机器学习入门:鸢尾花数据【特征features标准化】
- 12_机器学习入门:鸢尾花数据构建逻辑回归分类模型
- 13_机器学习入门:线性回归算法概述
- 14_机器学习入门:线性回归算法实现之最小二乘法
- 15_机器学习入门:线性回归算法实现之梯度下降法
- 16_机器学习入门:波士顿房价预测模型(一)
- 17_机器学习入门:波士顿房价预测模型(二)
- 18_机器学习入门:逻辑回归分类算法概述(Sigmoid)函数
1-7 profile_day07

- 01_上次课程内容回顾:机器学习基础(概念)
- 02_上次课程内容回顾:线性回归和逻辑回归
- 03_实战案例【泰塔尼克号生存预测】:案例背景及数据调研
- 04_实战案例【泰塔尼克号生存预测】:加载数据(CSV格式)
- 05_实战案例【泰塔尼克号生存预测】:特征工程
- 06_实战案例【泰塔尼克号生存预测】:LR分类模型及预测评估
- 07_今日课程内容提纲
- 08_客户价值模型RFM:RFM概念.
- 09__客户价值模型RFM:RFM模型应用
- 10_客户价值模型RFM:标签管理平台新建标签
- 11_客户价值模型RFM:标签模型开发思路分析
- 12_客户价值模型RFM:依据订单数据计算RFM
- 13_客户价值模型RFM:依据规则进行RFM Score
- 14_客户价值模型RFM:牧师与村民模型
- 15_客户价值模型RFM:KMeans算法核心要点
- 16_客户价值模型RFM:KMeans聚类鸢尾花数据
- 17_客户价值模型RFM:聚类评估指标SSE
- 18_客户价值模型RFM:KMeans++算法
- 19_客户价值模型RFM:KMeansII算法
- 20_客户价值模型RFM:KMeans训练模型
- 21_客户价值模型RFM:计算标签(一)
- 22_客户价值模型RFM:计算标签(二)
- 23_客户价值模型RFM:类簇索引标签(工具类)
- 24_客户价值模型RFM:KMeans算法2个问题
- 25_客户价值模型RFM:KMeans算法肘部法则
- 26_客户价值模型RFM:KMeans算法轮廓系数
- 27_客户价值模型RFM:鸢尾花数据集演示肘部法确定K
1-8 profile_day08

- 01_上次课程内容回顾:聚类KMeans算法
- 02_上次课程内容回顾:客户价值模型RFM
- 03_今日课程内容提纲
- 04_客户价值模型RFM:算法模型构建流程步骤
- 05_客户价值模型RFM:模型调优概述
- 06_客户价值模型RFM:模型调优【特征归一化】
- 07_客户价值模型RFM:模型调优【调整超参数】
- 08_客户价值模型RFM:保存加载模型(一)
- 09_客户价值模型RFM:保存加载模型(二)
- 10_客户价值模型RFM:总述开发算法模型流程
- 11_用户活跃度模型RFE:用户活跃度及用户生命周期
- 12_用户活跃度模型RFE:RFE模型概述及实践应用
- 13_用户活跃度模型RFE:新建标签及标签模型类
- 14_用户活跃度模型RFE:加载访问日志数据计算RFE和打分
- 15_用户活跃度模型RFE:组合特征和训练模型
- 16_用户活跃度模型RFE:标签计算
- 17_用户活跃度模型RFE:KMeans算法模型标签计算
- 18_ID-Mapping:标识符引入及认识标识符
- 19_ID-Mapping:统一用户识别(构建连通图)
- 20_价格敏感度模型PSM:PSM概念和功能
- 21_价格敏感度模型PSM:PSM计算方式
- 22_价格敏感度模型PSM:使用KMeans对单值特征聚类
- 23_价格敏感度模型PSM:计算PSM值业务逻辑
- 24_价格敏感度模型PSM:计算PSM值业务逻辑
- 25_价格敏感度模型PSM:计算PSM值代码实现
- 26_价格敏感度模型PSM:训练KMeans聚类模型和打标签
- 27_价格敏感度模型PSM:算法中距离度量方法
1-9 profile_day09

- 01_上次课程内容回顾:算法模型调优
- 02_上次课程内容回顾:RFE和PSM标签
- 03_今日课程内容提纲
- 04_用户购物性别模型USG:USG模型概念理解
- 05_用户购物性别模型USG:USG模型构建过程(一)
- 06_用户购物性别模型USG:USG模型构建过程(二)
- 07_用户购物性别模型USG:决策树是什么
- 08_用户购物性别模型USG:决策树构造及优缺点
- 09_用户购物性别模型USG:决策树算法实现(ID3、C4.5和CART)
- 10_用户购物性别模型USG:决策树分类官方案例(一)
- 11_用户购物性别模型USG:决策树分类官方案例(二)
- 12_用户购物性别模型USG:新建标签
- 13_用户购物性别模型USG:涉及订单表和维度表分析
- 14_用户购物性别模型USG:加载订单表和维度表数据
- 15_用户购物性别模型USG:构建维度表数据为WHEN条件语句
- 16_用户购物性别模型USG:标注数据和打标签
- 17_用户购物性别模型USG:训练算法模型并预测(一)
- 18_用户购物性别模型USG:训练算法模型并预测(二)
- 19_用户购物性别模型USG:Pipeline管道模型
- 20_用户购物性别模型USG:Pipeline 官方案例
- 21_用户购物性别模型USG:训练Pipeline模型
- 22_用户购物性别模型USG:训练验证分割和交叉验证区别
- 23_用户购物性别模型USG:模型超参数设置ParamGrid
- 24_用户购物性别模型USG:TrainValidationSplit模型调优
- 25_用户购物性别模型USG:CrossValidator模型调优
1-10 profile_day10

- 01_上次课程内容回顾:USG模型和决策树算法
- 02_上次课程内容回顾:管道Pipeline和模型调优
- 03_集成学习算法:Ensemble Algorithm概述
- 04_集成学习算法:Bagging算法和Boosting算法
- 05_集成学习算法:Bagging算法及随机森林RF
- 06_集成学习算法:Boosting 算法和梯度提升树GBT
- 07_今日课程内容提纲
- 08_业务数据多种数据源:多数据源概述
- 09_业务数据多种数据源:重构加载业务数据代码
- 10_业务数据多种数据源:加载MySQL表(MySQLMeta)
- 11_业务数据多种数据源:加载Hive表(HiveMeta)
- 12_业务数据多种数据源:加载HDFS文件(HDFSMeta)
- 13_用户购物偏好模型BP:Bp模型概述
- 14_用户购物偏好模型BP:推荐系统概述
- 15_用户购物偏好模型BP:推荐算法ALS
- 16_基于DataFrame API构建推荐模型:加载数据及数据转换、训练模型
- 17_基于DataFrame API构建推荐模型:模型推荐、评估和保存加载
- 18_用户购物偏好模型BP:如何获取用户对物品评分(思路分析)
- 19_用户购物偏好模型BP:新建标签(用户推荐商品)
- 20_用户购物偏好模型BP:标签模型实现思路步骤
- 21_用户购物偏好模型BP:提取用户对物品评分(点击物品次数)
- 22_用户购物偏好模型BP:构建ALS算法模型、评估和推荐
- 23_用户购物偏好模型BP:保存推荐商品至HBase表
- 24_总述全方位用户画像(一)
- 25_总述全方位用户画像(二)
阶段七 Flink技术栈
展开第一章 flink

1-1 flink安装部署及入门案例

- 01.【Flink基础-day01】Flink课程介绍和课程特点
- 02.【Flink基础-day01】【了解】第一章:课程说明
- 03.【Flink基础-day01】【了解】第一章:流计算简介
- 04.【Flink基础-day01】【了解】第一章:Flink简介
- 05.【Flink基础-day01】【掌握】第一章:Flink的重要角色
- 06.【Flink基础-day01】【掌握】第一章:Flink编程模型及libraries支持
- 07.【Flink基础-day01】【了解】第一章:伪分布环境部署
- 08.【Flink基础-day01】【了解】第一章:完全分布式集群环境
- 09.【Flink基础-day01】【了解】第一章:完全分布式之高可用HA集群环境
- 10.【Flink基础-day01】【掌握】第一章:yarn集群环境说明
- 11.【Flink基础-day01】【掌握】第一章:flink on yarn部署方式演示
- 12.【Flink基础-day01】【掌握】第一章:flink实现批处理的单词计数
- 13.【Flink基础-day01】【掌握】第一章:flink实现流处理的单词计数
- 14.【Flink基础-day01】【掌握】第一章:flinkLambda实现流处理的单词计数
- 15.【Flink基础-day01】【掌握】第一章:使用批流一体API编程模型实现
- 16.【Flink基础-day01】【掌握】第一章:Flink程序递交部署
- 17.【Flink基础-day01】知识点总结
1-2 flink原理初探

- 01.【Flink基础-day02】知识点回顾
- 02.【Flink基础-day02】【掌握】第一章:Flink运行时组件
- 03.【Flink基础-day02】【掌握】第一章:Flink运行时架构
1-3 flink流式处理

- 04.【Flink基础-day02】【掌握】第二章:Flink流处理相关的概念
- 05.【Flink基础-day02】【掌握】第二章:基于本地集合的source
- 06.【Flink基础-day02】【掌握】第二章:基于文件的source
- 07.【Flink基础-day02】【掌握】第二章:基于Socket的Source
- 08.【Flink基础-day02】【掌握】第二章:基于随机生成DataSource
- 09.【Flink基础-day02】【掌握】第二章:基于mysql的source操作
- 10.【Flink基础-day02】【掌握】第二章:transformation操作-1
- 11.【Flink基础-day02】【掌握】第二章:transformation操作-2
- 12.【Flink基础-day02】【掌握】第二章:物理分区
- 13.【Flink基础-day02】【掌握】第二章:数据输出Data Sinks
- 14.【Flink基础-day02】【掌握】知识点总结
- 01.【Flink基础-day03】知识点回顾
- 02.【Flink基础-day03】【掌握】第二章:JDBCSink使用
- 03.【Flink基础-day03】【掌握】第二章:kafka消费者使用
- 04.【Flink基础-day03】【掌握】第二章:kafka生产者使用
- 05.【Flink基础-day03】【掌握】第二章:redis连接器使用
- 06.【Flink基础-day03】【扩展】第二章:其他批处理的API
1-4 四大基石_window

- 07.【Flink基础-day03】【了解】第三章:四大基石的介绍
- 08.【Flink基础-day03】【掌握】第三章:window的介绍及使用和窗口范围的划分
- 09.【Flink基础-day03】【了解】第三章:window的API操作
- 10.【Flink基础-day03】【掌握】第三章:Time Window 案例
- 11.【Flink基础-day03】【掌握】第三章:Count-Window 案例和会话窗口(Session Windows) 概念和案例
- 12.【Flink基础-day03】【掌握】第三章:窗口的增量聚合函数使用
- 13.【Flink基础-day03】【掌握】第三章:窗口的全量聚合函数使用
- 14.【Flink基础-day03】知识点总结
1-5 四大基石_time

- 01.【Flink基础-day04】知识点回顾
- 02.【Flink基础-day04】【掌握】第三章:水印的介绍
- 03.【Flink基础-day04】【掌握】第三章:水印的生成策略
- 04.【Flink基础-day04】【掌握】第三章:单调递增水印的演示(数据必须有序)
- 05.【Flink基础-day04】【掌握】第三章:固定延迟水印的演示(数据必须有序)
- 06.【Flink基础-day04】【了解】第三章:自定义水印策略开发
- 07.【Flink基础-day04】【掌握】第三章:多并行度下的水印操作
- 08.【Flink基础-day04】【掌握】第三章:flink整合kafka实现水印操作
- 09.【Flink基础-day04】【掌握】第三章:水印的延迟处理机制
1-6 四大基石_state

- 10.【Flink基础-day04】【掌握】第三章:状态的介绍
- 11.【Flink基础-day04】【掌握】第三章:状态的API介绍
- 12.【Flink基础-day04】【掌握】第三章:KeyedState的使用案例
- 13.【Flink基础-day04】【掌握】第三章:OperatorState的使用案例
- 14.【Flink基础-day04】知识点总结
- 01.【Flink基础-day05】知识点回顾
- 02.【Flink基础-day05】【掌握】State的TTL机制
- 03.【Flink基础-day05】【扩展】QueryableState的使用
- 04.【Flink基础-day05】【掌握】BroadcastState的使用
1-7 四大基石_checkpoint

- 05.【Flink基础-day05】【掌握】checkpoint的介绍
- 06.【Flink基础-day05】【掌握】checkpoint的使用
- 07.【Flink基础-day05】【掌握】checkpoint的重启策略
- 08.【Flink基础-day05】【掌握】savepoint的使用
- 09.【Flink基础-day05】【扩展】flink的任务链
- 10.【Flink基础-day05】知识点总结
1-8 语义一致性

- 01.【Flink基础-day06】知识点回顾
- 02.【Flink基础-day06】flink一致性语义的介绍
- 03.【Flink基础-day06】flink基于kafka实现一次性语义的代码分析
- 04.【Flink基础-day06】flink基于kafka代码
- 05.【Flink基础-day06】flink基于mysql代码
- 06.【Flink基础-day06】flink实现processfunction
- 07.【Flink基础-day06】flink实现具有增量聚合的processwindowfunction
- 08.【Flink基础-day06】flink的双流join介绍
- 09.【Flink基础-day06】flink的双流join代码演示
- 10.【Flink基础-day06】flink的数据类型和自定义序列化及反序列化
- 11.【Flink基础-day06】知识点总结
1-9 flinkSQL_1

- 01.【FlinkSQL-day07】整体概述
- 02.【FlinkSQL-day07】环境初始化和程序结构分析
- 03.【FlinkSQL-day07】将DataStream转换成Table对象演示
- 04.【FlinkSQL-day07】将查询结果写入到文件中
- 05.【FlinkSQL-day07】将查询结果写入到kafka中
- 06.【FlinkSQL-day07】将查询结果写入到mysql中
- 07.【FlinkSQL-day07】flinksql整合hive
- 08.【FlinkSQL-day07】flinksqlclient递交作业的步骤分析
- 09.【FlinkSQL-day07】flinksqlapi使用hivecatalog
- 10.【FlinkSQL-day07】flinksqlclient消费kafka数据实时写入到hive中
- 11.【FlinkSQL-day07】动态表的概念理解
- 12.【FlinkSQL-day07】flinksql使用处理时间
- 13.【FlinkSQL-day07】知识点总结
1-10 flinkSQL_2

- 01.【FlinkSQL-day08】知识点回顾
- 02.【FlinkSQL-day08】flinksql使用事件时间
- 03.【FlinkSQL-day08】flinksql使用时区-1
- 04.【FlinkSQL-day08】flinksql使用时区-2
- 05.【FlinkSQL-day08】flinksql理解时态表的概念
- 06.【FlinkSQL-day08】flinksql时态表函数在批计算场景使用
- 07.【FlinkSQL-day08】flinksql时态表函数在流计算场景代码实现
- 08.【FlinkSQL-day08】flinksql时态表join操作
- 09.【FlinkSQL-day08】flinksql使用窗口的介绍
- 10.【FlinkSQL-day08】flinksql使用滚动窗口的示例
- 11.【FlinkSQL-day08】flinksql使用其他窗口的示例
- 12.【FlinkSQL-day08】知识点总结
1-11 flinkSQL_3

- 01.【FlinkSQL-day09】知识点回顾
- 02.【FlinkSQL-day09】flinksql的多维数据分析
- 03.【FlinkSQL-day09】flinksql的多维数据分析-topN
- 04.【FlinkSQL-day09】flinksql的over window
- 05.【FlinkSQL-day09】flinksql的tableapi操作window
- 06.【FlinkSQL-day09】flinksql的函数介绍和标量函数使用
- 07.【FlinkSQL-day09】flinksql的表函数实现
- 08.【FlinkSQL-day09】flinksql的其他函数实现
- 09.【FlinkSQL-day09】flinksql的外部连接器(扩展)
- 10.【FlinkSQL-day09】flinksql的优化点概述
阶段八 项目三星途车联网
展开第一章 大数据-星途车联网

1-1 day01

- 01.【星途车联网】day01-项目的内容介绍及章节规划
- 02.【星途车联网】day01-车联网行业介绍
- 03.【星途车联网】day01-车联网项目探索和发现
- 04.【星途车联网】day01-项目整体架构
- 05.【星途车联网】day01-项目技术架构及逻辑架构图
- 06.【星途车联网】day01-数据流转过程分析
- 07.【星途车联网】day01-服务器及数据量的计算和数据格式分析
- 08.【星途车联网】day01-项目环境的搭建
- 09.【星途车联网】day01-解析简单的json字符串
- 10.【星途车联网】day01-解析复杂的json字符串
- 11.【星途车联网】day01-解析复杂的json字符串优化后的写法
- 12.【星途车联网】day01-知识点总结
1-2 day02

- 01.【星途车联网】day02-知识点回顾
- 02.【星途车联网】day02-分析数据采集上报过程以及编写kafka的生产者和消费者代码
- 03.【星途车联网】day02-流式处理模块的初始化
- 04.【星途车联网】day02-梳理实时ETL开发的流程步骤
- 05.【星途车联网】day02-编写时间处理的工具类
- 06.【星途车联网】day02-工具类的编写
- 07.【星途车联网】day02-json解析工具类的编写
- 08.【星途车联网】day02-flink流式处理程序消费kafka数据测试
- 09.【星途车联网】day02-对流式计算程序的任务进行封装公共类
- 10.【星途车联网】day02-etl任务的设计及反压的原理介绍
- 11.【星途车联网】day02-知识点总结
1-3 day03

- 01.【星途车联网】day03-知识点回顾
- 02.【星途车联网】day03-消费kafka数据过滤出来正常数据和异常数据
- 03.【星途车联网】day03-StreamingFileSink的介绍
- 04.【星途车联网】day03-StreamingFileSink的使用案例
- 05.【星途车联网】day03-使用StreamingFileSink的将正常和异常数据分别写入到hdfs中
- 06.【星途车联网】day03-hive创建分区映射hdfs数据所在目录加载到hive表中
- 07.【星途车联网】day03-回顾rowkey的设计原则和设计方法
- 08.【星途车联网】day03-将数据写入到hbase的流程分析
- 09.【星途车联网】day03-将数据实时的写入到hbase中
- 10.【星途车联网】day03-buffredmuator写入优化
- 11.【星途车联网】day03-使用优化后的buffredmuator方案将数据实时写入到hbase表中
- 12.【星途车联网】day03-buffredmuator源码分析
- 13.【星途车联网】day03-知识点总结
1-4 day04

- 01.【星途车联网】day04-知识点回顾
- 02.【星途车联网】day04-回顾hbase的预写日志
- 03.【星途车联网】day04-回顾hbase的编码和压缩
- 04.【星途车联网】day04-Phoenix的介绍
- 05.【星途车联网】day04-Phoenix的常用操作
- 06.【星途车联网】day04-hbase的二级索引介绍
- 07.【星途车联网】day04-车辆明细表数据的实时写入
- 08.【星途车联网】day04-基于车辆明细表数据进行数据统计
- 09.【星途车联网】day04-zepplin介绍和使用场景
- 10.【星途车联网】day04-zepplinUI介绍
- 11.【星途车联网】day04-zepplin与mysql和hive的整合案例
- 12.【星途车联网】day04-zepplin集成Phoenix进行即席查询
- 13.【星途车联网】day04-知识点总结
1-5 day05

- 01.【星途车联网】day05-知识点回顾
- 02.【星途车联网】day05-驾驶行程存储分层设计
- 03.【星途车联网】day05-驾驶行程业务实现逻辑分析
- 04.【星途车联网】day05-驾驶行程业务添加水印处理
- 05.【星途车联网】day05-驾驶行程采样数据自定义窗口开发
- 06.【星途车联网】day05-驾驶行程采样数据实时写入到hbase中
- 07.【星途车联网】day05-驾驶行程数据处理分析
- 08.【星途车联网】day05-驾驶行程数据自定义窗口开发
- 09.【星途车联网】day05-驾驶行程数据实时写入到hbase
- 10.【星途车联网】day05-驾驶行程数据离线同步到mysql数据库
- 11.【星途车联网】day05-知识点总结
1-6 day06

- 01.【星途车联网】day06-知识点回顾
- 02.【星途车联网】day06-电子围栏的介绍和应用场景
- 03.【星途车联网】day06-电子围栏的数据结构介绍
- 04.【星途车联网】day06-电子围栏业务开发流程梳理
- 05.【星途车联网】day06-电子围栏业务开发步骤编写
- 06.【星途车联网】day06-将电子围栏规则应用到原始数据流
- 07.【星途车联网】day07-测试两点之间距离的工具类
- 08.【星途车联网】day07-将电子围栏规则与原始数据进行拉宽操作并测试
- 09.【星途车联网】day07-分析电子围栏状态的切换逻辑
- 10.【星途车联网】day07-实现电子围栏状态的切换逻辑并测试
- 11.【星途车联网】day07-实现电子围栏分析结果写入到mysql并进行测试
- 12.【星途车联网】day07-知识点总结
1-7 day07

- 01.【星途车联网】day07-知识点回顾
- 02.【星途车联网】day07-在线实时故障分析业务介绍
- 03.【星途车联网】day07-表结构介绍及高德地图解决逆地理坐标问题
- 04.【星途车联网】day07-在线实时异常告警分析流程
- 05.【星途车联网】day07-异步io实现高德逆地理位置查询的逻辑梳理
- 06.【星途车联网】day07-异步io实现高德逆地理位置查询并测试
- 07.【星途车联网】day07-实现自定义窗口函数区分出来异常字段和正常指标字段
- 08.【星途车联网】day07-将车辆基础信息数据应用到原始数据流流
- 09.【星途车联网】day07-在线实时故障分析结果实时写入到数据库中
- 10.【星途车联网】day07-知识点总结
1-8 day08

- 01.【星途车联网】day08-知识点回顾
- 02.【星途车联网】day08-自定义告警规则业务分析和数据存储
- 03.【星途车联网】day08-存储介质mongodb的介绍
- 04.【星途车联网】day08-mongodb服务的部署
- 05.【星途车联网】day08-mongodb数据库及集合的常用操作
- 06.【星途车联网】day08-mongodb高阶操作
- 07.【星途车联网】day08-mongodb的索引介绍
- 08.【星途车联网】day08-mongodb的高阶操作
- 09.【星途车联网】day08-js实现mongodb的id自增操作
- 10.【星途车联网】day08-基于地理位置的查询
- 11.【星途车联网】day08-mongodb的客户端操作
- 12.【星途车联网】day08-知识点总结
1-9 day09

- 01.【星途车联网】day09-知识点回顾
- 02.【星途车联网】day09-使用jdbc对mongodb的数据进行添加或更新
- 03.【星途车联网】day09-使用jdbc对mongodb的数据进行删除及高级查询
- 04.【星途车联网】day09-mongodb的副本集原理及演示
- 05.【星途车联网】day09-自定义告警规则业务分析及相关表结构介绍
- 06.【星途车联网】day09-自定义告警规则业务代码实现步骤分析
- 07.【星途车联网】day09-自定义告警规则业务代码实现水印及自定义窗口操作
- 08.【星途车联网】day09-加载自定义告警规则数据并进行广播
- 09.【星途车联网】day09-梳理自定义告警规则应用到原始拉宽数据流的逻辑
- 10.【星途车联网】day09-自定义规则计算表达式工具类
- 11.【星途车联网】day09-知识点总结
1-10 day10

- 01.【星途车联网】day10-知识点回顾
- 02.【星途车联网】day10-将自定义告警规则应用到数据流拉宽分析结果模型数据
- 03.【星途车联网】day10-分析数据写入到mongodb的逻辑
- 04.【星途车联网】day10-分析数据写入到mongodb的实现
- 05.【星途车联网】day10-分析数据写入到mongodb的测试
- 06.【星途车联网】day10-离线指标分析业务介绍及课程目标
- 07.【星途车联网】day10-jdbc六大对象介绍以及各自使用场景
- 08.【星途车联网】day10-使用jdbcinputformat和jdbcoutformat案例演示
- 09.【星途车联网】day10-知识点总结
1-11 day11

- 01.【星途车联网】day11-知识点回顾
- 02.【星途车联网】day11-编写数据汇总计算准备率实现逻辑
- 03.【星途车联网】day11-编写数据汇总计算准备率写入到mysql表中
- 04.【星途车联网】day11-多维度分析数据准备率写入到mysql表中
- 05.【星途车联网】day11-自定义告警类型和告警状态统计分析
- 06.【星途车联网】day11-车联网项目数仓分层
- 07.【星途车联网】day11-车辆动态监测分析
- 08.【星途车联网】day11-BI分析及介绍
- 09.【星途车联网】day11-superset入门案例
- 10.【星途车联网】day11-前端页面介绍
- 11.【星途车联网】day11-知识点总结
1-12 day12

- 01.【星途车联网】day12-知识点回顾
- 02.【星途车联网】day12-回顾flink应用程序的部署方式以及flinkonyarn部署
- 03.【星途车联网】day12-车联网任务分类的总结
- 04.【星途车联网】day12-ds介绍及安装部署
- 05.【星途车联网】day12-ds定义并调度任务
- 06.【星途车联网】day12-ds基本使用和项目管理界面操作
- 07.【星途车联网】day12-扩展了解充电桩业务
- 08.【星途车联网】day12-项目总结1
- 09.【星途车联网】day12-项目总结2
阶段九 大数据-就业指导技巧
展开第一章 工作篇

1-1 工作篇

- 工作篇
第二章 大数据市场篇

2-1 大数据-市场篇

- 大数据市场篇
第三章 求职篇

3-1 求职篇

- 求职篇1简历制作
- 求职篇2简历投递技巧
- 应聘渠道使用技巧
第四章 面试篇

4-1 面试篇

- 面试篇1
- 面试篇2
第五章 试用期篇

5-1 试用期

- 试用期篇1
- 试用期篇2