阶段一 会员版(2.1)-大数据基础增强

展开
第一章 会员版(2.1)-Linux实战
1-1 linux_概述_安装_常用命令
  • 01_操作系统概述
  • 02_虚拟机概述
  • 03_配置虚拟机的网卡信息
  • 04_安装虚拟机
  • 05_设置网卡信息
  • 06_centos的文件和目录
  • 07_远程连接工具
  • 08_快照
  • 09_学习终端命令的原因
  • 10_命令格式_自动补全
  • 11_查阅命令帮助信息
  • 12_文件和目录的目标
  • 13_ls命令说明
  • 14_ls通配符的使用
  • 15_切换目录
  • 16_相对路径
  • 17_绝对路径
  • 18_创建文件_touch
  • 19_创建目录
  • 20_删除文件和目录
  • 21_tree命令
  • 22_cp命令_复制
  • 23_mv指令_移动_重命名
  • 24_cat命令_显示小文件内容
  • 25_less命令_查看大文件内容
  • 26_head_tail命令_展示文档内容
  • 27_grep_搜索文件中存在关键字的行
  • 28_管道
  • 29_重定向
  • 30_双与和双或的效果
  • 31_软链接
1-2 linux_打包压缩_vim编辑器_系统管理_用户权限
  • 01_find命令
  • 02_打包和解包
  • 03_使用gzip进行压缩和解压缩_重点
  • 04_使用bzip2进行压缩和解压缩
  • 05_vim编辑器简介
  • 06_vi编辑器的快速入门
  • 07_vi编辑器的三种工作模式
  • 08_末行模式的常用命令
  • 09_移动光标1
  • 10_移动光标2_段落移动_括号切换_标记
  • 11_可视模式_撤销_删除文本
  • 12_复制和剪切
  • 13_替换_缩排_重复执行
  • 14_查找_查找并替换
  • 15_插入命令
  • 16_vi编辑器_练习1_练习2
  • 17_vi_编辑器_案例3
  • 18_用户_组_权限的基本概念
  • 19_组用户管理
  • 20_用户的增删改
  • 21_查看用户信息
  • 22_su_切换用户
  • 23_sudo_临时让普通用户具有管理员
  • 24_修改用户权限_方式1
  • 25_修改用户权限_方式2_方式3
  • 26_日期和日历命令
  • 27_查看磁盘信息
  • 28_进程相关内容
1-3 linux_管道_shell编程
  • 01_学习目标
  • 02_cut_截取文件内容
  • 03_sort_排序
  • 04_通过wc统计行数和字节数
  • 05_uniq和tee命令
  • 06_tr命令
  • 07_split_将大文件切分成若干小文件
  • 08_awk命令1
  • 09_awk命令2
  • 10_sed的查询功能
  • 11_sed的删除功能
  • 12_sed的修改功能
  • 13_sed的替换功能
  • 14_sed修改文件的原有内容
  • 15_sed_综合练习
  • 16_shell编程简介
  • 17_shell编程的快速入门
  • 18_变量
  • 19_字符串
  • 20_获取参数
  • 21_算符运算符
  • 22_if判断
  • 23_for循环
  • 24_while循环
  • 25_case_分支结构
  • 26_break_continue
  • 27_函数
  • 28_数组
  • 29_加载其他文件的变量
第二章 会员版(2.0)-就业课(2.0)-JVM优化(上)
2-1 JVM优化1
  • 01.今日内容_D01
  • 02.我们为什么要对jvm做优化?
  • 03.JVM运行参数之-参数类型以及标准参数
  • 04.JVM运行参数之-server与-client
  • 05.JVM运行参数之-Xint、-Xcomp、-Xmined
  • 06.JVM运行参数之-XX参数
  • 07.JVM运行参数之-Xms与-Xmx参数
  • 08.JVM运行参数之查看jvm运行参数
  • 09.JVM内存模型之jdk1.7与jdk1.8内存模型(很重要)
  • 10.JVM内存模型之jstat命令的使用
  • 11.jmap命令的使用
  • 12.使用jhat对dump文件进行分析
  • 13.通过MAT工具对dump文件进行分析
  • 14.实战:内存溢出的定位与分析
  • 15.jstack命令的使用
  • 16.实战:死锁问题
  • 17.VisualVM工具的使用(监控本地进程)
  • 18.VisualVM工具的使用(监控远程进程)
第三章 会员版(2.0)-就业课(2.0)-JVM优化(中)
3-1 JVM优化2
  • 01.今日内容_D02
  • 02.什么垃圾回收?
  • 03.垃圾回收算法之-引用计数法
  • 04.垃圾回收算法之-标记清除法
  • 05.标记清除算法中的应用程序暂停的问题说明
  • 06.垃圾回收算法之-标记压缩算法
  • 07.垃圾回收算法之-复制算法
  • 08.垃圾回收算法之-分代算法
  • 09.垃圾收集器之串行垃圾收集器
  • 10.垃圾收集器之并行垃圾收集器
  • 11.垃圾收集器之CMS垃圾收集器
  • 12.垃圾收集器之G1垃圾收集器的原理
  • 13.垃圾收集器之G1垃圾收集器中的YoungGC
  • 14.垃圾收集器之G1垃圾收集器中的MixedGC
  • 15.垃圾收集器之G1垃圾收集器中的参数以及测试
  • 16.垃圾收集器之G1垃圾收集器的优化建议
  • 17.可视化GC日志分析工具
第四章 会员版(2.0)-就业课(2.0)-JVM优化(下)
4-1 JVM优化3
  • 01.今日内容_D03
  • 02.Tomcat8优化之部署安装
  • 03.Tomcat8优化之禁用AJP服务
  • 04.Tomcat8优化之配置执行器(线程池)
  • 05.Tomcat8优化之3种运行模式(启用nio2模式)
  • 06.Tomcat8优化之部署web项目
  • 07.Tomcat8优化之Apache JMeter的使用(对首页进行压力测试)
  • 08.Tomcat8优化之禁用AJP服务的压力测试
  • 09.Tomcat8优化之设置线程池进行压力测试
  • 10.Tomcat8优化之设置nio2运行模式进行测试
  • 11.Tomcat8优化之设置设置并行垃圾收集器进行测试
  • 12.Tomcat8优化之通过GC报表进行分析
  • 13.Tomcat8优化之设置G1垃圾收集器进行测试
  • 14.Tomcat8优化之G1牢记收集器的测试结果以及小结
  • 15.JVM字节码之javap的使用
  • 16.JVM字节码之常量池、字段描述符、方法描述符
  • 17.JVM字节码之解读方法字节码
  • 18.JVM字节码之解读方法字节码(图解)
  • 19.JVM字节码之研究 i++ 与 ++i 的不同
  • 20.JVM字节码之探究字符串的拼接
  • 21.代码优化建议

阶段二 会员版(2.1)-大数据 Hadoop 离线分布式系统

展开
第一章 会员版(2.1)-大数据基础和 硬件介绍
1-1 大数据预备知识
  • 1-大数据导论
  • 2-服务器介绍
  • 3-存储磁盘基本介绍
  • 4-交换机和网卡的介绍
  • 5-局域网、机架和IDC
  • 6-磁盘阵列RAID
1-2 集群Linux环境搭建和Shell脚本
  • 7-集群Linux环境搭建-注意事项
  • 8-集群Linux环境搭建-复制虚拟机
  • 9-集群Linux环境搭建-配置Mac地址
  • 10-集群Linux环境搭建-配置ip地址
  • 11-集群Linux环境搭建-配置主机名和域名映射
  • 12-集群Linux环境搭建-关闭防火墙和SELinux
  • 13-集群Linux环境搭建-ssh免密登录
  • 14-集群Linux环境搭建-时钟同步
  • 15-集群Linux环境搭建-辅助软件-jdk安装
  • 16-集群Linux环境搭建-辅助软件-mysql安装
  • 17-shell脚本基础增强1
  • 18-shell脚本基础增强2
第二章 会员版(2.1)-Zookeeper
2-1 Zookeeper
  • 19-zookeeper-概述
  • 20-zookeeper-特点
  • 21-zookeeper-架构
  • 22-zookeeper-应用场景1
  • 23-zookeeper-应用场景2
  • 24-zookeeper-选举机制
  • 25-zookeeper-环境搭建
  • 1-Zookeeper的数据模型
  • 2-Zookeeper的节点特性
  • 3-Zookeeper的命令操作
  • 4-Zookeeper的节点属性
  • 5-Zookeeper的watch机制
  • 6-Zookeeper的JavaAPI操作-创建工程和导入jar包
  • 7-Zookeeper的JavaAPI操作-创建永久性节点
  • 8-Zookeeper的JavaAPI操作-节点其他操作,
  • 9-Zookeeper的JavaAPI操作-watch机制
第三章 会员版(2.1)-HDFS组件
3-1 hadoop概述_架构_安装
  • 10-hadoop的介绍
  • 11-hadoop的版本和发行版公司介绍
  • 12-hadoop的架构-1.x架构
  • 13-hadoop的架构-2.x架构
  • 14-hadoop重新编译-准备工作1
  • 15-hadoop重新编译-准备工作2和完成编译
  • 16-hadoop安装-上传安装包
  • 17-hadoop安装-修改配置文件-上
  • 18-hadoop安装-修改配置文件-下
  • 19-hadoop安装-配置hadoop环境变量
  • 20-hadoop安装-启动集群
3-2 Hadoop 核心-HDFS
  • 1-hdfs的概述
  • 2-hdfs的应用场景
  • 3-hdfs的架构
  • 4-hdfs的namenode和datanode
  • 5-hdfs的副本机制和机架感知
  • 6-hdfs的命令行操作1
  • 6-hdfs的命令行操作2
  • 8-hdfs的命令行操作3
  • 9-hdfs的高级命令-文件限额配置-文件数量限额
  • 10-hdfs的高级命令-文件限额配置-文件大小限额
  • 11-hdfs的高级命令-安全模式
  • 12-hdfs的高级命令-基准测试
  • 13-hdfs的文件写入过程
  • 14-hdfs的文件读取过程
  • 15-hdfs的元数据管理-fsimage文件和edits文件
  • 16-hdfs的元数据管理-SecondaryNameNode
  • 1-HDFS的API操作-准备工作-配置windows的hadoop环境
  • 2-HDFS的API操作-准备工作-导入maven坐标
  • 3-HDFS的API操作-url访问方式
  • 4-HDFS的API操作-获取FileSystem-第一种方式
  • 5-HDFS的API操作-获取FileSystem-其他方式
  • 6-HDFS的API操作-遍历所有文件
  • 7-HDFS的API操作-创建文件夹
  • 8-HDFS的API操作-文件的下载和上传
  • 9-HDFS的API操作-hdfs的权限访问控制
  • 10-HDFS的API操作-小文件的合并
  • 11-HDFS的高可用机制-概述和组件
  • 12-HDFS的高可用机制-工作原理
  • 13-HDFS的联邦机制
第四章 会员版(2.1)-MapReduce组件
4-1 MapReduce 概述_架构_编写流程
  • 14-MapReduce-概述
  • 15-MapReduce-设计构思
  • 16-MapReduce-编程流程
  • 17-MapReduce-编程流程-详解1
  • 18-MapReduce-编程流程-详解2
  • 1-MapReduce案例-WordCount-步骤分析
  • 2-MapReduce案例-WordCount-准备工作
  • 3-MapReduce案例-WordCount-Map代码编写
  • 4-MapReduce案例-WordCount-Reduce代码编写
  • 5-MapReduce案例-WordCount-主类代码编写
  • 6-MapReduce案例-WordCount-代码测试运行
  • 7-MapReduce案例-WordCount-问题补充
  • 8-MapReduce分区-概念和原理
  • 9-MapReduce分区-代码编写步骤
  • 10-MapReduce分区-代码实现1
  • 11-MapReduce分区-代码实现2
  • 12-MapReduce分区-代码运行
  • 13-MapReduce计数器
4-2 MapReduce-排序和序列化
  • 1-MapReduce-排序和序列化-概述
  • 2-MapReduce-排序和序列化-编程流程
  • 3-MapReduce-排序和序列化-代码编写-比较器和序列化代码实现
  • 4-MapReduce-排序和序列化-代码编写-Mapper和Reducer代码
  • 5-MapReduce-排序和序列化-代码编写-主类代码实现
  • 6-MapReduce-排序和序列化-测试运行
  • 7-MapReduce-规约(Combiner)概述
  • 8-MapReduce-规约(Combiner)-代码实现
4-3 mapreduce统计求和案例
  • 9-MapReduce综合案例-统计求和-需求和步骤分析
  • 10-MapReduce综合案例-统计求和-FlowBean和Mapper代码编写
  • 11-MapReduce综合案例-统计求和-其他代码和测试运行
  • 12-MapReduce综合案例-流量排序-FlowBean编写
  • 13-MapReduce综合案例-流量排序-Mapper编写
  • 14-MapReduce综合案例-流量排序-其他代码编写和运行
  • 15-MapReduce综合案例-手机号码分区-代码编写和运行
4-4 mapreduce运行机制
  • 1-MapReduce运行机制-MapTask的工作机制
  • 2-MapReduce运行机制-MapTask的工作机制-细节补充
  • 3-MapReduce运行机制-MapTask的工作机制-ReduceTask和Shuffle阶段
4-5 mapreduce 实现Reduce以及map端 join
  • 4-MapReduce案例-Reduce端join操作-分析
  • 5-MapReduce案例-Reduce端join操作-Mapper代码编写
  • 6-MapReduce案例-Reduce端join操作-Reducer代码编写
  • 7-MapReduce案例-Reduce端join操作-主类代码编写
  • 8-MapReduce案例-Reduce端join操作-测试运行
  • 9-MapReduce案例-Reduce端join操作-问题分析
  • 10-MapReduce案例-Map端join操作-概述和步骤分析
  • 11-MapReduce案例-Map端join操作-主类代码编写
  • 12-MapReduce案例-Map端join操作-setup方法编写
  • 13-MapReduce案例-Map端join操作-map方法编写
  • 14-MapReduce案例-Map端join操作-测试运行
4-6 mapreduce 求共同好友案例
  • 15-MapReduce案例-求共同好友-需求分析
  • 16-MapReduce案例-求共同好友-MapReduce编程步骤
  • 17-MapReduce案例-求共同好友-阶段1-Mapper和Reducer代码编写
  • 18-MapReduce案例-求共同好友-阶段1-主类代码编写和测试运行
  • 19-MapReduce案例-求共同好友-阶段2-Mapper代码编写
  • 20-MapReduce案例-求共同好友-阶段2-其他代码编写和测试运行
4-7 自定义输入和输出组件实现
  • 1-自定义InputFormat实现小文件合并-需求分析
  • 2-自定义InputFormat实现小文件合并-自定义inputformat步骤
  • 3-自定义InputFormat实现小文件合并-代码实现-准备工作
  • 4-自定义InputFormat实现小文件合并-代码实现-自定义InputFormat代码编写
  • 5-自定义InputFormat实现小文件合并-代码实现-Mapper类代码编写
  • 6-自定义InputFormat实现小文件合并-代码实现-主类代码编写和测试运行
  • 7-自定义OutputFormat-步骤分析
  • 8-自定义OutputFormat-源码分析
  • 9-自定义OutputFormat-代码编写-上
  • 10-自定义OutputFormat-代码编写-下
4-8 topn案例
  • 11-自定义分组-求TopN-步骤分析
  • 12-自定义分组-求TopN-代码编写-OrderBean
  • 13-自定义分组-求TopN-代码编写-Mapper代码
  • 14-自定义分组-求TopN-代码编写-自定义分区代码
  • 15-自定义分组-求TopN-代码编写-自定义分组代码
  • 16-自定义分组-求TopN-代码编写-Reducer代码
  • 17-自定义分组-求TopN-代码编写-主类代码和测试运行
第五章 会员版(2.1)-Yarn组件
5-1 yarn资源调度
  • 18-yarn资源调度-yarn介绍
  • 19-yarn资源调度-主要组件及作用
  • 20-yarn资源调度-架构和工作流程
  • 21-yarn资源调度-调度器
  • 22-yarn资源调度-常用参数设置
第六章 会员版(2.1)-Hive组件
6-1 hive 数据仓库
  • 1-数据仓库-基本概念和主要特征
  • 2-数据仓库-与数据库区别
  • 3-数据仓库-分层架构和元数据管理
  • 4-hive-基本简介
  • 5-hive-分层架构
  • 6-hive-与hadoop关系以及与数据库的对比
  • 7-hive-安装
  • 8-hive-交互方式
  • 9-hive基本操作-数据库操作-上
  • 10-hive基本操作-数据库操作-下
  • 11-hive基本操作-数据库表操作-语法格式
  • 12-hive基本操作-数据库表操作-建表入门
  • 13-hive基本操作-数据库表操作-内部表基本操作
  • 14-hive基本操作-数据库表操作-外部表基本操作-上
  • 15-hive基本操作-数据库表操作-外部表基本操作-下
  • 16-hive基本操作-分区表操作-概述
  • 17-hive基本操作-分区表操作-创建表和加载表数据
  • 18-hive基本操作-分区表操作-分区表练习
6-2 hive查询以及调优
  • 1-hive表基本操作-分桶表操作
  • 2-hive表基本操作-修改表结构
  • 3-Hive表查询语法-语法分析
  • 4-Hive表查询语法-基本查询语句1
  • 5-Hive表查询语法-基本查询语句2
  • 6-Hive表查询语法-分组和having语句
  • 7-Hive表查询语法-join操作
  • 8-Hive表查询语法-排序-上
  • 9-Hive表查询语法-排序-sort by
  • 10-Hive表查询语法-排序-distribute by和cluster by
  • 11-Hive参数设置
  • 12-Hive函数-内置函数
  • 13-Hive函数-自定义函数
  • 14-Hive的压缩方式
  • 15-Hive的数据存储格式
  • 16-Hive的数据存储格式和数据压缩结合
  • 17-Hive的调优-Fetch抓取和本地模式
  • 18-Hive的调优-MapJoin和GroupBy
  • 19-Hive的调优-动态分区介绍
  • 20-Hive的调优-动态分区案例实现
  • 21-Hive的调优-其他
第七章 会员版(2.1)-Impala组件
7-1 Impala
  • 01--Apache Impala--概述介绍&和hive关系、异同
  • 02--Apache Impala--架构组件&查询处理流程
  • 03--Apache Impala--架构组件&查询处理流程--笔记总结
  • 04--Apache Impala--安装部署--rpm包本地yum源制作
  • 05--Apache Impala--安装部署--虚拟机新增磁盘操作(可选步骤)
  • 06--Apache Impala--安装部署--hadoop、hive配置修改&impala配置
  • 07--Apache Impala--安装部署--impala服务启动、关闭
  • 08--Apache Impala--shell命令行--内外部参数
  • 09--Apache Impala--sql语法--数据库特定语句
  • 10--Apache Impala--sql语法--表特定语句--create、insert、desc
  • 11--Apache Impala--sql语法--表特定语句--alter、drop、view
  • 12--Apache Impala--sql语法--表特定语句--分组、排序、过滤
  • 13--Apache Impala--sql语法--表数据导入方式
  • 14--Apache Impala--jdbc 操作impala
第八章 会员版(2.1)-辅助系统工具
8-1 Sqoop
  • 01--Apache Sqoop--软件介绍
  • 02--Apache Sqoop--安装部署
  • 03--Apache Sqoop--导入import--全量数据导入hdfs
  • 04--Apache Sqoop--导入import--全量数据导入hdfs--并行度设置&注意事项
  • 05--Apache Sqoop--导入import--全量数据导入hive
  • 06--Apache Sqoop--导入import--表子集数据导入
  • 07--Apache Sqoop--导入import--增量导入--append模式
  • 08--Apache Sqoop--导入import--增量导入--lastmodified模式(附加数据)
  • 09--Apache Sqoop--导入import--增量导入--lastmodified模式(mergekey合并数据)
  • 10--Apache Sqoop--导出export--默认模式导出(insert)
  • 11--Apache Sqoop--导出export--默认模式导出(insert)--配置参数
  • 12--Apache Sqoop--导出export--更新模式导出(insert)--updateonly
  • 13--Apache Sqoop--导出export--更新模式导出(insert)--allowinsert
  • 14--Apache Sqoop--job作业的使用--创建、查看、执行、删除
  • 15--Apache Sqoop--job作业的使用--免密执行
8-2 Flume
  • 01--Apache Flume--软件概述
  • 02--Apache Flume--运行机制&运行结构图
  • 03--Apache Flume--安装部署&简单入门
  • 04--Apache Flume--案例--监控采集文件夹变化(sqoopdir、HDFS)
  • 05--Apache Flume--案例--监控采集文件夹变化--执行演示&注意事项
  • 06--Apache Flume--案例--监控文件变化(exec source)
  • 07--Apache Flume--高阶--负载均衡功能
  • 08--Apache Flume--高阶--容错(故障转移)功能
  • 09--Apache Flume--静态拦截器--案例业务需求描述
  • 10--Apache Flume--静态拦截器--功能实现
  • 11--Apache Flume--自定义拦截器--需求描述
  • 12--Apache Flume--自定义拦截器--代码逻辑梳理
  • 13--Apache Flume--自定义拦截器--功能实现
  • 14--Apache Flume--自定义source(扩展)--需求、代码逻辑梳理
  • 15--Apache Flume--自定义source(扩展)--功能测试实现
  • 16--Apache Flume--自定义sink(扩展)--数据写入本地
8-3 azkaban
  • 01--工作流调度--概念、产生背景
  • 02--azkaban--介绍、架构、部署模式
  • 03--azkaban--安装部署--源码编译
  • 04--azkaban--安装部署--solo server模式安装--azkaban使用初体验
  • 05--azkaban--安装部署--two server模式安装--服务器配置上
  • 06--azkaban--安装部署--two server模式安装--服务器配置下
  • 07--azkaban--安装部署--multiple-executor模式&executor激活问题
  • 08--azkaban--使用实战--shell、command调度
  • 09--azkaban--使用实战--多job依赖调度
  • 10--azkaban--使用实战--hadoop调度(hdfs、mapreduce)
  • 11--azkaban--使用实战--hive调度
  • 12--azkaban--使用实战--定时任务调度
8-4 Oozie
  • 01--Apache Oozie--概述&架构介绍
  • 02--Apache Oozie--节点类型(control flow、action)&工作流类型(coordinator、bundle)
  • 03--Apache Oozie--安装部署--修改hadoop&解压拷贝依赖包
  • 04--Apache Oozie--安装部署--配置文件修改&数据库、war包初始化
  • 05--Apache Oozie--安装部署--服务启动&web UI
  • 06--Apache Oozie--实战操作--修改hadoop资源分配属性
  • 07--Apache Oozie--实战操作--调度shell脚本
  • 08--Apache Oozie--实战操作--调度hive脚本
  • 09--Apache Oozie--实战操作--调度mapreduce程序
  • 10--Apache Oozie--实战操作--串联任务调度(依赖关系)
  • 11--Apache Oozie--实战操作--定时调度任务
  • 12--Apache Oozie--实战操作--集成hue&调度shell程序
  • 13--Apache Oozie--实战操作--集成hue&调度hive脚本
  • 14--Apache Oozie--实战操作--集成hue&调度mapreduce程序
  • 15--Apache Oozie--实战操作--集成hue&定时调度配置
8-5 Hue
  • 01--Apache Hue--介绍、功能、架构
  • 02--Apache Hue--编译、安装部署
  • 03--Apache Hue--集成hadoop服务(HDFS、YARN)
  • 04--Apache Hue--集成hadoop服务--页面操作使用
  • 05--Apache Hue--集成hive服务
  • 06--Apache Hue--集成mysql服务
  • 07--Apache Hue--集成oozie服务&调度shell程序
  • 08--Apache Hue--集成oozie服务&调度hive脚本
  • 09--Apache Hue--集成oozie服务&调度mapreduce程序
  • 10--Apache Hue--集成oozie服务&定时调度配置
  • 11--Apache Hue--集成oozie服务&集成hbase服务
  • 12--Apache Hue--集成oozie服务&集成impala服务
第九章 会员版(2.1)-网站流量日志分析
9-1 网站流量日志分析_架构_埋点采集
  • 01--网站流量日志分析背景介绍--网站分析的意义
  • 02--网站流量日志分析背景介绍--如何进行网站分析--流量分析(质量、多维细分)
  • 03--网站流量日志分析背景介绍--如何进行网站分析--内容导航分析
  • 04--网站流量日志分析背景介绍--如何进行网站分析--转化分析(漏斗模型)
  • 05--整体技术流程-数据采集和数据预处理
  • 06--整体技术流程-数据入库(ETL)
  • 07--整体技术流程-数据分析和数据可视化
  • 08--整体技术流程-系统架构图
  • 09--网站流量日志分析--数据采集--使用web服务器自带日志记录采集
  • 10--网站流量日志分析--数据采集--页面埋点JavaScript收集数据
  • 11--网站流量日志埋点收集--原理实现雏形--如何解决js和html页面耦合问题
  • 12--网站流量日志埋点收集--原理实现雏形--如何解决js跨域问题(伪装图片)
  • 13--网站流量日志埋点收集--原理实现分析
  • 14--网站流量日志埋点收集--确定收集信息和途径
  • 15--网站流量日志埋点收集--埋点代码编写--src属性直接引入
  • 16--网站流量日志埋点收集--埋点代码编写--匿名函数自调用创建标签引入
  • 17--网站流量日志埋点收集--前端收集数据脚本
  • 18--网站流量日志埋点收集--后端脚本(nginx+lua)
  • 19--网站流量日志埋点收集--日志格式、日志切分
9-2 网站流量日志分析-数据预处理
  • 01--网站流量日志埋点收集--系统部署架构图和采集流程梳理
  • 02--网站流量日志埋点收集--系统部署环境搭建
  • 03--网站流量日志埋点收集--方案一--基本功能数据采集实现
  • 04--网站流量日志埋点收集--方案二--点击事件数据采集实现
  • 05--网站流量日志埋点收集--方案二--中文乱码问题解决
  • 06--网站流量日志flume收集--新组件taildir source介绍
  • 07--网站流量日志flume收集--配置文件编写和实操
  • 08--网站流量日志flume收集--hdfs--基于文件闲置策略滚动
  • 09--网站流量日志分析--数据预处理--目的意义和mr编程技巧
  • 10--网站流量日志分析--数据预处理--实现思路详解
  • 11--网站流量日志分析--数据预处理--mr代码实现
  • 12--网站流量日志分析--数据预处理--点击流模型概念
  • 13--网站流量日志分析--数据预处理--点击流模型之pageviews模型
  • 14--网站流量日志分析--数据预处理--点击流模型之visit模型
  • 15--网站流量日志分析--数据预处理--点击流模型pageviews编程实现思路
  • 16--网站流量日志分析--数据预处理--点击流模型pageviews代码实现
  • 17--网站流量日志分析--数据预处理--点击流模型visit编程实现思路
  • 18--网站流量日志分析--数据预处理--点击流模型visit代码实现
9-3 网站流量日志分析-数仓设计-模型设计-指标分析
  • 01--网站流量日志分析--数仓设计--维度建模(事实表、维度表)&多维数据分析
  • 02--网站流量日志分析--数仓设计--维度建模三种模式(星型、雪花、星座)
  • 03--网站流量日志分析--数仓设计--本项目中模式设计(星型模式)
  • 04--网站流量日志分析--数据入库--含义和ETL本质解释
  • 05--网站流量日志分析--数据入库--ODS建表操作
  • 06--网站流量日志分析--数据入库--ODS数据导入操作
  • 07--网站流量日志分析--数据入库--宽表、窄表由来概述
  • 08--网站流量日志分析--扩展--hive函数分类(udf、udtf、udaf)
  • 09--网站流量日志分析--扩展--hive lateral view侧视图的使用
  • 10--网站流量日志分析--数据入库--宽表具体实现1--时间拓宽
  • 11--网站流量日志分析--数据入库--宽表具体实现2--解析url
  • 12--网站流量日志分析--分析指标和分析模型--基础级指标
  • 13--网站流量日志分析--分析指标和分析模型--复合级指标
  • 14--网站流量日志分析--分析指标和分析模型--基础、来源分析模型
  • 15--网站流量日志分析--分析指标和分析模型--受访、访客分析模型
  • 16--网站流量日志分析--分析指标和分析模型--漏斗分析模型
9-4 网站流量日志分析-多维统计
  • 01--网站流量日志分析--统计分析--基础指标统计分析(pv、uv)
  • 02--网站流量日志分析--统计分析--基础指标统计分析(vv、ip)
  • 03--网站流量日志分析--统计分析--复合指标分析--平均访问深度
  • 04--网站流量日志分析--统计分析--复合指标分析--平均访问频度
  • 05--网站流量日志分析--统计分析--复合指标分析--平均访问时长
  • 06--网站流量日志分析--统计分析--复合指标分析--跳出率
  • 07--网站流量日志分析--统计分析--多维统计分析--概念
  • 08--网站流量日志分析--统计分析--多维统计分析--时间维度--每小时指标统计
  • 09--网站流量日志分析--统计分析--多维统计分析--时间维度--每天pv统计
  • 10--网站流量日志分析--统计分析--多维统计分析--时间维度--维表关联查询
  • 11--网站流量日志分析--统计分析--多维统计分析--来访referer、时间维度
  • 12--网站流量日志分析--统计分析--多维统计分析--来访host、时间维度
  • 13--网站流量日志分析--统计分析--多维统计分析--终端维度--UA概述
  • 14--网站流量日志分析--统计分析--多维统计分析--终端维度--自定义UDF解析UA
  • 15--网站流量日志分析--统计分析--多维统计分析--了解其他维度分析
  • 16--网站流量日志分析--统计分析--sql补充扩展--如何编写hive sql
  • 17--网站流量日志分析--统计分析--sql补充扩展--group by语法限制解析
9-5 网站流量日志分析-窗口函数-统计分析
  • 01--网站流量日志分析--统计分析--分组topN--业务需求
  • 02--网站流量日志分析--统计分析--分组topN--row_number over函数使用
  • 03--Hive高阶--分组窗口函数--常见的分组函数(rank、denserank、rownumber、ntile)
  • 04--Hive高阶--分组窗口函数--聚合函数集成分组函数(SUM)
  • 05--Hive高阶--分组窗口函数--序列分组函数(CUME_DIST)
  • 06--Hive高阶--分组窗口函数--取值分组函数( LAG,LEAD,FIRST_VALUE,LAST_VALUE)
  • 07--Hive高阶--分组窗口函数--OLAP相关分组函数(GROUPING SETS,CUBE,ROLLUP)
  • 08--网站流量日志分析--统计分析--受访分析热门页面topN
  • 09--网站流量日志分析--统计分析--独立访客分析
  • 10--网站流量日志分析--统计分析--新老访客需求剖析
  • 11--网站流量日志分析--统计分析--新老访客实现(join语句)
  • 12--网站流量日志分析--统计分析--回头单次访客分析
  • 13--网站流量日志分析--统计分析--漏斗模型转化分析&hive级联求和问题
  • 14--网站流量日志分析--统计分析--hive级联求和问题案例
  • 15--网站流量日志分析--统计分析--漏斗模型转化分析实现
9-6 网站流量日志分析-调度-可视化
  • 01--网站流量日志分析--数据导出--概述含义
  • 02--网站流量日志分析--数据导出--全量数据导出详解
  • 03--网站流量日志分析--数据导出--增量数据导出详解
  • 04--网站流量日志分析--数据导出--定时增量数据导出详解
  • 05--网站流量日志分析--工作流调度--概述含义
  • 06--网站流量日志分析--工作流调度--预处理调度--程序打包job编写
  • 07--网站流量日志分析--工作流调度--预处理调度--功能实现
  • 08--网站流量日志分析--工作流调度--数据入库调度
  • 09--网站流量日志分析--工作流调度--数据指标统计分析调度
  • 10--网站流量日志分析--数据可视化--概述含义
  • 11--网站流量日志分析--数据可视化--echarts简单入门
  • 12--网站流量日志分析--数据可视化--后端web工程架构
  • 13--网站流量日志分析--数据可视化--后端web工程整合搭建
  • 14--网站流量日志分析--数据可视化--动态加载数据--数据格式、排序问题剖析
  • 15--网站流量日志分析--数据可视化--动态加载数据--mybatis逆向工程
  • 16--网站流量日志分析--数据可视化--动态加载数据--代码实现
  • 17--(扩展)网站流量日志分析--数据可视化--vue版--前端项目搭建、接口规则说明
  • 18--(扩展)网站流量日志分析--数据可视化--vue版--复杂json格式数据剖析
  • 19--(扩展)网站流量日志分析--数据可视化--vue版--复杂json具体实现

阶段三 会员版(2.1)-大数据 NoSQL、Kafka和ELK技术实战

展开
第一章 会员版(2.1)-redis组件
1-1 redis组件
  • 1、web发展历史以及redis的简介
  • 2、redis的安装过程
  • 3、redis当中对string字符串的操作
  • 4、redis当中hash列表的操作
  • 5、redis当中list列表的操作
  • 6、redis当中的set集合操作
  • 7、redis当中对key的通用操作
  • 8、redis的JavaAPI操作string类型数据
  • 9、redis当中的JavaAPI操作hash类型数据
  • 10、redis当中的list以及set集合JavaAPI操作
  • 11、redis当中rdb的持久化方式介绍
  • 12、redis当中的AOF持久化方案
  • 13、redis当中的主从复制架构
  • 14、redis当中的sentinel架构模式
  • 15、redis的集群安装配置
  • 16、redis集群的其他操作以及redis集群的JavaAPI操作
第二章 会员版(2.1)-hbase组件
2-1 hbase架构以及读写操作
  • 1、hbase的基本简介
  • 2、HBase的基本架构
  • 3、HBase集群环境搭建
  • 4、HBase的表模型以及HBase的创建表和添加数据操作
  • 5、HBase当中的查询,更新以及删除操作
  • 6、hbase-shell高级管理命令
  • 7、HBase当中的创建表以及添加数据操作
  • 8、hbase当中按照rowkey查询数据
  • 9、HBase当中通过scan实现范围值扫描查询以及通过scan全表查询
  • 10、HBase当中的过滤器查询
  • 11、hbase当中的专用过滤器以及分页和多过滤器综合使用
  • 12、HBase当中JavaAPI开发
  • 13、HBase的系统架构以及HBase的物理存储
  • 14、HBase当中的读写过程以及region管理和master工作机制以及HBase当中三个重要机制
2-2 hbase集成mapredce以及hbase优化
  • 15、hbase与MR的集成开发1
  • 16、HBase与mr的集成本地运行以及打包到服务器上面去运行
  • 17、读取hdfs数据写入到hbase当中去
  • 18、通过bulkload的方式批量加载海量数据到hbase里面去
  • 19、hive整合hbase基本介绍
  • 20、hive整合hbase
  • 21、HBase当中的预分区_clip(1)
  • 22、HBase当中的rowkey设计技巧
  • 23、HBase当中的协处理器
  • 24、HBase当中的二级索引方案的介绍
  • 25、hue的基本介绍
  • 26、Hue与其他框架的集成
  • 26、hue的编译安装
  • 27、HBase的优化1
  • 28、HBase的优化2
2-3 基于hbase实现微博用户关系梳理案例
  • 1、hbase当中的namespace介绍
  • 2、HBase的版本确界以及TTL的设置
  • 3、hbase当中数据版本的确界以及数据的过期时间TTL
  • 4、微博案例用户关系梳理以及定义HBase表
  • 5、三张表关系定义梳理
  • 6、定义命名空间以及定义三张表名
  • 7、创建三张表
  • 8、发布微博内容思路分析
  • 9、发布微博内容代码实现
  • 10、添加关注用户思路分析
  • 11、添加关注用户代码实现
  • 12、取消关注用户逻辑思路分析
  • 13、取消关注用户代码实现
  • 14、获取关注人的微博内容
第三章 会员版(2.1)-kafka组件
3-1 kafka
  • 1、课程目标以及kafka企业消息队列的介绍_clip
  • 2、了解消息系统的分类以及消息系统的常见应用场景
  • 3、kafka的基本简介,应用场景以及kafka的基础架构
  • 4、kafka当中的专业术语的介绍,topic,分区数以及副本数的说明介绍
  • 5、kafka当中offset以及分区和消费组之间的关系
  • 6、kafka集群环境的搭建
  • 7、kafka集群常见的基本操作命令
  • 8、JavaAPI生产数据
  • 9、kafka当中JavaAPI消费数据-手动提交以及自动提交offset值
  • 10、kafkaStream的API开发
  • 11、kafka生产者原理之分区策略
  • 12、消费完每个分区里面的数据然后提交offset
  • 13、消费topic指定的分区数据
  • 14、kafka的数据丢失以及数据重复消费以及kafka的消费模式介绍
  • 15、kafka当中数据的查找过程
  • 16、kafka如何保证数据不丢失
  • 17、分布式系统当中的CAP定律以及kafka当中的CAP实现
  • 18、kafka in zookeeper以及kafka的监控工具kafka-eagle
第四章 会员版(2.1)-ELK技术栈
4-1 Elasticsearch的功能、架构和原理
  • 1、搜索以及全文检索的介绍
  • 2、lucene实现全文检索的介绍
  • 3、ELK日志协议栈的介绍以及ES的基本介绍
  • 4、es当中的核心概念介绍以及es的架构
  • 5、es集群的安装部署
  • 6、es当中的head插件以及kibana安装部署
  • 7、使用kibana来管理索引的增删改查等操作
  • 8、使用kibana来实现花式查询
  • 9、es当中的配置mappings以及settings
  • 10、es当中的重新索引数据以及分页解决方案
  • 11、es当中IK分词器以及热词的更新
  • 12、es当中分片交互过程
  • 13、es集群当中JavaAPI获取客户端对象以及添加数据
  • 14、es当中另外两种添加方式以及批量添加索引数据
  • 15、es当中的更新以及删除操作
  • 16、初始化查询数据以及es当中通过系统id来进行查询
  • 17、es当中查询所有数据以及范围查询和词条查询
4-2 es搜索聚合操作以及logstash采集和kibana可视化
  • 1、es当中的模糊查询和通配符查询以及分页和高亮显示
  • 2、es当中的聚合查询
  • 3、分组求最大值,最小值,平均值等
  • 4、es当中的分组求和以及聚合排序
  • 5、es的sql插件的使用
  • 6、logstash的基本介绍以及标准输入输出插件和监控文件插件
  • 7、通过logstash采集数据库当中的数据
  • 8、logstash当中的syslog-input插件以及filter插件
  • 9、使用grok插件解析nginx日志数据为结构化数据
  • 10、logstash的output插件之将数据保存到文件以及保存到es里面去
  • 11、kibana实现数据报表展示
4-3 es整合hbase案例
  • 12、logstash+es综合案例
  • 13、es整合hbase实现二级索引
  • 14、实现解析excel数据
  • 15、es整合hbase实现将数据保存到es里面去
  • 16、es整合hbase实现将数据保存到hbase里面去
  • 17、es整合hbase实现数据的查询

阶段四 会员版(2.1)-大数据 Spark 内存计算系统

展开
第一章 会员版(2.1)-Scala语言
1-1 scala_语法基础
  • 01.学习目标
  • 02.scala语言简介
  • 03.scala开发环境安装
  • 04.scala解释器
  • 05.变量
  • 06.字符串
  • 07.数据类型与操作符
  • 08.条件表达式
  • 09.循环
  • 10.break和continue
  • 11.方法定义
  • 12.方法参数
  • 13.方法调用方式
  • 14.函数
  • 15.数组-定长数组
  • 16.数组-变长数组
  • 17.数组-遍历数组
  • 18.数组-常用算法
  • 19.元组
  • 20.不可变列表
  • 21.可变列表
  • 22.列表常用操作一
  • 23.列表常用操作二avi
  • 24.不可变集
  • 25.可变集
  • 26.映射
  • 27.iterator迭代器
  • 28.函数式编程-foreach方法
  • 29.函数式编程 -map方法
  • 30.函数式编程-flatMap方法
  • 31.函数式编程-filter方法
  • 32.函数式编程-排序
  • 33.函数式编程-groupBy
  • 34.函数式编程-reduce、fold
1-2 scala_类_对象
  • 01.学习目标
  • 02.类和对象-创建类和对象
  • 03.类和对象-定义成员变量
  • 04.类和对象-使用下划线初始化成员变量
  • 05.类和对象-定义成员方法
  • 06.类和对象-访问修饰符
  • 07.类和对象-主构造器
  • 08.类和对象-辅助构造器
  • 09.单例对象
  • 10.单例对象-工具类案例
  • 11.单例对象-main方法
  • 12.伴生对象
  • 13.伴生对象-apply方法
  • 14.继承
  • 15.override和super
  • 16.isInstanceOf和asInstanceOf.avi
  • 17.getClass和classOf
  • 18.抽象类_抽象方法
  • 19.匿名内部类
  • 20.特质-作为接口使用
  • 21.特质-定义具体方法
  • 22.特质-定义具体字段和抽象字段
  • 23.特质-使用trait实现模板模式
  • 24.特质-对象混入trait
  • 25.特质-trait实现调用链模式
1-3 scala_模式匹配_异常处理
  • 01.课程目标
  • 02.样例类
  • 03.样例类-样例类生成的方法
  • 04.样例对象
  • 05.模式匹配-简单模式匹配
  • 06.模式匹配-匹配类型
  • 07.模式匹配-守卫
  • 08.模式匹配-匹配样例类
  • 09.模式匹配-匹配集合
  • 10.模式匹配-变量声明中的模式匹配
  • 11.Option类型
  • 12.偏函数
  • 13.正则表达式
  • 14.异常处理-捕获异常
  • 15.异常处理-抛出异常
  • 16.提取器
  • 17.泛型-定义泛型方法
  • 18.泛型-定义泛型类
  • 19.泛型-上下界
  • 20.泛型-协变、逆变、非变
  • 21.Actor并发编程-Actor介绍
  • 22.Actor并发编程-创建Actor
  • 23.Actor并发编程-发送接收消息
  • 24.Actor并发编程-持续接收消息
  • 25.Actor并发编程-发送接收自定义消息(同步方式)
  • 26.Actor并发编程-发送接收自定义消息(异步无返回方式)
  • 27.Actor并发编程-发送接收自定消息(异步有返回消息)
  • 28.WordCount案例 - 思路分析
  • 29.WordCount案例 - 获取文件列表
  • 30.WordCount案例 - 创建WordCountActor
  • 31.WordCount案例 - 启动Actor、发送接收消息
  • 32.WordCount案例 - 消息统计文件单词计数
  • 33.WordCount案例 - 封装单词计数结果返回给mainactor
  • 34.WordCount案例 - 合并结果
1-4 scala_高阶函数
  • 01.今日目标
  • 02.高阶函数 - 作为值的函数
  • 03.高阶函数 - 匿名函数
  • 04.高阶函数 - 柯里化
  • 05.高阶函数 - 闭包
  • 06.隐式转换
  • 07.自动导入隐式转换
  • 08.隐式参数
  • 09.Akka - Akka简介
  • 10.Akka入门案例 - Maven项目构建
  • 11.Akka入门案例 - 创建并加载Actor
  • 12.Akka入门案例 - 发送接收消息
  • 13.Akka定时任务
  • 14.Akka进程间通信 - Worker实现
  • 15.Akka进程间通信 - Master实现
  • 16.简易Spark通信框架 - 实现思路
  • 17.简易Spark通信框架 - 工程搭建
  • 18.简易Spark通信框架 - 构建master和worker
  • 19.简易Spark通信框架 - worker注册阶段实现
  • 20.简易Spark通信框架 - worker定时发送心跳消息
  • 21.简易Spark通信框架 - master定时心跳检测阶段
  • 22.简易Spark通信框架 - 多个worker测试阶段
第二章 会员版(2.1)-Spark入门以及集群搭建
2-1 Spark入门以及集群搭建
  • 01_Spark概述_目标
  • 02_Spark概述_Spark是什么
  • 03_Spark概述_Spark的特点
  • 04_Spark概述_Spark的组成
  • 05_Spark集群搭建_Spark集群结构
  • 06_Spark集群搭建_Spark集群结构_扩展
  • 07_Spark环境搭建_下载和解压Spark安装包
  • 08_Spark环境搭建_配置HistoryServer
  • 09_Spark集群搭建_分发和启动
  • 10_Spark集群搭建_高可用配置
  • 11_Spark集群搭建_第一个案例
  • 12_Spark入门_代码编写方式
  • 13_Spark入门_SparkShell本地文件读取
  • 14_Spark入门_执行过程
  • 15_Spark入门_读取HDFS上的文件
  • 16_Spark入门_独立应用编写
  • 17_Spark入门_独立应用的运行方式
  • 18_RDD入门_RDD是什么
  • 19_RDD入门_SparkContext
  • 20_RDD入门_创建RDD的三种方式
  • 21_RDD入门_Map算子
  • 22_RDD入门_FlatMap算子
  • 23_RDD入门_ReduceByKey算子
第三章 会员版(2.1)-spark_rdd算子
3-1 RDD_定义_转换算子
  • 01_深入RDD_课程结构
  • 02_深入RDD_初始案例_步骤
  • 03_深入RDD_初始案例_代码编写
  • 04_深入RDD_问题_如何运行在集群中
  • 05_深入RDD_问题_分解和容错
  • 06_深入RDD_定义_出现的背景
  • 07_深入RDD_定义_RDD的特点
  • 08_深入RDD_定义_什么叫做弹性分布式数据集
  • 09_深入RDD_定义_五大属性
  • 10_RDD算子_分类
  • 11_RDD算子_转换_回顾
  • 12_RDD算子_转换_mapPartitions
  • 13_RDD算子_转换_Filter
  • 14_RDD算子_转换_Sample
  • 15_RDD算子_转换_mapValues
  • 16_RDD算子_转换_集合操作
  • 17_RDD算子_转换_groupByKey
  • 18_RDD算子_转换_combineByKey
  • 19_RDD算子_转换_foldByKey
  • 20_RDD算子_转换_aggregateByKey
  • 21_RDD算子_转换_join
  • 22_RDD算子_转换_排序
  • 23_RDD算子_转换_重分区
  • 24_RDD算子_转换_总结
3-2 RDD_action算子_分区_缓存
  • 01_RDD算子_Action_reduce
  • 02_RDD算子_Action_foreach
  • 03_RDD算子_Action_countByKey
  • 04_RDD算子_Action_take
  • 05_RDD算子_Action_总结
  • 06_RDD算子_KV类型的支持
  • 07_RDD算子_数字型的支持
  • 08_阶段练习_需求介绍和明确步骤
  • 09_阶段练习_代码编写
  • 10_阶段练习_总结
  • 11_RDD的分区和Shuffle_介绍
  • 12_RDD的分区和Shuffle_查看分区
  • 13_RDD的分区和Shuffle_创建RDD时指定分区数
  • 14_RDD的分区和Shuffle_通过算子重分区
  • 15_RDD的分区和Shuffle_通过其他算子指定分区数
  • 16_RDD的分区和Shuffle_Shuffle过程扫盲
  • 17_RDD的缓存_缓存的意义_案例介绍
  • 18_RDD的缓存_缓存的意义_过程代码
  • 19_RDD的缓存_缓存的意义_结论
  • 20_RDD的缓存_缓存的API
  • 21_RDD的缓存_缓存级别
  • 22_Checkpoint_意义
  • 23_Checkpoint_使用
第四章 会员版(2.1)-Spark原理_运行过程_高级特性
4-1 Spark原理_运行过程_高级特性
  • 01_Spark原理_概述和思路
  • 02_Spark原理_总体介绍_概要
  • 03_Spark原理_总结介绍_案例编写
  • 04_Spark原理_总体介绍_集群环境
  • 05_Spark原理_总体介绍_逻辑执行图
  • 06_Spark原理_总体介绍_物理执行图
  • 07_Spark原理_逻辑图_HadoopRDD的生成
  • 08_Spark原理_逻辑图_MapPartitionsRDD
  • 09_Spark原理_逻辑图_小结
  • 10_Spark原理_逻辑图_RDD之间的关系_一对一
  • 11_Spark原理_逻辑图_RDD之间的关系_多对一
  • 12_Spark原理_逻辑图_窄依赖_案例
  • 13_Spark原理_逻辑图_窄依赖_分析
  • 14_Spark原理_逻辑图_宽依赖_分析
  • 15_Spark原理_逻辑图_宽窄依赖判断
  • 16_Spark原理_逻辑图_窄依赖的分类_看源码
  • 17_Spark原理_逻辑图_窄依赖的分类_分析
  • 18_Spark原理_逻辑图_总结
  • 19_Spark原理_物理图_介绍
  • 20_Spark原理_物理图_Task设计
  • 21_Spark原理_物理图_Stage划分
  • 22_Spark原理_物理图_案例总结
  • 23_Spark原理_运行过程_概念介绍
  • 24_Spark原理_运行过程_Job和Stage的关系
  • 25_Spark原理_运行过程_Stage和Task的关系
  • 26_Spark原理_运行过程_总结和流程
  • 27_高级特性_闭包_概念
  • 28_高级特性_闭包_Spark闭包分发
  • 29_高级特性_累加器
  • 30_高级特性_广播
第五章 会员版(2.1)-sparksql
5-1 SparkSQL_使用场景_优化器_Dataset
  • 01_SparkSQL是什么_命令式和声明式的区别
  • 02_SparkSQL是什么_历史和重要性
  • 03_SparkSQL是什么_适用场景
  • 04_SparkSQL初体验_命令式案例
  • 05_SparkSQL初体验_Dataset和DataFrame
  • 06_SparkSQL初体验_SQL案例
  • 07_扩展_Catalyst优化器_SparkSQL和RDD的区别
  • 08_扩展_Catalyst优化器_优化过程
  • 09_扩展_Catalyst优化器_查看计划
  • 10_Dataset介绍_Dataset是什么
  • 11_Dataset介绍_Dataset底层类型
  • 12_Dataset介绍_将Dataset转为同泛型的RDD
  • 13_DataFrame介绍_DataFrame是什么
  • 14_DataFrame介绍_创建_toDF
  • 15_DataFrame介绍_创建_read
  • 16_DataFrame介绍_操作
  • 17_Dataset和DataFrame的区别_区别
  • 18_Dataset和DataFrame的区别_Row对象
5-2 SparkSQL读写_hive_mysql_案例
  • 01_SparkSQL读写_介绍
  • 02_SparkSQL读写_Reader
  • 03_SparkSQL读写_Writer
  • 04_SparkSQL读写_Parquet
  • 05_SparkSQL读写_分区
  • 06_SparkSQL读写_JSON
  • 07_SparkSQL读写_JSON小技巧
  • 08_SparkSQL读写_Hive_整合
  • 09_SparkSQL读写_Hive_创建Hive表
  • 10_SparkSQL读写_Hive_读取Hive表
  • 11_SparkSQL读写_Hive_SparkSQL创建Hive表
  • 12_SparkSQL读写_Hive_写入数据_配置
  • 13_SparkSQL读写_Hive_写入数据_编码和运行
  • 14_SparkSQL读写_JDBC_MySQL环境准备
  • 15_SparkSQL读写_JDBC_写入数据
5-3 Dataset (DataFrame) 的基础操作
  • 01_有类型转换_map
  • 02_有类型转换_transform_
  • 03_有类型转换_as
  • 04_有类型转换_filter
  • 05_有类型转换_groupByKey
  • 06_有类型转换_split_
  • 07_有类型转换_orderBy
  • 08_有类型转换_去重
  • 09_有类型转换_集合操作
  • 10_无类型转换_选择
  • 11_无类型转换_列操作
  • 12_无类型转换_groupBy
  • 13_Column对象_创建1
  • 14_Column对象_创建_有绑定
  • 15_Column对象_操作_别名和类型
  • 16_Column对象_操作_API
  • 17_缺失值处理_什么是缺失值
  • 18_缺失值处理_null&NaN_读取文件
  • 19_缺失值处理_null&NaN_处理
  • 20_缺失值处理_字符串缺失值
5-4 SparkSQL_聚合操作_连接操作
  • 01_聚合操作_groupBy_数据读取
  • 02_聚合操作_groupBy_聚合操作
  • 03_聚合操作_多维聚合_需求介绍
  • 04_聚合操作_多维聚合_编写代码
  • 05_聚合操作_多维聚合_rollup
  • 06_聚合操作_多维聚合_rollup案例
  • 07_聚合操作_多维聚合_cube
  • 08_聚合操作_多维聚合_cubeSQL
  • 09_聚合操作_多维聚合_GroupedDataset
  • 10_连接操作_入门_介绍
  • 11_连接操作_入门_案例
  • 12_连接操作_连接类型_cross
  • 13_连接操作_连接类型_inner
  • 14_连接操作_连接类型_fullouter
  • 15_连接操作_连接类型_left
  • 16_连接操作_连接类型_semi&anti
  • 17_函数_UDF
  • 18_函数_窗口1
  • 19_函数_窗口2
5-5 SparkSQL_出租车利用率分析案例
  • 01_项目分析_业务场景
  • 02_项目分析_流程分析
  • 03_工程搭建_创建
  • 04_工程搭建_读取数据
  • 05_数据清洗_思路和步骤
  • 06_数据清洗_创建Trip类
  • 07_数据清洗_包装Row处理空值
  • 08_数据清洗_数据转换
  • 09_数据清洗_异常处理_Either
  • 10_数据清洗_异常处理_完成逻辑
  • 11_数据清洗_转换完成
  • 12_数据清洗_剪除反常数据_统计分布
  • 13_数据清洗_剪除反常数据
  • 14_行政区信息_介绍
  • 15_行政区信息_JSON解析
  • 16_行政区信息_GeoJSON介绍
  • 17_行政区信息_JSON解析实现
  • 18_行政区信息_Geometry实现
  • 19_行政区统计_功能实现
  • 20_会话统计_得出结果
第六章 会员版(2.1)-SparkStreaming原理_运行过程_高级特性
6-1 SparkStreaming_原理_案例
  • 01_SparkStreaming介绍_场景
  • 02_SparkStreaming介绍_流计算和批计算的区别
  • 03_SparkStreaming介绍_架构
  • 04_SparkStreaming介绍_特点
  • 05_SparkStreaming案例_Socket回顾
  • 06_SparkStreaming案例_Netcat
  • 07_SparkStreaming案例_创建工程
  • 08_SparkStreaming案例_代码编写
  • 09_SparkStreaming案例_运行
  • 10_SparkStreaming案例_解释说明
  • 11_SparkStreaming原理_问题提出
  • 12_SparkStreaming原理_DStream的有向无环图
  • 13_SparkStreaming原理_DStream的静态和动态
  • 14_SparkStreaming原理_Receiver
  • 15_SparkStreaming原理_容错
第七章 会员版(2.1)-Structured Streaming_介绍_案例
7-1 Structured Streaming_介绍_案例
  • 01_Structured_介绍_历史更迭
  • 02_Structured_介绍_序列化更迭
  • 03_Structured_介绍_对比
  • 04_Structured_案例_介绍
  • 05_Structured_案例_代码编写
  • 06_Structured_案例_运行和总结
  • 07_Structured_体系结构_无限扩展的表
  • 08_Structured_体系结构
  • 09_Structured_Source_HDFS_案例介绍
  • 10_Structured_Source_HDFS_生成并上传文件到HDFS
  • 11_Structured_Source_HDFS_Spark代码
  • 12_Structured_Source_Kafka_回顾
  • 13_Structured_Source_Kafka_整合
  • 14_Structured_Source_Kafka_需求
  • 15_Structured_Source_Kafka_连接
  • 16_Structured_Sink_HDFS
  • 17_Structured_Sink_Kafka
  • 18_Structured_Sink_Foreach
  • 19_Structured_Sink_Trigger
  • 20_Structured_Sink_容错语义

阶段五 会员版(2.1)-大数据 Spark 内存计算系统项目实战

展开
第一章 会员版(2.1)-Kudu入门_项目介绍_ CDH搭建
1-1 Kudu入门_原理_ CDH搭建
  • 01_Kudu入门_应用场景_项目介绍
  • 02_Kudu入门_应用场景_方案一
  • 03_Kudu入门_应用场景_方案二
  • 04_Kudu入门_应用场景_方案三
  • 05_Kudu入门_应用场景_Kudu
  • 06_Kudu入门_对比_OLAP和OLTP
  • 07_Kudu入门_对比_列式和行式
  • 08_Kudu入门_对比
  • 09_Kudu原理_Kudu是什么
  • 10_Kudu原理_总体设计
  • 11_Kudu原理_各个角色的作用
  • 12_Kudu原理_存储原理
  • 13_CDH搭建_创建虚拟机
  • 14_CDH搭建_安装CentOS
  • 15_CDH搭建_网络配置
  • 16_CDH搭建_时间同步
  • 17_CDH搭建_主机名修改
  • 18_CDH搭建_关闭SELinux
  • 19_CDH搭建_关闭防火墙
  • 20_CDH搭建_免密登录
  • 21_CDH搭建_安装Java
  • 22_CDH搭建_仓库搭建_仓库下载
  • 23_CDH搭建_仓库搭建_配置仓库服务器和源
第二章 会员版(2.1)-Kudu_javaApi使用_Spark整合
2-1 Kudu_javaapi使用_Spark整合
  • 01_CDH搭建_Zookeeper(1)
  • 02_CDH搭建_Hadoop_安装包
  • 03_CDH搭建_Hadoop_HDFS_主节点
  • 04_CDH搭建_Hadoop_HDFS_从节点和总结
  • 05_CDH搭建_Hadoop_Yarn搭建
  • 06_CDH搭建_Hadoop_MySQL
  • 07_CDH搭建_Hive_安装和创建用户
  • 08_CDH搭建_Hive_搭建完成
  • 09_CDH搭建_Kudu
  • 10_CDH搭建_Impala
  • 11_CDH搭建_Hue
  • 12_Kudu使用_创建工程
  • 13_Kudu使用_JavaAPI_创建表
  • 14_Kudu使用_JavaAPI_插入数据
  • 15_Kudu使用_JavaAPI_扫描
  • 16_KuduSpark_DDL
  • 17_KuduSpark_CRUD
  • 18_KuduSpark_DF优势
  • 19_KuduSpark_DF读写Kudu表
  • 20_KuduSpark_Impala访问Kudu
第三章 会员版(2.1)-DMP项目_业务介绍_框架搭建
3-1 DMP项目_业务介绍_框架搭建
  • 01_业务介绍_概念
  • 02_业务介绍_AdNetwork
  • 03_业务介绍_AdExchange
  • 04_业务介绍_RTB
  • 05_业务介绍_DMP介绍
  • 06_方案_技术方案
  • 07_方案_我们能学到什么
  • 08_方案_数据集介绍
  • 09_框架搭建_创建工程
  • 10_框架搭建_需求介绍
  • 11_框架搭建_配置文件加载
  • 12_框架搭建_配置文件工具类思路介绍
  • 13_框架搭建_配置文件工具类编写
  • 14_框架搭建_Kudu工具类_介绍
  • 15_框架搭建_Kudu工具类_隐式转换
  • 16_框架搭建_Kudu工具类_创建表
  • 17_框架搭建_Kudu工具类_读取表
  • 18_框架搭建_Kudu工具类_写入数据
第四章 会员版(2.1)-DMP项目_IP转换_报表统计
4-1 DMP项目_IP转换_报表统计
  • 01_IP转换_IP2Region
  • 02_IP转换_GeoLite
  • 03_IP转换_框架设计
  • 04_IP转换_环境准备
  • 05_IP转换_思路梳理
  • 06_IP转换_功能实现
  • 07_IP转换_数据落地
  • 08_报表统计_数据的区域分布_环境准备
  • 09_报表统计_数据的区域分布_代码开发
  • 10_报表统计_执行框架_设计
  • 11_报表统计_执行框架_框架编写
  • 12_报表统计_执行框架_旧模块改造
  • 13_报表统计_广告投放统计_需求介绍
  • 14_报表统计_广告投放统计_代码实现
第五章 会员版(2.1)-DMP项目_实现商圈库功能
5-1 DMP项目_实现商圈库功能
  • 01_商圈库_思路梳理
  • 02_商圈库_Http_TCP
  • 03_商圈库_Http_协议
  • 04_商圈库_Http_请求方式
  • 05_商圈库_Http_Http工具
  • 06_商圈库_Http_Okhttp使用和封装
  • 07_商圈库_Json_介绍
  • 08_商圈库_Json_JSON4S
  • 09_商圈库_Json_工具类
  • 10_商圈库_功能_环境代码编写
  • 11_商圈库_功能_思路
  • 12_商圈库_功能_UDF实现功能
  • 13_商圈库_功能_求差获取商圈
  • 14_商圈库_功能_完成
第六章 会员版(2.1)-DMP项目_统一识别
6-1 DMP项目_统一识别
  • 01_打标签_环境准备
  • 02_打标签_生成标签
  • 03_打标签_完成
  • 04_统一识别_图计算
  • 05_统一识别_定义类型
  • 06_统一识别_图计算
  • 07_统一识别_标签聚合
  • 08_统一识别_完成

阶段六 会员版(2.1)-大数据 flink 实时计算系统

展开
第一章 会员版(2.1)-Flink基础
1-1 Flink基础介绍
  • 01_学习目标
  • 02_Flink介绍_Flink引入
  • 03_Flink介绍_什么是Flink
  • 04_Flink介绍_性能比较
  • 05_Flink和阿里巴巴
  • 06_Flink部署_伪集群模式安装
  • 07_Flink部署_StandAlone集群模式安装
  • 08_Flink部署_StandAlone集群HA模式安装
  • 09_Flink部署_Yarn集群环境
  • 10_Flink部署_Yarn-session介绍_会话模式
  • 11_Flink部署_分离模式
  • 12_Flink基石介绍
  • 13_Flink组件栈
  • 14_Flink编程模型
  • 15_Flink程序结构
  • 16_Flink并行数据流
  • 17_任务调度与执行
  • 18_Flink统一的流处理与批处理
  • 19_Flink的应用场景
1-2 Flink批处理开发
  • 01_学习目标
  • 02_批处理环境搭建
  • 03_加载本地数据源
  • 04_加载文件数据源
  • 05_Transformation简介
  • 06_转换操作_map
  • 07_转换操作_flatmap
  • 08_转换操作_mapPartition
  • 09_转换操作_filter
  • 10_转换操作_reduce
  • 11_转换操作_reduceGruop
  • 12_转换操作_aggregate
  • 13_转换操作_distinct
  • 14_转换操作_union
  • 15_转换操作_rebalance
  • 16_转换操作_PartitionByHash
  • 17_转换操作_sortPartition
  • 18_落地操作_本地集合
  • 19_落地操作_本地文件
  • 20_Flink本地执行环境
  • 21_Flink集群执行环境
  • 22_广播变量
  • 23_Flink的累加器
  • 24_分布式缓存
1-3 Flink流处理开发
  • 01_学习目标
  • 02_数据源_集合
  • 03_数据源_基于文件
  • 04_数据源_基于网络套接字
  • 05_数据源_自定义source
  • 06_数据源_Kafka
  • 07_数据源_MySQL
  • 08_转换操作_keyBy
  • 09_转换操作_Connect
  • 10_转换操作_Split和select
  • 11_数据落地_Kafka
  • 12_数据落地_MySql
  • 13_Window操作_什么是Window
  • 14_Window操作_时间窗口介绍
  • 15_Window操作_TumblingTimeWindow
  • 16_Window操作_SlidingTimeWindow
  • 17_Window操作_CountWindow
  • 18_Window操作_ apply
  • 19_水印机制_时间类型
  • 20_水印机制_介绍
  • 21_水印机制_代码实现
第二章 会员版(2.1)-Flink 高级进阶
2-1 Flink高级开发
  • 01_学习目标
  • 02_State介绍
  • 03_Keyed State介绍
  • 04_Operate State介绍
  • 05_CheckPoint介绍
  • 06_Barrier介绍
  • 07_Checkpoint持久化方案
  • 08_CheckPoint案例介绍
  • 09_CheckPoint案例开发-自定义数据源
  • 10_CheckPoint案例开发-自定义状态
  • 11_CheckPoint案例开发-自定义Window和检查点
  • 12_CheckPoint案例开发-主业务
  • 13_FlinkSql_介绍
  • 14_Table API和SQL程序的结构
  • 15_FlinkSql_入门案例_DataStream或DataSet转换为表格
  • 16_FlinkSql_入门案例_表转换为DataStream
  • 17_FlinkSql_入门案例_表转换为DataSet
  • 18_FlinkSql_批处理案例1
  • 19_FlinkSql_批处理案例2
  • 20_FlinkSql_流处理案例

阶段七 会员版(2.1)-大数据 flink 项目实战

展开
第一章 会员版(2.1)-Flink电商指标分析项目
1-1 项目简介以及上报服务系统开发
  • 01_项目简介
  • 02_项目流程介绍
  • 03_项目的技术选型
  • 04_IDEA工程搭建
  • 05_SpringBoot简介
  • 06_SpringBoot入门案例
  • 07_Kafka-Manager安装
  • 08_KafkaTemplate创建
  • 09_KafkaTemplate测试
  • 10_自定义分区
  • 11_上报服务模块编写
  • 12_消息模拟器
1-2 Flink整合kafka开发
  • 13_实时分析系统介绍
  • 14_ConfigFactory使用
  • 15_初始化Flink流式环境
  • 16_添加checkpoint的支持
  • 17_整合Kafka
  • 18_消息转换为元组
  • 19_消息转换为样例类ClickLog
  • 20_消息转换为样例类Message
  • 21_添加水印支持
1-3 HBaseUtil工具类开发
  • 01_HBase工具类介绍
  • 02_HBaseUtil基本设置
  • 03_HBaseUtil之getTable编写
  • 04_HBaseUtil之putData
  • 05_HBaseUtil之getData
  • 06_HBaseUtil之putMapData
  • 07_HBaseUtil之getMapData
  • 08_HBaseUtil之deleteData
1-4 实时数据业务分析开发
  • 09_业务开发流程介绍
  • 10_实时数据预处理_创建宽表样例类
  • 11_实时数据预处理_扩宽地域时间
  • 12_实时数据预处理_扩宽isNew
  • 13_实时数据预处理_扩宽isHourNew_isDayNew_isMonthNew
  • 14_业务分析_实时频道热点
  • 15_业务分析_实时频道热点_落地HBase
  • 16_业务分析_频道小时维度PVUV
  • 17_业务分析_频道天月维度PVUV
  • 18_业务分析_用户新鲜度
  • 19_业务分析_用户新鲜度_落地HBase
  • 1_业务分析_模板方法抽取BaseTask
  • 2_业务分析_重构新鲜度分析
  • 3_业务分析_频道地域
  • 4_业务分析_频道地域落地HBase
  • 5_业务分析_运营商分析
  • 6_业务分析_运营商分析_落地HBase
  • 7_业务分析_浏览器分析
1-5 实时数据同步系统开发
  • 8_实时同步系统介绍
  • 9_采集方案_LogStash介绍
  • 10_采集方案_Canal介绍
  • 11_数据库采集系统介绍
  • 12_MySql离线安装
  • 13_MySql开启binlog
  • 14_MySql主从复制介绍
  • 15_Cananl原理介绍
  • 16_Canal安装
  • 17_Canal采集程序搭建【废弃待重录】
  • 01_binlog说明
  • 02_Flink实时同步应用开发介绍
  • 03_项目初始化
  • 04_Flink初始化
  • 05_Flink整合Kafka
  • 06_消息转换为Canal样例类
  • 07_添加水印
  • 08_HBaseOperation样例类
  • 09_Canal转HBaseOperation介绍
  • 10_PreprocessTask开发
  • 11_Canal数据存储到HBase
1-6 Flink离线分析系统开发
  • 12_离线分析系统简介
  • 13_初始化Flink批处理环境
  • 14_导入测试数据
  • 15_整合HBase
  • 16_测试读取HBase表数据_解决版本冲突
  • 17_JSON转换为样例类
  • 18_数据预处理_拓宽时间字段
  • 19_业务分析_不同支付方式
  • 20_业务分析_不同商家
  • 21_项目总结

阶段八 会员版(2.1)-大数据新技术实战详解

展开
第一章 会员版(2.1)-druid
1-1 druid_集群搭建_架构
  • 1-druid介绍
  • 2-druid单机版安装
  • 3-druid单机版加载&查询数据
  • 4-druid重要概念roll-up
  • 5-druid重要概念-列式存储
  • 6-druid中的datasource与segment概念介绍
  • 7-segment的存储结构
  • 8-druid中的位图索引
  • 9-druid架构及原理介绍
  • 10druid集群搭建-historical配置
  • 11druid集群搭建-middlemanager配置
  • 12-druid集群搭建-broker节点配置
  • 13-druid集群搭建coordinator&overlord
  • 14-druid集群搭建启动验证
  • 15-druid离线-本地索引方式加载数据
  • 16-druid离线-hadoopdruidindexer方式摄取数据
  • 17-druid-实时摄取数据-kafkaindexingservice
1-2 druid_数据查询_广告点击项目案例开发
  • 01-druid数据查询-filter-selector
  • 2-正则过滤器(regexfilter)
  • 03-druid数据查询-(logical expression filter)
  • 04-druid数据查询-filter-in过滤器
  • 05-druid数据查询(boundfilter)
  • 06-granularity-simple
  • 07-granularity(duration&period)
  • 08-aggregator之countAggregator&sumAggregator
  • 09-aggregator-Min&MaxAggregator
  • 10-aggregator-去重聚合器datasketch-aggregator
  • 11-postAggregator-点击率
  • 12-时间序列查询
  • 13-topN查询
  • 14-groupBy查询
  • 15-druid项目介绍
  • 16-druid项目日志模拟程序
  • 17-模拟程序发送日志数据到kafka
  • 18-项目案例预处理
  • 19-flink生产消息到kafka
  • 20-druid从kafka实时摄取数据
  • 21-项目案例可视化

阶段九 会员版(2.0)-机器学习 (拓展课程)

展开
第一章 就业课(2.0)-机器学习入门
1-1 机器学习概念入门
  • 01-机器学习基础-课程设置及大数据和机器学习区别
  • 02-机器学习基础-大数据时代究竟改变了什么
  • 03-机器学习基础-大数据架构体系和机器学习在大数据架构位置
  • 04-机器学习基础-以推荐系统为例
  • 05-机器学习基础-人工智能应用场景
  • 06-机器学习基础-人工智能各概念的区别和联系
  • 07-机器学习基础-什么是机器学习问题
  • 08-机器学习基础-基于规则的学习和基于模型的学习
  • 09-机器学习基础-机器学习各概念详解
  • 10-机器学习基础-机器学习概念补充及分类浅析
  • 11-机器学习基础-监督学习详解
  • 12-机器学习基础-无监督学习详解
  • 13-机器学习基础-半监督学习详解
  • 14-机器学习基础-强化学习和迁移学习
  • 15-机器学习基础-机器学习三要素理解
  • 16-机器学习基础-机器学习模型选择
  • 17-机器学习基础-进入机器学习最佳时机
1-2 机器学习数学基础
  • 01-高中基础
  • 02-sigmod函数求导
  • 03-tanh函数
  • 04-凸函数
  • 05-机器学习高数必备
第二章 会员版(2.0)-就业课(2.0)-机器学习语言基础之Python语言
2-1 机器学习语言基础之Python语言(上)
  • 01.课前小序
  • 02-机器学习语言基础-昨日回顾
  • 03-机器学习语言基础-昨日回顾(2)
  • 04-机器学习语言基础-昨日补充
  • 05-机器学习语言基础-Python基础介绍
  • 06-机器学习语言基础-Python安装及第三方库使用
  • 07-机器学习语言基础-安装Anaconda及组件介绍
  • 08-机器学习语言基础-jupyter详解
  • 09-机器学习语言基础-Pycharm和Anaconda整合
  • 10-机器学习语言基础-Python3编码和解码原理
  • 11-机器学习语言基础-包的导入多种形式
  • 12-机器学习语言基础-Python数据类型
  • 13-机器学习语言基础-Python随机数和常变量表示
  • 14-机器学习语言基础-Python输入详解
  • 15-机器学习语言基础-Python格式化输出
  • 16.机器学习语言-Python快捷键详解
2-2 机器学习语言基础之Python语言(下)
  • 01-机器学习基础-昨日回顾
  • 02-机器学习基础-四大数据结构详解
  • 03-机器学习基础-list集合
  • 04-机器学习基础-list函数详解
  • 05-机器学习基础-tuple函数详解
  • 06-机器学习基础-dict数据结构详解
  • 07-机器学习基础-dict函数详解
  • 08-机器学习基础-集合的内容
  • 09-机器学习基础-列表表达式
  • 10-机器学习基础-元祖和生成器推导式
  • 11-机器学习语言基础-函数类型详解
  • 12-机器学习语言基础-函数参数类型
  • 13-机器学习语言基础-lambda和reduce含糊
  • 14-机器学习语言基础-条件控制语句
  • 15-机器学习语言基础-文件读写异常信息
  • 16-机器学习语言基础-面向对象过程
  • 17-机器学习语言基础-GUI程序设计
第三章 会员版(2.0)-就业课(2.0)-Python数据分析库实战
3-1 Python数据分析库实战(上)
  • 1-机器学习基础-昨日回顾及作业1
  • 2-机器学习基础-卷积操作实践1
  • 3-机器学习基础-卷积操作实践2
  • 4-机器学习基础-随机数创建方式
  • 5-机器学习基础-array创建方式
  • 6-机器学习基础-矩阵的其他创建方式
  • 8-机器学习基础-矩阵的分析方法
  • 9-机器学习基础-矩阵的运算及分解实战详解
  • 10-机器学习基础-Series
  • 11-机器学习基础-DataFrame的详解
  • 12-机器学习基础-Pandas统计计算实践
  • 13-机器学习基础-Pandas的读取文件操作
3-2 Python数据分析库实战(下)
  • 01-机器学习语言基础-昨日回顾及今日重点
  • 02-机器学习语言基础-矩阵基础知识详解
  • 03-机器学习语言基础-了解其他矩阵
  • 04-机器学习语言基础-矩阵分解
  • 05-机器学习语言基础-特征降维及PCA引入
  • 06-机器学习语言基础-新坐标基的表示
  • 07-机器学习语言基础-PCA算法思想及步骤
  • 08-机器学习语言基础-PCA算法举例
  • 09-机器学习语言基础-PCA实践
  • 10-机器学习语言基础-matplotlib绘图基础
  • 11-机器学习语言基础-Matlotlib绘制不同图形
  • 12-机器学习语言基础-Grid和legend实战
  • 13-机器学习语言基础-基础方式绘制图形
  • 14-机器学习语言-面相对象方式绘制及总结
第四章 会员版(2.0)-就业课(2.0)-用户标签预测项目实战
4-1 用户画像标签预测实战
  • 01-机器学习应用-昨日回顾与今日重点
  • 02-机器学习应用-用户画像基础回顾
  • 03-机器学习应用-理解用户画像数据
  • 04-机器学习应用-应用标签系统
  • 05-机器学习应用-用户画像建模基础
  • 06-机器学习应用-决策时引入
  • 07-机器学习应用-基于规则建树
  • 08-机器学习应用-构建决策树三要素及熵定义
  • 09-机器学习应用-ID3算法及改进
  • 10-机器学习应用-剪枝
  • 11-机器学习应用-如何计算信息增益举例
  • 12-机器学习应用-相亲数据集实战
  • 13-机器学习应用-相亲数据集实践改进
  • 14-机器学习应用-iris鸢尾花识别
  • 15-机器学习应用-手写体识别数据
4-2 集成学习算法
  • 01-数据挖掘实战-昨日回顾1
  • 02-数据挖掘实战-昨日回顾2
  • 03-数据挖掘实战-Gini系数详解
  • 04-数据挖掘实战-Cart树举例
  • 05-数据挖掘实战-Gini系数演变过程
  • 06-数据挖掘实战-集成学习分类
  • 07.数据挖掘实战-随机森林原理详解
  • 08-数据挖掘实战-Bagging算法
  • 09-数据挖掘实战-模型偏差和方差理解
  • 10-数据挖掘实战-Adaboost算法详解
  • 11-Adaboost算法数学原理
  • 12-数据挖掘实战-Adaboost算法原理举例
  • 13-数据挖掘实战-Adaboost算法推广到多分类
  • 14-数据挖掘实战-GBDT算法了解
  • 15-数据挖掘实战-实战
4-3 数据挖掘项目:构建人才(用户)流失模型
  • 01-数据挖掘项目-昨日回顾
  • 02-数据挖掘项目-昨日回顾2
  • 03-数据挖掘项目-项目需求说明及架构
  • 04-数据挖掘项目-数据导入及分析
  • 05-数据挖掘项目-数据展现
  • 06-数据挖掘项目-不同类型数据的处理及数据切分
  • 07-数据挖掘项目-类别型数据处理
  • 08-数据挖掘项目-类别型数据的DictVec处理
  • 09-数据挖掘项目-特征组合以及建模
  • 10-数据挖掘项目-不平衡数据处理
第五章 会员版(2.0)-就业课(2.0)-推荐系统
5-1 推荐系统入门
  • 01-推荐系统-昨日回顾及总结
  • 02-推荐系统-模型保存
  • 03-推荐系统-交叉验证方法
  • 04-推荐系统-网格搜索
  • 05-推荐系统-管道pipeline
  • 06-推荐系统-什么是推荐系统及了解推荐引擎
  • 07-推荐系统-推荐系统算法简介
  • 08-推荐系统-用户的相似度和物品相似度度量
  • 09-推荐系统-相似度计算
  • 10-推荐系统-UserCF
  • 11-推荐系统-itemCF
  • 12-推荐系统-UserCF和ItemCF区别和联系
  • 13-推荐系统-代码讲解
  • 14-推荐系统-UserCF代码实战
  • 15-推荐系统-ItemCF
  • 16-推荐系统-架构设计
5-2 推荐案例实战(上)
  • 01-推荐系统-昨日回顾及重点
  • 02-推荐系统-基于KNN推荐详解
  • 03-推荐系统-基于surprise库API实践
  • 04-推荐系统-基于surprise电影推荐
  • 05-推荐系统-基于SVD分解
  • 06-推荐系统-音乐推荐
  • 07-推荐系统-SaprkMllib简介
  • 08-推荐系统-SparkMLLIB的Vec
  • 09-推荐系统-SparkMLLIB基本数据类型及统计量实现
  • 10-推荐系统-SparkMLLIB特征处理
  • 11-推荐系统-SparkMLLIB随机森林及GBDT
  • 12-推荐系统-LFM隐因子分解理论基础
  • 13-推荐系统-SparkALS推荐
  • 14-推荐系统-SparkALS代码实战
  • 15-推荐系统-电商数据推荐案例实战
5-3 推荐案例实战(下)
  • 01-推荐算法-昨日回顾
  • 02-推荐算法-基于知识的推荐简介
  • 03-推荐算法-使用关联挖掘算法的基础概念
  • 04-推荐算法-Apriori算法
  • 05-推荐算法-候选项集产生其他方法
  • 06-推荐算法-Apriori算法举例
  • 07-推荐算法-Aprori算法和FPGrowth算法总结
  • 08-推荐算法-FPGrowth算法Spark实现详解
  • 09-推荐算法-FPGrowth实战推荐算法项目
  • 10-推荐算法-基于内容的推荐简介
  • 11-推荐算法-朴素贝叶斯算法及推荐适应
  • 12-推荐算法-图数据库
第六章 会员版(2.0)-就业课(2.0)-CTR点击率预估实战
6-1 CTR点击率预估实战
  • 01-推荐算法-昨日回顾
  • 02-推荐系统-Ctr业务描述
  • 02-推荐系统-混合推荐算法(架构)
  • 03-推荐系统-推荐系统评测方法
  • 04-推荐系统-推荐项目实例简介
  • 05-推荐系统-天池比赛
  • 06-推荐系统-LR基础
  • 07-推荐系统-LR原理详解
  • 08-推荐系统-各大平台使用Ctr技术架构
  • 09-推荐系统-Ctr的前沿技术
第七章 会员版(2.0)-就业课(2.0)-机器学习面试必备
7-1 机器学习面试必备
  • 10-推荐系统-简历写法及注意事项