admin 发表于 2021-2-16 18:52:06

W门大学-3528元-人工智能、大数据与复杂系统

W门大学-3528元-人工智能、大数据与复杂系统

[*]宣传片
[*]第 1 讲宣传片

[*]1.1宣传片

[*]第 2 讲复杂系统

[*]2.1物理预测的胜利与失效
[*]2.2预测失效原因
[*]2.3复杂系统引论
[*]2.4生活实例与本章答疑

[*]第 3 讲大数据与机器学习

[*]3.1大数据预测因为噪声失效
[*]3.2大数据与机器学习

[*]第 4 讲人工智能的三个阶段

[*]4.1规则阶段
[*]4.2机器学习阶段发展至连接主义阶段
[*]4.3课间答疑
[*]4.4连接主义阶段发展至深度学习阶段
[*]4.5三个阶段总结分析
[*]4.6人工智能的应用(一)
[*]4.7人工智能的应用(二)
[*]4.8课间答疑
[*]4.9课程大纲(一)
[*]4.10课程大纲(二)

[*]第 5 讲高等数学—元素和极限

[*]5.1实数的定义(一)
[*]5.2实数的定义(二)
[*]5.3实数的定义(三)
[*]5.4实数的元素个数(一)
[*]5.5实数的元素个数(二)
[*]5.6自然数个数少于实数个数(一)
[*]5.7自然数个数少于实数个数(二)
[*]5.8无穷大之比较(一)
[*]5.9无穷大之比较(二)
[*]5.10级数的收敛
[*]5.11极限的定义
[*]5.12极限的四则运算
[*]5.13极限的复合
[*]5.14连续性

[*]第 6 讲复杂网络经济学应用

[*]6.1用网络的思维看经济结构
[*]6.2复杂网络认识前后
[*]6.3从网络结构看不同地区(一)
[*]6.4从网络结构看不同地区(二)

[*]第 7 讲机器学习与监督算法

[*]7.1什么是机器学习
[*]7.2机器学习的类型
[*]7.3简单回归实例(一)
[*]7.4简单回归实例(二)
[*]7.5简单回归实例(三)

[*]第 8 讲阿尔法狗与强化学习算法

[*]8.1人工智能的发展
[*]8.2强化学习算法(一)
[*]8.3强化学习算法(二)
[*]8.4强化学习算法(三)
[*]8.5Alphago给我们的启示
[*]8.6无监督学习

[*]第 9 讲高等数学—两个重要的极限定理

[*]9.1元素与极限的知识点回顾
[*]9.2第一个重要极限定理的证明(一)
[*]9.3第一个重要极限定理的证明(二)
[*]9.4夹逼定理
[*]9.5第二个重要极限定理的证明

[*]第 10 讲高等数学—导数

[*]10.1导数的定义
[*]10.2初等函数的导数
[*]10.3反函数的导数(一)
[*]10.4反函数的导数(二)
[*]10.5复合函数的导数
[*]10.6泰勒展开
[*]10.7罗尔定理
[*]10.8微分中值定理和柯西中值定理
[*]10.9洛比塔法则
[*]10.10泰勒展开的证明

[*]第 11 讲贝叶斯理论

[*]11.1梯度优化(一)
[*]11.2梯度优化(二)
[*]11.3概率基础
[*]11.4概率与事件
[*]11.5贝叶斯推理(一)
[*]11.6贝叶斯推理(二)
[*]11.7贝叶斯推理(三)
[*]11.8辛普森案件
[*]11.9贝叶斯推理深入
[*]11.10贝叶斯于机器学习(一)
[*]11.11贝叶斯于机器学习(二)
[*]11.12贝叶斯决策(一)
[*]11.13贝叶斯决策(二)
[*]11.14贝叶斯决策(三)

[*]第 12 讲高等数学—泰勒展开

[*]12.1泰勒展开
[*]12.2展开半径
[*]12.3欧拉公式
[*]12.4泰勒展开求极限(一)
[*]12.5泰勒展开求极限(二)

[*]第 13 讲高等数学—偏导数

[*]13.1偏导数的对称性
[*]13.2链式法则
[*]13.3梯度算符、拉氏算符

[*]第 14 讲高等数学—积分

[*]14.1黎曼积分
[*]14.2微积分基本定理
[*]14.3分部积分(一)
[*]14.4分部积分(二)

[*]第 15 讲高等数学—正态分布

[*]15.1标准正态分布
[*]15.2中心极限定理
[*]15.3误差函数
[*]15.4二维正态分布
[*]15.5多维正态分布

[*]第 16 讲朴素贝叶斯和最大似然估计

[*]16.1蒙特卡洛分析(一)
[*]16.2蒙特卡洛分析(二)
[*]16.3贝叶斯先验
[*]16.4先验到后验的过程
[*]16.5朴素贝叶斯(一)
[*]16.6朴素贝叶斯(二)
[*]16.7算法设计
[*]16.8TF-IDF(一)
[*]16.9TF-IDF(二)
[*]16.10朴素贝叶斯(三)
[*]16.11最大似然估计(一)
[*]16.12最大似然估计(二)

[*]第 17 讲线性代数—线性空间和线性变换

[*]17.1线性代数概述
[*]17.2线性代数应用方法论
[*]17.3线性乘法的可交换性和结合律
[*]17.4线性空间
[*]17.5线性空间八条法则(一)
[*]17.6线性空间八条法则(二)
[*]17.7线性空间八条法则(三)
[*]17.8连续傅立叶变换
[*]17.9离散傅立叶变换
[*]17.10非常规线性空间
[*]17.11线性相关和线性无关
[*]17.12秩

[*]第 18 讲数据科学和统计学(上)

[*]18.1课程Overview
[*]18.2回顾统计学(一)
[*]18.3回顾统计学(二)
[*]18.4回顾统计学(三)
[*]18.5回顾数据科学(一)
[*]18.6回顾数据科学(二)和教材介绍
[*]18.7R和RStudio等介绍(一)
[*]18.8R和RStudio等介绍(二)
[*]18.9随机变量(一)
[*]18.10随机变量(二)
[*]18.11换门的概率模拟计算(一)
[*]18.12换门的概率模拟计算(二)
[*]18.13换门的概率模拟计算(三)

[*]第 19 讲线性代数—矩阵、等价类和行列式

[*]19.1线性代数知识点回顾
[*]19.2矩阵表示线性变化
[*]19.3可逆矩阵表示坐标变化
[*]19.4相似矩阵
[*]19.5相似矩阵表示相同线性变化
[*]19.6线性代数解微分方程
[*]19.7矩阵的运算—转秩(一)
[*]19.8矩阵的运算—转秩(二)
[*]19.9等价关系
[*]19.10等价类
[*]19.11行列式(一)
[*]19.12行列式(二)
[*]19.13行列式(三)

[*]第 20 讲Python基础课程(上)

[*]20.1Python介绍(一)
[*]20.2Python介绍(二)
[*]20.3变量—命名规范
[*]20.4变量—代码规范
[*]20.5变量类型—数值类型
[*]20.6变量类型—bool类型
[*]20.7变量类型—字符串类型(一)
[*]20.8课间答疑
[*]20.9变量类型—字符串类型(二)
[*]20.10变量类型—字符串类型(三)
[*]20.11变量类型—列表类型(一)
[*]20.12变量类型—列表类型(二)
[*]20.13变量类型—列表类型(三)
[*]20.14变量类型—元组类型、字典类型(一)
[*]20.15变量类型—字典类型(二)

[*]第 21 讲线性代数—特征值与特征向量

[*]21.1线性代数知识点回顾
[*]21.2例题讲解(一)
[*]21.3例题讲解(二)
[*]21.4例题讲解(三)
[*]21.5特征值与特征向量的物理意义
[*]21.6特征值与特征向量的性质(一)
[*]21.7特征值与特征向量的性质(二)
[*]21.8本征值的计算(一)
[*]21.9本征值的计算(二)
[*]21.10线性代数核心定理
[*]21.11对偶空间(一)
[*]21.12对偶空间(二)
[*]21.13欧氏空间与闵氏空间
[*]21.14厄米矩阵

[*]第 22 讲监督学习框架

[*]22.1经验误差和泛化误差
[*]22.2最大后验估计
[*]22.3正则化
[*]22.4lasso回归
[*]22.5超参数(一)
[*]22.6超参数(二)
[*]22.7监督学习框架(一)
[*]22.8监督学习框架(二)
[*]22.9KNN(K最近邻)算法(一)
[*]22.10KNN(K最近邻)算法(二)
[*]22.11KNN(K最近邻)算法(三)
[*]22.12线性分类器
[*]22.13高斯判别模型(一)
[*]22.14高斯判别模型(二)

[*]第 23 讲Python基础课程(下)

[*]23.1条件判断(一)
[*]23.2条件判断(二)
[*]23.3循环(一)
[*]23.4循环(二)
[*]23.5课间答疑
[*]23.6循环(三)
[*]23.7循环(四)
[*]23.8函数(一)
[*]23.9函数(二)
[*]23.10函数(三)
[*]23.11函数(四)
[*]23.12类(一)
[*]23.13类(二)
[*]23.14类(三)

[*]第 24 讲PCA、降维方法引入

[*]24.1无监督学习框架
[*]24.2降维存在的原因
[*]24.3PCA数学分析方法(一)
[*]24.4PCA数学分析方法(二)
[*]24.5PCA数学分析方法(三)
[*]24.6PCA数学分析方法(四)
[*]24.7PCA之外的降维方法—LDA
[*]24.8PCA背后的假设(一)
[*]24.9PCA背后的假设(二)

[*]第 25 讲数据科学和统计学(下)

[*]25.1课程Overview
[*]25.2理解统计思想(一)
[*]25.3理解统计思想(二)
[*]25.4理解统计思想(三)
[*]25.5概率空间
[*]25.6随机变量(一)
[*]25.7随机变量(二)
[*]25.8随机变量(三)
[*]25.9随机变量(四)
[*]25.10参数估计(一)
[*]25.11参数估计(二)
[*]25.12假设检验(一)
[*]25.13假设检验(二)

[*]第 26 讲Python操作数据库、 Python爬虫

[*]26.1课程介绍
[*]26.2认识关系型数据库(一)
[*]26.3认识关系型数据库(二)
[*]26.4MySQL数据库与Excel的不同
[*]26.5命令行操作数据库(一)
[*]26.6命令行操作数据库(二)
[*]26.7命令行操作数据库(三)
[*]26.8命令行操作数据库(四)
[*]26.9Python操作数据库(一)
[*]26.10Python操作数据库(二)
[*]26.11Python操作数据库(三)
[*]26.12Python操作数据库(四)
[*]26.13Python爬虫(一)
[*]26.14Python爬虫(二)
[*]26.15Python爬虫(三)
[*]26.16Python爬虫(四)
[*]26.17Python爬虫(五)

[*]第 27 讲线性分类器

[*]27.1Lasso:alpha参数与准确率(一)
[*]27.2Lasso:alpha参数与准确率(二)
[*]27.3Lasso:alpha参数与准确率(三)
[*]27.4线性分类器
[*]27.5LDA(一)
[*]27.6LDA(二)
[*]27.7LDA(三)
[*]27.8Perceptron(一)
[*]27.9Perceptron(二)
[*]27.10Perceptron(三)
[*]27.11Perceptron(四)
[*]27.12熵与信息(一)
[*]27.13熵与信息(二)

[*]第 28 讲Python进阶(上)

[*]28.1NumPy基本操作(一)
[*]28.2NumPy基本操作(二)
[*]28.3NumPy基本操作(三)
[*]28.4NumPy基本操作(四)
[*]28.5NumPy基本操作(五)
[*]28.6NumPy基本操作(六)
[*]28.7Pandas基本操作(一)
[*]28.8Pandas基本操作(二)
[*]28.9Pandas基本操作(三)
[*]28.10Pandas基本操作(四)
[*]28.11Pandas绘图(一)
[*]28.12Pandas绘图(二)
[*]28.13Pandas绘图(三)
[*]28.14Pandas绘图(四)

[*]第 29 讲Scikit-Learn

[*]29.1课程介绍
[*]29.2Scikit-Learn介绍
[*]29.3数据处理(一)
[*]29.4数据处理(二)
[*]29.5模型实例、模型选择(一)
[*]29.6模型实例、模型选择(二)
[*]29.7模型实例、模型选择(三)
[*]29.8模型实例、模型选择(四)
[*]29.9模型实例、模型选择(五)

[*]第 30 讲熵、逻辑斯蒂回归、SVM引入

[*]30.1熵(一)
[*]30.2熵(二)
[*]30.3熵(三)
[*]30.4熵(四)
[*]30.5熵(五)
[*]30.6熵(六)
[*]30.7熵(七)
[*]30.8逻辑斯蒂回归(一)
[*]30.9逻辑斯蒂回归(二)
[*]30.10逻辑斯蒂回归(三)
[*]30.11逻辑斯蒂回归(四)
[*]30.12逻辑斯蒂回归(五)
[*]30.13SVM引入

[*]第 31 讲Python进阶(下)

[*]31.1泰坦尼克数据处理与分析(一)
[*]31.2泰坦尼克数据处理与分析(二)
[*]31.3泰坦尼克数据处理与分析(三)
[*]31.4泰坦尼克数据处理与分析(四)
[*]31.5泰坦尼克数据处理与分析(五)
[*]31.6泰坦尼克数据处理与分析(六)
[*]31.7泰坦尼克数据处理与分析(七)
[*]31.8泰坦尼克数据处理与分析(八)
[*]31.9泰坦尼克数据处理与分析(九)

[*]第 32 讲决策树

[*]32.1决策树(一)
[*]32.2决策树(二)
[*]32.3决策树(三)
[*]32.4决策树(四)

[*]第 33 讲数据呈现基础

[*]33.1课程安排
[*]33.2什么是数据可视化
[*]33.3设计原则
[*]33.4数据可视化流程
[*]33.5视觉编码
[*]33.6图形选择(一)
[*]33.7图形选择(二)
[*]33.8图形选择(三)

[*]第 34 讲云计算初步

[*]34.1Hadoop介绍
[*]34.2Hdfs应用(一)
[*]34.3Hdfs应用(二)
[*]34.4MapReduce(一)
[*]34.5MapReduce(二)
[*]34.6Hive应用(一)
[*]34.7Hive应用(二)
[*]34.8Hive应用(三)
[*]34.9Hive应用(四)

[*]第 35 讲D-Park实战

[*]35.1Pig应用(一)
[*]35.2Pig应用(二)
[*]35.3Pig应用(三)
[*]35.4Pig应用(四)
[*]35.5Pig应用(五)
[*]35.6Pig应用(六)
[*]35.7Spark应用(一)
[*]35.8Spark应用(二)
[*]35.9Spark应用(三)
[*]35.10Spark应用(四)
[*]35.11Spark应用(五)
[*]35.12Spark应用(六)
[*]35.13Spark应用(七)

[*]第 36 讲第四范式分享

[*]36.1推荐技术的介绍
[*]36.2人是如何推荐商品的
[*]36.3推荐系统的形式化以及如何评价推荐结果
[*]36.4求解—从数据到模型
[*]36.5数据拆分与特征工程
[*]36.6推荐系统机器学习模型
[*]36.7评估模型
[*]36.8建模过程的演示与课间答疑

[*]第 37 讲决策树到随机森林

[*]37.1决策树
[*]37.2随机森林
[*]37.3在Scikit-Learn里面如何用随机森林做预测(一)
[*]37.4在Scikit-Learn里面如何用随机森林做预测(二)
[*]37.5模型参数的介绍
[*]37.6集成方法(一)
[*]37.7集成方法(二)
[*]37.8Blending
[*]37.9gt多样化
[*]37.10Bagging与决策树(一)
[*]37.11Bagging与决策树(二)
[*]37.12Boosting方法(一)
[*]37.13Boosting方法(二)
[*]37.14Boosting方法(三)
[*]37.15Boosting方法(四)

[*]第 38 讲数据呈现进阶

[*]38.1静态信息图(一)
[*]38.2静态信息图(二)
[*]38.3静态信息图(三)
[*]38.4静态信息图(四)
[*]38.5静态信息图(五)
[*]38.6HTML、CSS和JavaScript基础介绍
[*]38.7DOM和开发者工具
[*]38.8D3(一)
[*]38.9D3(二)
[*]38.10D3(三)
[*]38.11div.html
[*]38.12svg.html
[*]38.13D3支持的数据类型
[*]38.14Make a map(一)
[*]38.15Make a map(二)

[*]第 39 讲强化学习(上)

[*]39.1你所了解的强化学习是什么
[*]39.2经典条件反射(一)
[*]39.3经典条件反射(二)
[*]39.4操作性条件反射
[*]39.5Evaluation Problem(一)
[*]39.6Evaluation Problem(二)
[*]39.7Evaluation Problem(三)
[*]39.8Evaluation Problem(四)
[*]39.9Policy Learning(一)
[*]39.10Policy Learning(二)
[*]39.11Policy Learning(三)
[*]39.12Policy Learning(四)
[*]39.13Policy Learning(五)
[*]39.14Policy Learning(六)

[*]第 40 讲强化学习(下)

[*]40.1Policy Learning总结
[*]40.2基于模型的RL(一)
[*]40.3基于模型的RL(二)
[*]40.4基于模型的RL(三)
[*]40.5基于模型的RL(四)
[*]40.6基于模型的RL(五)
[*]40.7基于模型的RL(六)
[*]40.8大脑中的强化学习算法(一)
[*]40.9大脑中的强化学习算法(二)
[*]40.10大脑中的强化学习算法(三)
[*]40.11大脑中的强化学习算法(四)
[*]40.12大脑中的强化学习算法(五)
[*]40.13RL in alphaGo(一)
[*]40.14RL in alphaGo(二)
[*]40.15RL in alphaGo(三)
[*]40.16RL in alphaGo(四)

[*]第 41 讲SVM和神经网络引入

[*]41.1VC维
[*]41.2SVM(一)
[*]41.3SVM(二)
[*]41.4SVM(三)
[*]41.5SVM(四)
[*]41.6SVM(五)
[*]41.7SVM(六)
[*]41.8SVM(七)
[*]41.9SVM(八)
[*]41.10SVM(九)
[*]41.11SVM(十)
[*]41.12SVM(十一)
[*]41.13SVM(十二)和神经网络引入

[*]第 42 讲集成模型总结和GDBT理解及其衍生应用

[*]42.1集成模型总结(一)
[*]42.2集成模型总结(二)
[*]42.3集成模型总结(三)
[*]42.4集成模型总结(四)
[*]42.5集成模型总结(五)
[*]42.6GDBT理解及其衍生应用(一)
[*]42.7GDBT理解及其衍生应用(二)
[*]42.8GDBT理解及其衍生应用(三)
[*]42.9GDBT理解及其衍生应用(四)
[*]42.10GDBT理解及其衍生应用(五)
[*]42.11GDBT理解及其衍生应用(六)
[*]42.12GDBT理解及其衍生应用(七)
[*]42.13GDBT理解及其衍生应用(八)
[*]42.14GDBT理解及其衍生应用(九)
[*]42.15GDBT理解及其衍生应用(十)

[*]第 43 讲神经网络

[*]43.1SVM比较其他分类起代码(一)
[*]43.2SVM比较其他分类起代码(二)
[*]43.3神经网络(一)
[*]43.4神经网络(二)
[*]43.5神经网络(三)
[*]43.6神经网络(四)

[*]第 44 讲监督学习-回归

[*]44.1机器学习的概念和监督学习
[*]44.2机器学习工作流程(一)
[*]44.3机器学习工作流程(二)
[*]44.4机器学习工作流程(三)
[*]44.5机器学习工作流程(四)
[*]44.6案例分析(一)
[*]44.7案例分析(二)
[*]44.8案例分析(三)
[*]44.9案例分析(四)
[*]44.10经验分享(一)
[*]44.11经验分享(二)
[*]44.12经验分享(三)

[*]第 45 讲监督学习-分类

[*]45.1常用的分类算法
[*]45.2模型评估标准和案例分析
[*]45.3数据探索(一)
[*]45.4数据探索(二)
[*]45.5数据探索(三)
[*]45.6数据探索(四)
[*]45.7数据探索(五)
[*]45.8数据探索(六)
[*]45.9模型训练与选择(一)
[*]45.10模型训练与选择(二)
[*]45.11Airbnb数据探索过程(一)
[*]45.12Airbnb数据探索过程(二)
[*]45.13地震数据可视化过程(一)
[*]45.14地震数据可视化过程(二)

[*]第 46 讲神经网络基础与卷积网络

[*]46.1神经网络(一)
[*]46.2神经网络(二)
[*]46.3神经网络(三)
[*]46.4神经网络(四)
[*]46.5神经网络(五)
[*]46.6神经网络(六)
[*]46.7神经网络(七)
[*]46.8神经网络(八)
[*]46.9神经网络(九)
[*]46.10神经网络(十)
[*]46.11图像处理基础
[*]46.12卷积(一)
[*]46.13卷积(二)

[*]第 47 讲时间序列预测

[*]47.1时间序列预测概述(一)
[*]47.2时间序列预测概述(二)
[*]47.3差分自回归移动平均模型(ARIMA)
[*]47.4差分自回归移动平均模型(ARIMA)案例分析(一)
[*]47.5差分自回归移动平均模型(ARIMA)案例分析(二)
[*]47.6差分自回归移动平均模型(ARIMA)案例分析(三)
[*]47.7差分自回归移动平均模型(ARIMA)案例分析(四)
[*]47.8长短期记忆网络(LSTM)(一)
[*]47.9长短期记忆网络(LSTM)(二)
[*]47.10长短期记忆网络(LSTM)案例分析
[*]47.11Facebook开源的新预测工具—Prophet(一)
[*]47.12Facebook开源的新预测工具—Prophet(二)
[*]47.13课程答疑

[*]第 48 讲人工智能金融应用

[*]48.1人工智能金融应用(一)
[*]48.2人工智能金融应用(二)
[*]48.3人工智能金融应用(三)
[*]48.4人工智能金融应用(四)
[*]48.5机器学习方法(一)
[*]48.6机器学习方法(二)
[*]48.7机器学习方法(三)
[*]48.8机器学习方法(四)

[*]第 49 讲计算机视觉深度学习入门目的篇

[*]49.1计算机视觉深度学习入门概述
[*]49.2计算机视觉领域正在关心的问题(一)
[*]49.3计算机视觉领域正在关心的问题(二)
[*]49.4实际问题转化为具体问题并用深度学习解决(一)
[*]49.5实际问题转化为具体问题并用深度学习解决(二)
[*]49.6实际问题转化为具体问题并用深度学习解决(三)
[*]49.7实际问题转化为具体问题并用深度学习解决(四)

[*]第 50 讲计算机视觉深度学习入门结构篇

[*]50.1复习计算机视觉最主要的负责特征提取的结构CNN
[*]50.2特征如何组织(一)
[*]50.3特征如何组织(二)
[*]50.4特征如何组织(三)
[*]50.5特征如何组织(四)
[*]50.6结构之间的优劣评判以及实验结果(一)
[*]50.7结构之间的优劣评判以及实验结果(二)
[*]50.8结构之间的优劣评判以及实验结果(三)
[*]50.9结构之间的优劣评判以及实验结果(四)
[*]50.10结构之间的优劣评判以及实验结果(五)
[*]50.11结构之间的优劣评判以及实验结果(六)
[*]50.12结构之间的优劣评判以及实验结果(七)
[*]50.13结构之间的优劣评判以及实验结果(八)

[*]第 51 讲计算机视觉深度学习入门优化篇

[*]51.1计算机视觉深度学习入门:优化篇概述
[*]51.2CNN模型的一阶优化逻辑
[*]51.3训练稳定性:Annealing和Momentum
[*]51.4抗拟合:从Dropout到Weight Decay
[*]51.5竞争优化器和多机并行
[*]51.6手动超参优化逻辑以及超参优化往何处去

[*]第 52 讲计算机视觉深度学习入门数据篇

[*]52.1计算机视觉领域的常用竞赛数据集
[*]52.2对数据常用的预处理工作和后处理工作如何提高竞赛成绩(一)
[*]52.3对数据常用的预处理工作和后处理工作如何提高竞赛成绩(二)
[*]52.4如何使用端到端深度学习的方法

[*]第 53 讲计算机视觉深度学习入门工具篇

[*]53.1计算机视觉深度学习入门工具篇(一)
[*]53.2计算机视觉深度学习入门工具篇(二)
[*]53.3计算机视觉深度学习入门工具篇(三)

[*]第 54 讲个性化推荐算法

[*]54.1个性化推荐的发展
[*]54.2推荐算法的演进(一)
[*]54.3推荐算法的演进(二)
[*]54.4推荐算法的演进(三)
[*]54.5推荐算法的演进(四)
[*]54.6建模step by step(一)
[*]54.7建模step by step(二)
[*]54.8建模step by step(三)
[*]54.9算法评估和迭代
[*]54.10工程化实践、常见的问题与解决方法、前沿进展与展望

[*]第 55 讲Pig和Spark巩固

[*]55.1Pig巩固(一)
[*]55.2Pig巩固(二)
[*]55.3Pig巩固(三)
[*]55.4Pig巩固(四)
[*]55.5Pig巩固(五)
[*]55.6Spark巩固(一)
[*]55.7Spark巩固(二)
[*]55.8Spark巩固(三)
[*]55.9Spark巩固(四)
[*]55.10Spark巩固(五)

[*]第 56 讲人工智能与设计

[*]56.1智能存在的意义是什么?
[*]56.2已有人工智的设计应用
[*]56.3人的智能(一)
[*]56.4人的智能(二)
[*]56.5人的智能的特点(一)
[*]56.6人的智能的特点(二)
[*]56.7人的智能的特点(三)
[*]56.8人工智能(一)
[*]56.9人工智能(二)
[*]56.10使用人工智能的方式

[*]第 57 讲神经网络

[*]57.1卷积的本质
[*]57.2卷积的三大特点
[*]57.3Pooling
[*]57.4数字识别(一)
[*]57.5数字识别(二)
[*]57.6感受野
[*]57.7RNN

[*]第 58 讲非线性动力学

[*]58.1非线性动力学
[*]58.2线性动力系统
[*]58.3线性动力学与非线性动力学系统(一)
[*]58.4线性动力学与非线性动力学系统(二)
[*]58.5定点理论
[*]58.6Poincare引理

[*]第 59 讲高频交易订单流模型

[*]59.1高频交易
[*]59.2点过程基础(一)
[*]59.3点过程基础(二)
[*]59.4点过程基础(三)
[*]59.5订单流数据分析(一)
[*]59.6订单流数据分析(二)
[*]59.7订单流数据分析(三)
[*]59.8订单流数据分析(四)
[*]59.9订单流数据分析(五)

[*]第 60 讲区块链:一场革命

[*]60.1比特币(一)
[*]60.2比特币(二)
[*]60.3比特币(三)
[*]60.4以太坊简介及ICO

[*]第 61 讲统计物理专题(一)

[*]61.1统计物理的开端(一)
[*]61.2统计物理的开端(二)
[*]61.3抛硬币抛出正态分布(一)
[*]61.4抛硬币抛出正态分布(二)
[*]61.5再造整个世界(一)
[*]61.6再造整个世界(二)
[*]61.7温度的本质(一)
[*]61.8温度的本质(二)
[*]61.9压强
[*]61.10证明理想气体方程
[*]61.11化学势
[*]61.12四大热力学势(一)
[*]61.13四大热力学势(二)

[*]第 62 讲统计物理专题(二)

[*]62.1神奇公式.mp4
[*]62.2信息熵(一)
[*]62.3信息熵(二)
[*]62.4Boltzmann分布
[*]62.5配分函数Z

[*]第 63 讲复杂网络简介

[*]63.1Networks in real worlds
[*]63.2BasicConcepts(一)
[*]63.3BasicConcepts(二)
[*]63.4Models(一)
[*]63.5Models(二)
[*]63.6Algorithms(一)
[*]63.7Algorithms(二)

[*]第 64 讲ABM简介及金融市场建模

[*]64.1课程介绍
[*]64.2系统与系统建模
[*]64.3ABM与复杂系统建模(一)
[*]64.4ABM与复杂系统建模(二)
[*]64.5ABM与复杂系统建模(三)
[*]64.6ABM为经济系统建模
[*]64.7经典经济学如何给市场建模
[*]64.8ABM与复杂系统建模-市场交易
[*]64.9ABM与复杂系统建模-技术扩散
[*]64.10ABM与复杂系统建模-交通系统(一)
[*]64.11ABM与复杂系统建模-交通系统(二)
[*]64.12ABM金融市场-SFI股票市场模型(一)
[*]64.13ABM金融市场-SFI股票市场模型(二)
[*]64.14ABM金融市场-genova市场模型
[*]64.15ABM金融市场-Agent及其行为
[*]64.16学习模型
[*]64.17ABM金融市场-价格形成机制
[*]64.18ABM的特点与缺陷

[*]第 65 讲用伊辛模型理解复杂系统

[*]65.1伊辛模型的背景及格气模型
[*]65.2伊辛模型(一)
[*]65.3伊辛模型(二)
[*]65.4从能量到统计分布及Monte Carlo模拟
[*]65.5Ising Model(2D)
[*]65.6相变和临界现象
[*]65.7Critical Exponents
[*]65.8正问题和反问题
[*]65.9(空间中的)投票模型
[*]65.10(网络中的)投票模型
[*]65.11观念动力学
[*]65.12集体运动Vicsek模型
[*]65.13自旋玻璃
[*]65.14Hopfield神经网络
[*]65.15限制Boltzmann机
[*]65.16深度学习与重正化群(一)
[*]65.17深度学习与重正化群(二)
[*]65.18总结
[*]65.19答疑

[*]第 66 讲金融市场的复杂性

[*]66.1导论(一)
[*]66.2导论(二)
[*]66.3导论(三)
[*]66.4导论(四)
[*]66.5导论(五)
[*]66.6Classical Benchmarks(一)
[*]66.7Classical Benchmarks(二)
[*]66.8Classical Benchmarks(三)
[*]66.9Classical Benchmarks(四)
[*]66.10Classical Benchmarks(五)
[*]66.11Endogenous Risk(一)
[*]66.12Endogenous Risk(二)
[*]66.13Endogenous Risk(三)
[*]66.14Endogenous Risk(四)
[*]66.15Endogenous Risk(五)
[*]66.16Endogenous Risk(六)
[*]66.17Heterogeneous Beliefs(一)
[*]66.18Heterogeneous Beliefs(二)
[*]66.19总结

[*]第 67 讲广泛出现的幂律分布

[*]67.1生物界(一)
[*]67.2生物界(二)
[*]67.3生物界(三)
[*]67.4生物界(四)
[*]67.5城市、商业(一)
[*]67.6城市、商业(二)
[*]67.7启示(一)
[*]67.8启示(二)
[*]67.9总结

[*]第 68 讲自然启发算法

[*]68.1课程回顾及答疑
[*]68.2概括(一)
[*]68.3概括(二)
[*]68.4模拟退火算法(一)
[*]68.5模拟退火算法(二)
[*]68.6进化相关的算法(一)
[*]68.7进化相关的算法(二)
[*]68.8进化相关的算法(三)
[*]68.9进化相关的算法(四)
[*]68.10粒子群算法(一)
[*]68.11粒子群算法(二)
[*]68.12粒子群算法(三)
[*]68.13遗传算法和PSO的比较
[*]68.14更多的类似的算法(一)
[*]68.15更多的类似的算法(二)
[*]68.16答疑

[*]第 69 讲机器学习的方法

[*]69.1为什么要讲学习方法
[*]69.2阅读论文
[*]69.3综述式文章举例(一)
[*]69.4综述式文章举例(二)
[*]69.5碎片化时间学习及书籍
[*]69.6视频学习资源及做思维导图
[*]69.7铁哥答疑(一)
[*]69.8铁哥答疑(二)
[*]69.9输出是最好的学习(一)
[*]69.10输出是最好的学习(二)
[*]69.11案例(一)
[*]69.12案例(二)
[*]69.13案例(三)
[*]69.14案例(四)
[*]69.15案例(五)

[*]第 70 讲模型可视化工程管理

[*]70.1课程简介
[*]70.2虚拟换环境—Anaconda&docker(一)
[*]70.3虚拟换环境—Anaconda&docker(二)
[*]70.4虚拟换环境—Anaconda&docker(三)
[*]70.5虚拟换环境—Anaconda&docker(四)
[*]70.6虚拟换环境—Anaconda&docker(五)
[*]70.7虚拟换环境—Anaconda&docker(六)
[*]70.8虚拟换环境—Anaconda&docker(七)
[*]70.9虚拟换环境—Anaconda&docker(八)
[*]70.10定制化可视化系统—Jupyter Dashboard(一)
[*]70.11定制化可视化系统—Jupyter Dashboard(二)
[*]70.12变身前端—seaboarn+Bokeh+Echarts
[*]70.13日志管理系统—ELK
[*]70.14极速Bi系统—superset
[*]70.15Dashboard补充
[*]70.16ELK补充
[*]70.17Superset补充
[*]70.18Superset补充及总结

[*]第 71 讲Value Iteration Networks

[*]71.1Background&Motivation
[*]71.2Value Iteration
[*]71.3Grid—world Domain
[*]71.4总结及答疑

[*]第 72 讲非线性动力学系统(上)

[*]72.1非线性动力学系统(一)
[*]72.2非线性动力学系统(二)
[*]72.3二维系统动力学综述—Poincare引理
[*]72.4Bifurcation(一)
[*]72.5Bifurcation(二)
[*]72.6Bifurcation(三)
[*]72.7Bifurcation(四)
[*]72.8Bifurcation(五)
[*]72.9Bifurcation(六)
[*]72.10混沌(一)
[*]72.11混沌(二)
[*]72.12混沌(三)
[*]72.13混沌(四)
[*]72.14混沌(五)
[*]72.15混沌(六)
[*]72.16混沌(七)
[*]72.17混沌(八)
[*]72.18混沌(九)
[*]72.19混沌(十)
[*]72.20混沌(十一)

[*]第 73 讲非线性动力学系统(下)

[*]73.1自然语言处理乱弹(一)
[*]73.2自然语言处理乱弹(二)
[*]73.3RNN
[*]73.4RNN及答疑

[*]第 74 讲自然语言处理导入

[*]74.1中文分词
[*]74.2中文分词、依存文法分析
[*]74.3篇章分析、自动摘要、知识提取、文本相似度计算
[*]74.4知识库构建、问答系统
[*]74.5示范战狼2的豆瓣评论词云(一)
[*]74.6示范战狼2的豆瓣评论词云(二)
[*]74.7示范战狼2的豆瓣评论词云(三)
[*]74.8示范战狼2的豆瓣评论词云(四)
[*]74.9示范战狼2的豆瓣评论词云(五)

[*]第 75 讲复杂网络上的物理传输过程

[*]75.1一些基本概念
[*]75.2常用的统计描述物理量
[*]75.3四种网络模型
[*]75.4一些传播动力学模型(一)
[*]75.5一些传播动力学模型(二)
[*]75.6一些传播动力学模型(三)
[*]75.7一些传播动力学模型(四)
[*]75.8一些传播动力学模型(五)
[*]75.9一些传播动力学模型(六)
[*]75.10一些传播动力学模型(七)
[*]75.11一些传播动力学模型(八)
[*]75.12仿真模型的建立过程(一)
[*]75.13仿真模型的建立过程(二)
[*]75.14仿真模型的建立过程(三)
[*]75.15仿真模型的建立过程(四)
[*]75.16Combining complex networks and data mining

[*]第 76 讲RNN及LSTM

[*]76.1RNN—序列处理器(一)
[*]76.2RNN—序列处理器(二)
[*]76.3A simple enough case
[*]76.4A dance between fix points
[*]76.5Fix point、Train Chaos
[*]76.6RNN作为生成模型(动力系统)
[*]76.7RNN训练—BPTT(一)
[*]76.8RNN训练—BPTT(二)
[*]76.9梯度消失与梯度爆炸(一)
[*]76.10梯度消失与梯度爆炸(二)
[*]76.11Reservoir computing—偷懒方法
[*]76.12LSTM
[*]76.13LSTM、Use Examples
[*]76.14词向量、Deep RNN
[*]76.15Encoder Decoder Structure
[*]76.16LSTM Text Generation(一)
[*]76.17LSTM Text Generation(二)
[*]76.18LSTM Text Generation(三)

[*]第 77 讲漫谈人工智能创业

[*]77.1人工智能对我们生活的影响(一)
[*]77.2人工智能对我们生活的影响(二)
[*]77.3人工智能对我们生活的影响(三)
[*]77.4人工智能对我们生活的影响(四)
[*]77.5人工智能对我们生活的影响(五)
[*]77.6人工智能对我们生活的影响(六)
[*]77.7人工智能创业中的商业思维
[*]77.8三个战略管理学商业模型(一)
[*]77.9三个战略管理学商业模型(二)
[*]77.10三个战略管理学商业模型(三)
[*]77.11三个战略管理学商业模型(四)
[*]77.12三个战略管理学商业模型(五)
[*]77.13三个战略管理学商业模型(六)
[*]77.14三个战略管理学商业模型(七)
[*]77.15三个战略管理学商业模型(八)
[*]77.16三个战略管理学商业模型(九)
[*]77.17关于Entrepreneurship

[*]第 78 讲深度学习其他主题

[*]78.1神经网络的无穷潜力
[*]78.2玻尔兹曼机—联想的机器
[*]78.3受限玻尔兹曼机
[*]78.4对抗学习(一)
[*]78.5对抗学习(二)
[*]78.6对抗学习(三)
[*]78.7对抗学习(四)
[*]78.8程序讲解(一)
[*]78.9程序讲解(二)
[*]78.10程序讲解(三)

[*]第 79 讲课程总结

[*]79.1开场
[*]79.2Attention实例—Spatial Transformer
[*]79.3猫狗大战—CNN实战(一)
[*]79.4猫狗大战—CNN实战(二)
[*]79.5RNN诗人
[*]79.6课程复习
[*]79.7课程大纲(一)
[*]79.8课程大纲(二)
[*]79.9课程总结(一)
[*]79.10课程总结(二)


**** Hidden Message *****
页: [1]
查看完整版本: W门大学-3528元-人工智能、大数据与复杂系统