查看: 256|回复: 0
打印 上一主题 下一主题

W门大学-3528元-人工智能、大数据与复杂系统

[复制链接]

9万

主题

9万

帖子

28万

积分

管理员

管理员

Rank: 9Rank: 9Rank: 9

积分
288747
跳转到指定楼层
楼主
发表于 2020-3-8 12:35:47 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
W门大学-3528元-人工智能大数据与复杂系统
  • 宣传片
  • 第 1 讲宣传片
    • 1.1宣传片
  • 第 2 讲复杂系统
    • 2.1物理预测的胜利与失效
    • 2.2预测失效原因
    • 2.3复杂系统引论
    • 2.4生活实例与本章答疑
  • 第 3 讲大数据与机器学习
    • 3.1大数据预测因为噪声失效
    • 3.2大数据与机器学习
  • 第 4 讲人工智能的三个阶段
    • 4.1规则阶段
    • 4.2机器学习阶段发展至连接主义阶段
    • 4.3课间答疑
    • 4.4连接主义阶段发展至深度学习阶段
    • 4.5三个阶段总结分析
    • 4.6人工智能的应用(一)
    • 4.7人工智能的应用(二)
    • 4.8课间答疑
    • 4.9课程大纲(一)
    • 4.10课程大纲(二)
  • 第 5 讲高等数学—元素和极限
    • 5.1实数的定义(一)
    • 5.2实数的定义(二)
    • 5.3实数的定义(三)
    • 5.4实数的元素个数(一)
    • 5.5实数的元素个数(二)
    • 5.6自然数个数少于实数个数(一)
    • 5.7自然数个数少于实数个数(二)
    • 5.8无穷大之比较(一)
    • 5.9无穷大之比较(二)
    • 5.10级数的收敛
    • 5.11极限的定义
    • 5.12极限的四则运算
    • 5.13极限的复合
    • 5.14连续性
  • 第 6 讲复杂网络经济学应用
    • 6.1用网络的思维看经济结构
    • 6.2复杂网络认识前后
    • 6.3从网络结构看不同地区(一)
    • 6.4从网络结构看不同地区(二)
  • 第 7 讲机器学习与监督算法
    • 7.1什么是机器学习
    • 7.2机器学习的类型
    • 7.3简单回归实例(一)
    • 7.4简单回归实例(二)
    • 7.5简单回归实例(三)
  • 第 8 讲阿尔法狗与强化学习算法
    • 8.1人工智能的发展
    • 8.2强化学习算法(一)
    • 8.3强化学习算法(二)
    • 8.4强化学习算法(三)
    • 8.5Alphago给我们的启示
    • 8.6无监督学习
  • 第 9 讲高等数学—两个重要的极限定理
    • 9.1元素与极限的知识点回顾
    • 9.2第一个重要极限定理的证明(一)
    • 9.3第一个重要极限定理的证明(二)
    • 9.4夹逼定理
    • 9.5第二个重要极限定理的证明
  • 第 10 讲高等数学—导数
    • 10.1导数的定义
    • 10.2初等函数的导数
    • 10.3反函数的导数(一)
    • 10.4反函数的导数(二)
    • 10.5复合函数的导数
    • 10.6泰勒展开
    • 10.7罗尔定理
    • 10.8微分中值定理和柯西中值定理
    • 10.9洛比塔法则
    • 10.10泰勒展开的证明
  • 第 11 讲贝叶斯理论
    • 11.1梯度优化(一)
    • 11.2梯度优化(二)
    • 11.3概率基础
    • 11.4概率与事件
    • 11.5贝叶斯推理(一)
    • 11.6贝叶斯推理(二)
    • 11.7贝叶斯推理(三)
    • 11.8辛普森案件
    • 11.9贝叶斯推理深入
    • 11.10贝叶斯于机器学习(一)
    • 11.11贝叶斯于机器学习(二)
    • 11.12贝叶斯决策(一)
    • 11.13贝叶斯决策(二)
    • 11.14贝叶斯决策(三)
  • 第 12 讲高等数学—泰勒展开
    • 12.1泰勒展开
    • 12.2展开半径
    • 12.3欧拉公式
    • 12.4泰勒展开求极限(一)
    • 12.5泰勒展开求极限(二)
  • 第 13 讲高等数学—偏导数
    • 13.1偏导数的对称性
    • 13.2链式法则
    • 13.3梯度算符、拉氏算符
  • 第 14 讲高等数学—积分
    • 14.1黎曼积分
    • 14.2微积分基本定理
    • 14.3分部积分(一)
    • 14.4分部积分(二)
  • 第 15 讲高等数学—正态分布
    • 15.1标准正态分布
    • 15.2中心极限定理
    • 15.3误差函数
    • 15.4二维正态分布
    • 15.5多维正态分布
  • 第 16 讲朴素贝叶斯和最大似然估计
    • 16.1蒙特卡洛分析(一)
    • 16.2蒙特卡洛分析(二)
    • 16.3贝叶斯先验
    • 16.4先验到后验的过程
    • 16.5朴素贝叶斯(一)
    • 16.6朴素贝叶斯(二)
    • 16.7算法设计
    • 16.8TF-IDF(一)
    • 16.9TF-IDF(二)
    • 16.10朴素贝叶斯(三)
    • 16.11最大似然估计(一)
    • 16.12最大似然估计(二)
  • 第 17 讲线性代数—线性空间和线性变换
    • 17.1线性代数概述
    • 17.2线性代数应用方法论
    • 17.3线性乘法的可交换性和结合律
    • 17.4线性空间
    • 17.5线性空间八条法则(一)
    • 17.6线性空间八条法则(二)
    • 17.7线性空间八条法则(三)
    • 17.8连续傅立叶变换
    • 17.9离散傅立叶变换
    • 17.10非常规线性空间
    • 17.11线性相关和线性无关
    • 17.12秩
  • 第 18 讲数据科学和统计学(上)
    • 18.1课程Overview
    • 18.2回顾统计学(一)
    • 18.3回顾统计学(二)
    • 18.4回顾统计学(三)
    • 18.5回顾数据科学(一)
    • 18.6回顾数据科学(二)和教材介绍
    • 18.7R和RStudio等介绍(一)
    • 18.8R和RStudio等介绍(二)
    • 18.9随机变量(一)
    • 18.10随机变量(二)
    • 18.11换门的概率模拟计算(一)
    • 18.12换门的概率模拟计算(二)
    • 18.13换门的概率模拟计算(三)
  • 第 19 讲线性代数—矩阵、等价类和行列式
    • 19.1线性代数知识点回顾
    • 19.2矩阵表示线性变化
    • 19.3可逆矩阵表示坐标变化
    • 19.4相似矩阵
    • 19.5相似矩阵表示相同线性变化
    • 19.6线性代数解微分方程
    • 19.7矩阵的运算—转秩(一)
    • 19.8矩阵的运算—转秩(二)
    • 19.9等价关系
    • 19.10等价类
    • 19.11行列式(一)
    • 19.12行列式(二)
    • 19.13行列式(三)
  • 第 20 讲Python基础课程(上)
    • 20.1Python介绍(一)
    • 20.2Python介绍(二)
    • 20.3变量—命名规范
    • 20.4变量—代码规范
    • 20.5变量类型—数值类型
    • 20.6变量类型—bool类型
    • 20.7变量类型—字符串类型(一)
    • 20.8课间答疑
    • 20.9变量类型—字符串类型(二)
    • 20.10变量类型—字符串类型(三)
    • 20.11变量类型—列表类型(一)
    • 20.12变量类型—列表类型(二)
    • 20.13变量类型—列表类型(三)
    • 20.14变量类型—元组类型、字典类型(一)
    • 20.15变量类型—字典类型(二)
  • 第 21 讲线性代数—特征值与特征向量
    • 21.1线性代数知识点回顾
    • 21.2例题讲解(一)
    • 21.3例题讲解(二)
    • 21.4例题讲解(三)
    • 21.5特征值与特征向量的物理意义
    • 21.6特征值与特征向量的性质(一)
    • 21.7特征值与特征向量的性质(二)
    • 21.8本征值的计算(一)
    • 21.9本征值的计算(二)
    • 21.10线性代数核心定理
    • 21.11对偶空间(一)
    • 21.12对偶空间(二)
    • 21.13欧氏空间与闵氏空间
    • 21.14厄米矩阵
  • 第 22 讲监督学习框架
    • 22.1经验误差和泛化误差
    • 22.2最大后验估计
    • 22.3正则化
    • 22.4lasso回归
    • 22.5超参数(一)
    • 22.6超参数(二)
    • 22.7监督学习框架(一)
    • 22.8监督学习框架(二)
    • 22.9KNN(K最近邻)算法(一)
    • 22.10KNN(K最近邻)算法(二)
    • 22.11KNN(K最近邻)算法(三)
    • 22.12线性分类器
    • 22.13高斯判别模型(一)
    • 22.14高斯判别模型(二)
  • 第 23 讲Python基础课程(下)
    • 23.1条件判断(一)
    • 23.2条件判断(二)
    • 23.3循环(一)
    • 23.4循环(二)
    • 23.5课间答疑
    • 23.6循环(三)
    • 23.7循环(四)
    • 23.8函数(一)
    • 23.9函数(二)
    • 23.10函数(三)
    • 23.11函数(四)
    • 23.12类(一)
    • 23.13类(二)
    • 23.14类(三)
  • 第 24 讲PCA、降维方法引入
    • 24.1无监督学习框架
    • 24.2降维存在的原因
    • 24.3PCA数学分析方法(一)
    • 24.4PCA数学分析方法(二)
    • 24.5PCA数学分析方法(三)
    • 24.6PCA数学分析方法(四)
    • 24.7PCA之外的降维方法—LDA
    • 24.8PCA背后的假设(一)
    • 24.9PCA背后的假设(二)
  • 第 25 讲数据科学和统计学(下)
    • 25.1课程Overview
    • 25.2理解统计思想(一)
    • 25.3理解统计思想(二)
    • 25.4理解统计思想(三)
    • 25.5概率空间
    • 25.6随机变量(一)
    • 25.7随机变量(二)
    • 25.8随机变量(三)
    • 25.9随机变量(四)
    • 25.10参数估计(一)
    • 25.11参数估计(二)
    • 25.12假设检验(一)
    • 25.13假设检验(二)
  • 第 26 讲Python操作数据库、 Python爬虫
    • 26.1课程介绍
    • 26.2认识关系型数据库(一)
    • 26.3认识关系型数据库(二)
    • 26.4MySQL数据库与Excel的不同
    • 26.5命令行操作数据库(一)
    • 26.6命令行操作数据库(二)
    • 26.7命令行操作数据库(三)
    • 26.8命令行操作数据库(四)
    • 26.9Python操作数据库(一)
    • 26.10Python操作数据库(二)
    • 26.11Python操作数据库(三)
    • 26.12Python操作数据库(四)
    • 26.13Python爬虫(一)
    • 26.14Python爬虫(二)
    • 26.15Python爬虫(三)
    • 26.16Python爬虫(四)
    • 26.17Python爬虫(五)
  • 第 27 讲线性分类器
    • 27.1Lasso:alpha参数与准确率(一)
    • 27.2Lasso:alpha参数与准确率(二)
    • 27.3Lasso:alpha参数与准确率(三)
    • 27.4线性分类器
    • 27.5LDA(一)
    • 27.6LDA(二)
    • 27.7LDA(三)
    • 27.8Perceptron(一)
    • 27.9Perceptron(二)
    • 27.10Perceptron(三)
    • 27.11Perceptron(四)
    • 27.12熵与信息(一)
    • 27.13熵与信息(二)
  • 第 28 讲Python进阶(上)
    • 28.1NumPy基本操作(一)
    • 28.2NumPy基本操作(二)
    • 28.3NumPy基本操作(三)
    • 28.4NumPy基本操作(四)
    • 28.5NumPy基本操作(五)
    • 28.6NumPy基本操作(六)
    • 28.7Pandas基本操作(一)
    • 28.8Pandas基本操作(二)
    • 28.9Pandas基本操作(三)
    • 28.10Pandas基本操作(四)
    • 28.11Pandas绘图(一)
    • 28.12Pandas绘图(二)
    • 28.13Pandas绘图(三)
    • 28.14Pandas绘图(四)
  • 第 29 讲Scikit-Learn
    • 29.1课程介绍
    • 29.2Scikit-Learn介绍
    • 29.3数据处理(一)
    • 29.4数据处理(二)
    • 29.5模型实例、模型选择(一)
    • 29.6模型实例、模型选择(二)
    • 29.7模型实例、模型选择(三)
    • 29.8模型实例、模型选择(四)
    • 29.9模型实例、模型选择(五)
  • 第 30 讲熵、逻辑斯蒂回归、SVM引入
    • 30.1熵(一)
    • 30.2熵(二)
    • 30.3熵(三)
    • 30.4熵(四)
    • 30.5熵(五)
    • 30.6熵(六)
    • 30.7熵(七)
    • 30.8逻辑斯蒂回归(一)
    • 30.9逻辑斯蒂回归(二)
    • 30.10逻辑斯蒂回归(三)
    • 30.11逻辑斯蒂回归(四)
    • 30.12逻辑斯蒂回归(五)
    • 30.13SVM引入
  • 第 31 讲Python进阶(下)
    • 31.1泰坦尼克数据处理与分析(一)
    • 31.2泰坦尼克数据处理与分析(二)
    • 31.3泰坦尼克数据处理与分析(三)
    • 31.4泰坦尼克数据处理与分析(四)
    • 31.5泰坦尼克数据处理与分析(五)
    • 31.6泰坦尼克数据处理与分析(六)
    • 31.7泰坦尼克数据处理与分析(七)
    • 31.8泰坦尼克数据处理与分析(八)
    • 31.9泰坦尼克数据处理与分析(九)
  • 第 32 讲决策树
    • 32.1决策树(一)
    • 32.2决策树(二)
    • 32.3决策树(三)
    • 32.4决策树(四)
  • 第 33 讲数据呈现基础
    • 33.1课程安排
    • 33.2什么是数据可视化
    • 33.3设计原则
    • 33.4数据可视化流程
    • 33.5视觉编码
    • 33.6图形选择(一)
    • 33.7图形选择(二)
    • 33.8图形选择(三)
  • 第 34 讲云计算初步
    • 34.1Hadoop介绍
    • 34.2Hdfs应用(一)
    • 34.3Hdfs应用(二)
    • 34.4MapReduce(一)
    • 34.5MapReduce(二)
    • 34.6Hive应用(一)
    • 34.7Hive应用(二)
    • 34.8Hive应用(三)
    • 34.9Hive应用(四)
  • 第 35 讲D-Park实战
    • 35.1Pig应用(一)
    • 35.2Pig应用(二)
    • 35.3Pig应用(三)
    • 35.4Pig应用(四)
    • 35.5Pig应用(五)
    • 35.6Pig应用(六)
    • 35.7Spark应用(一)
    • 35.8Spark应用(二)
    • 35.9Spark应用(三)
    • 35.10Spark应用(四)
    • 35.11Spark应用(五)
    • 35.12Spark应用(六)
    • 35.13Spark应用(七)
  • 第 36 讲第四范式分享
    • 36.1推荐技术的介绍
    • 36.2人是如何推荐商品的
    • 36.3推荐系统的形式化以及如何评价推荐结果
    • 36.4求解—从数据到模型
    • 36.5数据拆分与特征工程
    • 36.6推荐系统机器学习模型
    • 36.7评估模型
    • 36.8建模过程的演示与课间答疑
  • 第 37 讲决策树到随机森林
    • 37.1决策树
    • 37.2随机森林
    • 37.3在Scikit-Learn里面如何用随机森林做预测(一)
    • 37.4在Scikit-Learn里面如何用随机森林做预测(二)
    • 37.5模型参数的介绍
    • 37.6集成方法(一)
    • 37.7集成方法(二)
    • 37.8Blending
    • 37.9gt多样化
    • 37.10Bagging与决策树(一)
    • 37.11Bagging与决策树(二)
    • 37.12Boosting方法(一)
    • 37.13Boosting方法(二)
    • 37.14Boosting方法(三)
    • 37.15Boosting方法(四)
  • 第 38 讲数据呈现进阶
    • 38.1静态信息图(一)
    • 38.2静态信息图(二)
    • 38.3静态信息图(三)
    • 38.4静态信息图(四)
    • 38.5静态信息图(五)
    • 38.6HTML、CSS和JAVAScript基础介绍
    • 38.7DOM和开发者工具
    • 38.8D3(一)
    • 38.9D3(二)
    • 38.10D3(三)
    • 38.11div.html
    • 38.12svg.html
    • 38.13D3支持的数据类型
    • 38.14Make a map(一)
    • 38.15Make a map(二)
  • 第 39 讲强化学习(上)
    • 39.1你所了解的强化学习是什么
    • 39.2经典条件反射(一)
    • 39.3经典条件反射(二)
    • 39.4操作性条件反射
    • 39.5Evaluation Problem(一)
    • 39.6Evaluation Problem(二)
    • 39.7Evaluation Problem(三)
    • 39.8Evaluation Problem(四)
    • 39.9Policy Learning(一)
    • 39.10Policy Learning(二)
    • 39.11Policy Learning(三)
    • 39.12Policy Learning(四)
    • 39.13Policy Learning(五)
    • 39.14Policy Learning(六)
  • 第 40 讲强化学习(下)
    • 40.1Policy Learning总结
    • 40.2基于模型的RL(一)
    • 40.3基于模型的RL(二)
    • 40.4基于模型的RL(三)
    • 40.5基于模型的RL(四)
    • 40.6基于模型的RL(五)
    • 40.7基于模型的RL(六)
    • 40.8大脑中的强化学习算法(一)
    • 40.9大脑中的强化学习算法(二)
    • 40.10大脑中的强化学习算法(三)
    • 40.11大脑中的强化学习算法(四)
    • 40.12大脑中的强化学习算法(五)
    • 40.13RL in alphaGo(一)
    • 40.14RL in alphaGo(二)
    • 40.15RL in alphaGo(三)
    • 40.16RL in alphaGo(四)
  • 第 41 讲SVM和神经网络引入
    • 41.1VC维
    • 41.2SVM(一)
    • 41.3SVM(二)
    • 41.4SVM(三)
    • 41.5SVM(四)
    • 41.6SVM(五)
    • 41.7SVM(六)
    • 41.8SVM(七)
    • 41.9SVM(八)
    • 41.10SVM(九)
    • 41.11SVM(十)
    • 41.12SVM(十一)
    • 41.13SVM(十二)和神经网络引入
  • 第 42 讲集成模型总结和GDBT理解及其衍生应用
    • 42.1集成模型总结(一)
    • 42.2集成模型总结(二)
    • 42.3集成模型总结(三)
    • 42.4集成模型总结(四)
    • 42.5集成模型总结(五)
    • 42.6GDBT理解及其衍生应用(一)
    • 42.7GDBT理解及其衍生应用(二)
    • 42.8GDBT理解及其衍生应用(三)
    • 42.9GDBT理解及其衍生应用(四)
    • 42.10GDBT理解及其衍生应用(五)
    • 42.11GDBT理解及其衍生应用(六)
    • 42.12GDBT理解及其衍生应用(七)
    • 42.13GDBT理解及其衍生应用(八)
    • 42.14GDBT理解及其衍生应用(九)
    • 42.15GDBT理解及其衍生应用(十)
  • 第 43 讲神经网络
    • 43.1SVM比较其他分类起代码(一)
    • 43.2SVM比较其他分类起代码(二)
    • 43.3神经网络(一)
    • 43.4神经网络(二)
    • 43.5神经网络(三)
    • 43.6神经网络(四)
  • 第 44 讲监督学习-回归
    • 44.1机器学习的概念和监督学习
    • 44.2机器学习工作流程(一)
    • 44.3机器学习工作流程(二)
    • 44.4机器学习工作流程(三)
    • 44.5机器学习工作流程(四)
    • 44.6案例分析(一)
    • 44.7案例分析(二)
    • 44.8案例分析(三)
    • 44.9案例分析(四)
    • 44.10经验分享(一)
    • 44.11经验分享(二)
    • 44.12经验分享(三)
  • 第 45 讲监督学习-分类
    • 45.1常用的分类算法
    • 45.2模型评估标准和案例分析
    • 45.3数据探索(一)
    • 45.4数据探索(二)
    • 45.5数据探索(三)
    • 45.6数据探索(四)
    • 45.7数据探索(五)
    • 45.8数据探索(六)
    • 45.9模型训练与选择(一)
    • 45.10模型训练与选择(二)
    • 45.11Airbnb数据探索过程(一)
    • 45.12Airbnb数据探索过程(二)
    • 45.13地震数据可视化过程(一)
    • 45.14地震数据可视化过程(二)
  • 第 46 讲神经网络基础与卷积网络
    • 46.1神经网络(一)
    • 46.2神经网络(二)
    • 46.3神经网络(三)
    • 46.4神经网络(四)
    • 46.5神经网络(五)
    • 46.6神经网络(六)
    • 46.7神经网络(七)
    • 46.8神经网络(八)
    • 46.9神经网络(九)
    • 46.10神经网络(十)
    • 46.11图像处理基础
    • 46.12卷积(一)
    • 46.13卷积(二)
  • 第 47 讲时间序列预测
    • 47.1时间序列预测概述(一)
    • 47.2时间序列预测概述(二)
    • 47.3差分自回归移动平均模型(ARIMA)
    • 47.4差分自回归移动平均模型(ARIMA)案例分析(一)
    • 47.5差分自回归移动平均模型(ARIMA)案例分析(二)
    • 47.6差分自回归移动平均模型(ARIMA)案例分析(三)
    • 47.7差分自回归移动平均模型(ARIMA)案例分析(四)
    • 47.8长短期记忆网络(LSTM)(一)
    • 47.9长短期记忆网络(LSTM)(二)
    • 47.10长短期记忆网络(LSTM)案例分析
    • 47.11Facebook开源的新预测工具—Prophet(一)
    • 47.12Facebook开源的新预测工具—Prophet(二)
    • 47.13课程答疑
  • 第 48 讲人工智能金融应用
    • 48.1人工智能金融应用(一)
    • 48.2人工智能金融应用(二)
    • 48.3人工智能金融应用(三)
    • 48.4人工智能金融应用(四)
    • 48.5机器学习方法(一)
    • 48.6机器学习方法(二)
    • 48.7机器学习方法(三)
    • 48.8机器学习方法(四)
  • 第 49 讲计算机视觉深度学习入门目的篇
    • 49.1计算机视觉深度学习入门概述
    • 49.2计算机视觉领域正在关心的问题(一)
    • 49.3计算机视觉领域正在关心的问题(二)
    • 49.4实际问题转化为具体问题并用深度学习解决(一)
    • 49.5实际问题转化为具体问题并用深度学习解决(二)
    • 49.6实际问题转化为具体问题并用深度学习解决(三)
    • 49.7实际问题转化为具体问题并用深度学习解决(四)
  • 第 50 讲计算机视觉深度学习入门结构篇
    • 50.1复习计算机视觉最主要的负责特征提取的结构CNN
    • 50.2特征如何组织(一)
    • 50.3特征如何组织(二)
    • 50.4特征如何组织(三)
    • 50.5特征如何组织(四)
    • 50.6结构之间的优劣评判以及实验结果(一)
    • 50.7结构之间的优劣评判以及实验结果(二)
    • 50.8结构之间的优劣评判以及实验结果(三)
    • 50.9结构之间的优劣评判以及实验结果(四)
    • 50.10结构之间的优劣评判以及实验结果(五)
    • 50.11结构之间的优劣评判以及实验结果(六)
    • 50.12结构之间的优劣评判以及实验结果(七)
    • 50.13结构之间的优劣评判以及实验结果(八)
  • 第 51 讲计算机视觉深度学习入门优化篇
    • 51.1计算机视觉深度学习入门:优化篇概述
    • 51.2CNN模型的一阶优化逻辑
    • 51.3训练稳定性:Annealing和Momentum
    • 51.4抗拟合:从Dropout到Weight Decay
    • 51.5竞争优化器和多机并行
    • 51.6手动超参优化逻辑以及超参优化往何处去
  • 第 52 讲计算机视觉深度学习入门数据篇
    • 52.1计算机视觉领域的常用竞赛数据集
    • 52.2对数据常用的预处理工作和后处理工作如何提高竞赛成绩(一)
    • 52.3对数据常用的预处理工作和后处理工作如何提高竞赛成绩(二)
    • 52.4如何使用端到端深度学习的方法
  • 第 53 讲计算机视觉深度学习入门工具篇
    • 53.1计算机视觉深度学习入门工具篇(一)
    • 53.2计算机视觉深度学习入门工具篇(二)
    • 53.3计算机视觉深度学习入门工具篇(三)
  • 第 54 讲个性化推荐算法
    • 54.1个性化推荐的发展
    • 54.2推荐算法的演进(一)
    • 54.3推荐算法的演进(二)
    • 54.4推荐算法的演进(三)
    • 54.5推荐算法的演进(四)
    • 54.6建模step by step(一)
    • 54.7建模step by step(二)
    • 54.8建模step by step(三)
    • 54.9算法评估和迭代
    • 54.10工程化实践、常见的问题与解决方法、前沿进展与展望
  • 第 55 讲Pig和Spark巩固
    • 55.1Pig巩固(一)
    • 55.2Pig巩固(二)
    • 55.3Pig巩固(三)
    • 55.4Pig巩固(四)
    • 55.5Pig巩固(五)
    • 55.6Spark巩固(一)
    • 55.7Spark巩固(二)
    • 55.8Spark巩固(三)
    • 55.9Spark巩固(四)
    • 55.10Spark巩固(五)
  • 第 56 讲人工智能与设计
    • 56.1智能存在的意义是什么?
    • 56.2已有人工智的设计应用
    • 56.3人的智能(一)
    • 56.4人的智能(二)
    • 56.5人的智能的特点(一)
    • 56.6人的智能的特点(二)
    • 56.7人的智能的特点(三)
    • 56.8人工智能(一)
    • 56.9人工智能(二)
    • 56.10使用人工智能的方式
  • 第 57 讲神经网络
    • 57.1卷积的本质
    • 57.2卷积的三大特点
    • 57.3Pooling
    • 57.4数字识别(一)
    • 57.5数字识别(二)
    • 57.6感受野
    • 57.7RNN
  • 第 58 讲非线性动力学
    • 58.1非线性动力学
    • 58.2线性动力系统
    • 58.3线性动力学与非线性动力学系统(一)
    • 58.4线性动力学与非线性动力学系统(二)
    • 58.5定点理论
    • 58.6Poincare引理
  • 第 59 讲高频交易订单流模型
    • 59.1高频交易
    • 59.2点过程基础(一)
    • 59.3点过程基础(二)
    • 59.4点过程基础(三)
    • 59.5订单流数据分析(一)
    • 59.6订单流数据分析(二)
    • 59.7订单流数据分析(三)
    • 59.8订单流数据分析(四)
    • 59.9订单流数据分析(五)
  • 第 60 讲区块链:一场革命
    • 60.1比特币(一)
    • 60.2比特币(二)
    • 60.3比特币(三)
    • 60.4以太坊简介及ICO
  • 第 61 讲统计物理专题(一)
    • 61.1统计物理的开端(一)
    • 61.2统计物理的开端(二)
    • 61.3抛硬币抛出正态分布(一)
    • 61.4抛硬币抛出正态分布(二)
    • 61.5再造整个世界(一)
    • 61.6再造整个世界(二)
    • 61.7温度的本质(一)
    • 61.8温度的本质(二)
    • 61.9压强
    • 61.10证明理想气体方程
    • 61.11化学势
    • 61.12四大热力学势(一)
    • 61.13四大热力学势(二)
  • 第 62 讲统计物理专题(二)
    • 62.1神奇公式.mp4
    • 62.2信息熵(一)
    • 62.3信息熵(二)
    • 62.4Boltzmann分布
    • 62.5配分函数Z
  • 第 63 讲复杂网络简介
    • 63.1Networks in real worlds
    • 63.2BasicConcepts(一)
    • 63.3BasicConcepts(二)
    • 63.4Models(一)
    • 63.5Models(二)
    • 63.6Algorithms(一)
    • 63.7Algorithms(二)
  • 第 64 讲ABM简介及金融市场建模
    • 64.1课程介绍
    • 64.2系统与系统建模
    • 64.3ABM与复杂系统建模(一)
    • 64.4ABM与复杂系统建模(二)
    • 64.5ABM与复杂系统建模(三)
    • 64.6ABM为经济系统建模
    • 64.7经典经济学如何给市场建模
    • 64.8ABM与复杂系统建模-市场交易
    • 64.9ABM与复杂系统建模-技术扩散
    • 64.10ABM与复杂系统建模-交通系统(一)
    • 64.11ABM与复杂系统建模-交通系统(二)
    • 64.12ABM金融市场-SFI股票市场模型(一)
    • 64.13ABM金融市场-SFI股票市场模型(二)
    • 64.14ABM金融市场-genova市场模型
    • 64.15ABM金融市场-Agent及其行为
    • 64.16学习模型
    • 64.17ABM金融市场-价格形成机制
    • 64.18ABM的特点与缺陷
  • 第 65 讲用伊辛模型理解复杂系统
    • 65.1伊辛模型的背景及格气模型
    • 65.2伊辛模型(一)
    • 65.3伊辛模型(二)
    • 65.4从能量到统计分布及Monte Carlo模拟
    • 65.5Ising Model(2D)
    • 65.6相变和临界现象
    • 65.7Critical Exponents
    • 65.8正问题和反问题
    • 65.9(空间中的)投票模型
    • 65.10(网络中的)投票模型
    • 65.11观念动力学
    • 65.12集体运动Vicsek模型
    • 65.13自旋玻璃
    • 65.14Hopfield神经网络
    • 65.15限制Boltzmann机
    • 65.16深度学习与重正化群(一)
    • 65.17深度学习与重正化群(二)
    • 65.18总结
    • 65.19答疑
  • 第 66 讲金融市场的复杂性
    • 66.1导论(一)
    • 66.2导论(二)
    • 66.3导论(三)
    • 66.4导论(四)
    • 66.5导论(五)
    • 66.6Classical Benchmarks(一)
    • 66.7Classical Benchmarks(二)
    • 66.8Classical Benchmarks(三)
    • 66.9Classical Benchmarks(四)
    • 66.10Classical Benchmarks(五)
    • 66.11Endogenous Risk(一)
    • 66.12Endogenous Risk(二)
    • 66.13Endogenous Risk(三)
    • 66.14Endogenous Risk(四)
    • 66.15Endogenous Risk(五)
    • 66.16Endogenous Risk(六)
    • 66.17Heterogeneous Beliefs(一)
    • 66.18Heterogeneous Beliefs(二)
    • 66.19总结
  • 第 67 讲广泛出现的幂律分布
    • 67.1生物界(一)
    • 67.2生物界(二)
    • 67.3生物界(三)
    • 67.4生物界(四)
    • 67.5城市、商业(一)
    • 67.6城市、商业(二)
    • 67.7启示(一)
    • 67.8启示(二)
    • 67.9总结
  • 第 68 讲自然启发算法
    • 68.1课程回顾及答疑
    • 68.2概括(一)
    • 68.3概括(二)
    • 68.4模拟退火算法(一)
    • 68.5模拟退火算法(二)
    • 68.6进化相关的算法(一)
    • 68.7进化相关的算法(二)
    • 68.8进化相关的算法(三)
    • 68.9进化相关的算法(四)
    • 68.10粒子群算法(一)
    • 68.11粒子群算法(二)
    • 68.12粒子群算法(三)
    • 68.13遗传算法和PSO的比较
    • 68.14更多的类似的算法(一)
    • 68.15更多的类似的算法(二)
    • 68.16答疑
  • 第 69 讲机器学习的方法
    • 69.1为什么要讲学习方法
    • 69.2阅读论文
    • 69.3综述式文章举例(一)
    • 69.4综述式文章举例(二)
    • 69.5碎片化时间学习及书籍
    • 69.6视频学习资源及做思维导图
    • 69.7铁哥答疑(一)
    • 69.8铁哥答疑(二)
    • 69.9输出是最好的学习(一)
    • 69.10输出是最好的学习(二)
    • 69.11案例(一)
    • 69.12案例(二)
    • 69.13案例(三)
    • 69.14案例(四)
    • 69.15案例(五)
  • 第 70 讲模型可视化工程管理
    • 70.1课程简介
    • 70.2虚拟换环境—Anaconda&docker(一)
    • 70.3虚拟换环境—Anaconda&docker(二)
    • 70.4虚拟换环境—Anaconda&docker(三)
    • 70.5虚拟换环境—Anaconda&docker(四)
    • 70.6虚拟换环境—Anaconda&docker(五)
    • 70.7虚拟换环境—Anaconda&docker(六)
    • 70.8虚拟换环境—Anaconda&docker(七)
    • 70.9虚拟换环境—Anaconda&docker(八)
    • 70.10定制化可视化系统—Jupyter Dashboard(一)
    • 70.11定制化可视化系统—Jupyter Dashboard(二)
    • 70.12变身前端—seaboarn+Bokeh+Echarts
    • 70.13日志管理系统—ELK
    • 70.14极速Bi系统—superset
    • 70.15Dashboard补充
    • 70.16ELK补充
    • 70.17Superset补充
    • 70.18Superset补充及总结
  • 第 71 讲Value Iteration Networks
    • 71.1Background&Motivation
    • 71.2Value Iteration
    • 71.3Grid—world Domain
    • 71.4总结及答疑
  • 第 72 讲非线性动力学系统(上)
    • 72.1非线性动力学系统(一)
    • 72.2非线性动力学系统(二)
    • 72.3二维系统动力学综述—Poincare引理
    • 72.4Bifurcation(一)
    • 72.5Bifurcation(二)
    • 72.6Bifurcation(三)
    • 72.7Bifurcation(四)
    • 72.8Bifurcation(五)
    • 72.9Bifurcation(六)
    • 72.10混沌(一)
    • 72.11混沌(二)
    • 72.12混沌(三)
    • 72.13混沌(四)
    • 72.14混沌(五)
    • 72.15混沌(六)
    • 72.16混沌(七)
    • 72.17混沌(八)
    • 72.18混沌(九)
    • 72.19混沌(十)
    • 72.20混沌(十一)
  • 第 73 讲非线性动力学系统(下)
    • 73.1自然语言处理乱弹(一)
    • 73.2自然语言处理乱弹(二)
    • 73.3RNN
    • 73.4RNN及答疑
  • 第 74 讲自然语言处理导入
    • 74.1中文分词
    • 74.2中文分词、依存文法分析
    • 74.3篇章分析、自动摘要、知识提取、文本相似度计算
    • 74.4知识库构建、问答系统
    • 74.5示范战狼2的豆瓣评论词云(一)
    • 74.6示范战狼2的豆瓣评论词云(二)
    • 74.7示范战狼2的豆瓣评论词云(三)
    • 74.8示范战狼2的豆瓣评论词云(四)
    • 74.9示范战狼2的豆瓣评论词云(五)
  • 第 75 讲复杂网络上的物理传输过程
    • 75.1一些基本概念
    • 75.2常用的统计描述物理量
    • 75.3四种网络模型
    • 75.4一些传播动力学模型(一)
    • 75.5一些传播动力学模型(二)
    • 75.6一些传播动力学模型(三)
    • 75.7一些传播动力学模型(四)
    • 75.8一些传播动力学模型(五)
    • 75.9一些传播动力学模型(六)
    • 75.10一些传播动力学模型(七)
    • 75.11一些传播动力学模型(八)
    • 75.12仿真模型的建立过程(一)
    • 75.13仿真模型的建立过程(二)
    • 75.14仿真模型的建立过程(三)
    • 75.15仿真模型的建立过程(四)
    • 75.16Combining complex networks and data mining
  • 第 76 讲RNN及LSTM
    • 76.1RNN—序列处理器(一)
    • 76.2RNN—序列处理器(二)
    • 76.3A simple enough case
    • 76.4A dance between fix points
    • 76.5Fix point、Train Chaos
    • 76.6RNN作为生成模型(动力系统)
    • 76.7RNN训练—BPTT(一)
    • 76.8RNN训练—BPTT(二)
    • 76.9梯度消失与梯度爆炸(一)
    • 76.10梯度消失与梯度爆炸(二)
    • 76.11Reservoir computing—偷懒方法
    • 76.12LSTM
    • 76.13LSTM、Use Examples
    • 76.14词向量、Deep RNN
    • 76.15Encoder Decoder Structure
    • 76.16LSTM Text Generation(一)
    • 76.17LSTM Text Generation(二)
    • 76.18LSTM Text Generation(三)
  • 第 77 讲漫谈人工智能创业
    • 77.1人工智能对我们生活的影响(一)
    • 77.2人工智能对我们生活的影响(二)
    • 77.3人工智能对我们生活的影响(三)
    • 77.4人工智能对我们生活的影响(四)
    • 77.5人工智能对我们生活的影响(五)
    • 77.6人工智能对我们生活的影响(六)
    • 77.7人工智能创业中的商业思维
    • 77.8三个战略管理学商业模型(一)
    • 77.9三个战略管理学商业模型(二)
    • 77.10三个战略管理学商业模型(三)
    • 77.11三个战略管理学商业模型(四)
    • 77.12三个战略管理学商业模型(五)
    • 77.13三个战略管理学商业模型(六)
    • 77.14三个战略管理学商业模型(七)
    • 77.15三个战略管理学商业模型(八)
    • 77.16三个战略管理学商业模型(九)
    • 77.17关于Entrepreneurship
  • 第 78 讲深度学习其他主题
    • 78.1神经网络的无穷潜力
    • 78.2玻尔兹曼机—联想的机器
    • 78.3受限玻尔兹曼机
    • 78.4对抗学习(一)
    • 78.5对抗学习(二)
    • 78.6对抗学习(三)
    • 78.7对抗学习(四)
    • 78.8程序讲解(一)
    • 78.9程序讲解(二)
    • 78.10程序讲解(三)
  • 第 79 讲课程总结
    • 79.1开场
    • 79.2Attention实例—Spatial Transformer
    • 79.3猫狗大战—CNN实战(一)
    • 79.4猫狗大战—CNN实战(二)
    • 79.5RNN诗人
    • 79.6课程复习
    • 79.7课程大纲(一)
    • 79.8课程大纲(二)
    • 79.9课程总结(一)
    • 79.10课程总结(二)

游客,如果您要查看本帖隐藏内容请回复


管理员
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|IT视频教程资源网 网站地图

GMT+8, 2024-12-23 19:34 , Processed in 5.546080 second(s), 22 queries .

快速回复 返回顶部 返回列表

客服
热线

微信 webshop6
7*24小时微信 客服服务

扫码添
加微信

添加客服微信 webshop6 获取更多

关注
公众号

关注微信公众号 webjianzhan