2-30 年前,一想到神经网络,我们就会想到生物神经系统中数以万计的细胞联结,将感官和反射器联系在一起的系统. 但是今天,你可能的第一反应却是.. 电脑 和电脑程序当中的人工神经网络. 昔日复杂的动神经网络系统居然神奇地放入了计算机? 而且人类正在将这种人工神经网络系统推向更高的境界. 今天的世界早已布满了人工神经网络的身影。
目录
- 有趣的机器学习
- 机器学习方法
- 机器学习 (Machine Learning)
- 神经网络
- 科普: 人工神经网络 VS 生物神经网络
- 神经网络 (Neural Network)
- 卷积神经网络 CNN (Convolutional Neural Network)
- 循环神经网络 RNN (Recurrent Neural Network)
- LSTM RNN 循环神经网络 (LSTM)
- 自编码 (Autoencoder)
- 生成对抗网络 (GAN)
- 科普: 神经网络的黑盒不黑
- 神经网络 梯度下降
- 迁移学习 Transfer Learning
- 神经网络技巧
- 检验神经网络 (Evaluation)
- 特征标准化 (Feature Normalization)
- 选择好特征 (Good Features)
- 激励函数 (Activation Function)
- 过拟合 (Overfitting)
- 加速神经网络训练 (Speed Up Training)
- 处理不均衡数据 (Imbalanced data)
- 批标准化 (Batch Normalization)
- L1 / L2 正规化 (Regularization)
- 自然语言处理
- 什么是自然语言处理 NLP
- 你天天用的搜索引擎是怎么工作的
- 机器是这样理解语言 - 词向量
- 强化学习
- 强化学习
- 强化学习方法汇总
- Q Leaning
- Sarsa
- Sarsa(lambda)
- DQN
- Policy Gradients
- Actor Critic
- Deep Deterministic Policy Gradient (DDPG)
- Asynchronous Advantage Actor-Critic (A3C)
- AlphaGo Zero 为什么更厉害?
- 进化算法
- 遗传算法 (Genetic Algorithm)
- 进化策略 (Evolution Strategy)
- 神经网络进化 (Neuro-Evolution)
- 自然语言处理
- 简介
- 莫烦带你 NLP 六连问
- 自然语言处理 NLP 简介
- NLP 课程怎么学
- 搜索
- 你天天用的搜索引擎是怎么工作的
- 统计学让搜索速度起飞
- 搜索的扩展
- 理解词语
- 机器是这样理解语言 - 词向量
- Continuous Bag of Words (CBOW)
- Skip-Gram
- 理解句子
- Seq2Seq 生成模型
- CNN 的语言模型
- 全都是注意力
- Seq2Seq Attention 注意力机制
- Transformer 将注意力发挥到极致
- 预训练模型
- ELMo 一词多义
- GPT 单向语言模型
- BERT 双向语言模型
- 更多应用
- 强化学习
- 简介
- 什么是强化学习
- 强化学习方法汇总
- 为什么用强化学习 Why?
- 课程要求
- Q-learning
- 什么是 Q Leaning
- 小例子
- Q-learning 算法更新
- Q-learning 思维决策
- Sarsa
- 什么是 Sarsa
- Sarsa 算法更新
- Sarsa 思维决策
- 什么是 Sarsa(lambda)
- Sarsa-lambda
- Deep Q Network
- 什么是 DQN
- DQN 算法更新
- DQN 神经网络
- DQN 思维决策
- OpenAI gym 环境库
- Double DQN
- Prioritized Experience Replay (DQN)
- Dueling DQN
- Policy Gradient
- 什么是 Policy Gradients
- Policy Gradients 算法更新
- Policy Gradients 思维决策
- Actor Critic
- 什么是 Actor Critic
- Actor Critic
- 什么是 DDPG
- Deep Deterministic Policy Gradient (DDPG)
- 什么是 Asynchronous Advantage Actor-Critic (A3C)
- Asynchronous Advantage Actor-Critic (A3C)
- Distributed Proximal Policy Optimization (DPPO)
- 进化算法
- 算法简介
- 进化算法 简介
- 遗传算法 (Genetic Algorithm)
- 遗传算法 (Genetic Algorithm)
- 遗传算法
- 例子 配对句子
- 例子 旅行商人问题 (TSP)
- Microbial Genetic Algorithm
- 进化策略 (Evolution Strategy)
- 什么是进化策略 (Evolution Strategy)
- 进化策略
- (1+1)-ES
- Natural Evolution Strategy
- 神经进化 (NeuroEvolution)
- 什么是神经网络进化 (Neuro-Evolution)
- 神经进化
- NEAT 监督学习
- NEAT 强化学习
- Evolution Strategy 强化学习
- TensorFlow
- Tensorflow 简介
- 科普: 人工神经网络 VS 生物神经网络
- 什么是神经网络 (Neural Network)
- 神经网络 梯度下降
- 科普: 神经网络的黑盒不黑
- 为什么选 Tensorflow?
- Tensorflow 安装
- 神经网络在干嘛
- Tensorflow 基础构架
- 处理结构
- 例子 2
- Session 会话控制
- Variable 变量
- Placeholder 传入值
- 什么是激励函数 (Activation Function)
- 激励函数 Activation Function
- 建造我们第一个神经网络
- 例子 3 添加层 def add_layer()
- 例子 3 建造神经网络
- 例子 3 结果可视化
- 加速神经网络训练 (Speed Up Training)
- 优化器 optimizer
- 可视化好助手 Tensorboard
- Tensorboard 可视化好帮手 1
- Tensorboard 可视化好帮手 2
- 高阶内容
- Classification 分类学习
- 什么是过拟合 (Overfitting)
- Dropout 解决 overfitting
- 什么是卷积神经网络 CNN (Convolutional Neural Network)
- CNN 卷积神经网络 1
- CNN 卷积神经网络 2
- CNN 卷积神经网络 3
- Saver 保存读取
- 什么是循环神经网络 RNN (Recurrent Neural Network)
- 什么是 LSTM 循环神经网络
- RNN 循环神经网络
- RNN LSTM 循环神经网络 (分类例子)
- RNN LSTM (回归例子)
- RNN LSTM (回归例子可视化)
- 什么是自编码 (Autoencoder)
- 自编码 Autoencoder (非监督学习)
- scope 命名方法
- 什么是批标准化 (Batch Normalization)
- Batch Normalization 批标准化
- Tensorflow 2017 更新
- 用 Tensorflow 可视化梯度下降
- 什么是迁移学习 Transfer Learning
- 迁移学习 Transfer Learning
- PyTorch
- PyTorch 简介
- 科普: 人工神经网络 VS 生物神经网络
- 什么是神经网络 (Neural Network)
- 神经网络 梯度下降
- 科普: 神经网络的黑盒不黑
- Why Pytorch?
- Pytorch 安装
- PyTorch 神经网络基础
- Torch 或 Numpy
- 变量 (Variable)
- 什么是激励函数 (Activation Function)
- 激励函数 (Activation)
- 建造第一个神经网络
- 关系拟合 (回归)
- 区分类型 (分类)
- 快速搭建法
- 保存提取
- 批训练
- 加速神经网络训练 (Speed Up Training)
- Optimizer 优化器
- 高级神经网络结构
- 什么是卷积神经网络 CNN (Convolutional Neural Network)
- CNN 卷积神经网络
- 什么是循环神经网络 RNN (Recurrent Neural Network)
- 什么是 LSTM 循环神经网络
- RNN 循环神经网络 (分类)
- RNN 循环神经网络 (回归)
- 什么是自编码 (Autoencoder)
- AutoEncoder (自编码/非监督学习)
- 什么是 DQN
- DQN 强化学习
- 什么是生成对抗网络 (GAN)
- GAN (Generative Adversarial Nets 生成对抗网络)
- 高阶内容
- 为什么 Torch 是动态的
- GPU 加速运算
- 什么是过拟合 (Overfitting)
- Dropout 缓解过拟合
- 什么是批标准化 (Batch Normalization)
- Batch Normalization 批标准化
- Theano
- Theano 简介
- 科普: 人工神经网络 VS 生物神经网络
- 什么是神经网络 (Neural Network)
- 神经网络 梯度下降
- 科普: 神经网络的黑盒不黑
- Why Theano?
- Theano 安装
- 神经网络在做什么
- Theano 基础构架
- 基本用法
- Function 用法
- Shared 变量
- 什么是激励函数 (Activation Function)
- Activation function 激励函数
- 搭建自己的神经网络
- 定义 Layer 类
- Regression 回归例子
- 可视化结果 回归例子
- Classification 分类学习
- 什么是过拟合 (Overfitting)
- Regularization 正规化
- Save 保存 提取
- 总结
- 总结和更多
- Keras
- Keras 简介
- 科普: 人工神经网络 VS 生物神经网络
- 什么是神经网络 (Neural Network)
- 神经网络 梯度下降
- 神经网络的黑盒不黑
- Why Keras?
- Keras 安装
- 兼容 backend
- 如何搭建各种神经网络
- Regressor 回归
- Classifier 分类
- 什么是卷积神经网络 CNN (Convolutional Neural Network)
- CNN 卷积神经网络
- 什么是循环神经网络 RNN (Recurrent Neural Network)
- 什么是 LSTM 循环神经网络
- RNN Classifier 循环神经网络
- RNN Regressor 循环神经网络
- 什么是自编码 (Autoencoder)
- Autoencoder 自编码
- 其他应用
- Save & reload 保存提取
- Scikit-Learn
- Sklearn 简介
- 机器学习 (Machine Learning)
- Why Sklearn?
- Sklearn 安装
- 一般使用
- 选择学习方法
- 通用学习模式
- sklearn 强大数据库
- sklearn 常用属性与功能
- 高级使用
- 正规化 Normalization
- 检验神经网络 (Evaluation)
- 交叉验证 1 Cross-validation
- 交叉验证 2 Cross-validation
- 交叉验证 3 Cross-validation
- 保存模型
- 机器学习实战
- 强化学习机器人手臂
- 从头开始做一个机器手臂 1 搭建结构
- 从头开始做一个机器手臂 2 写静态环境
- 从头开始做一个机器手臂 3 写动态环境
- 从头开始做一个机器手臂 4 加入强化学习算法
- 从头开始做一个机器手臂 5 完善测试
- 汽车状态分类器
- 从头开始做一个汽车状态分类器 1 分析数据
- 从头开始做一个汽车状态分类器 2 搭建模型
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论