Next ForgeOpenTech
Books

Table of contents

  • 00_前言
  • 01_步骤1_作为“箱子”的变量
  • 02_步骤2_创建变量的函数
  • 03_步骤3_函数的连续调用
  • 04_步骤4_数值微分
  • 05_步骤5_反向传播的理论知识
  • 06_步骤6_手动进行反向传播
  • 07_步骤7_反向传播的自动化
  • 08_步骤8_从递归到循环
  • 09_步骤9_让函数更易用
  • 10_步骤10_测试
  • 11_步骤11_可变长参数(正向传播篇)
  • 12_步骤12_可变长参数(改进篇)
  • 13_步骤13_可变长参数(反向传播篇)
  • 14_步骤14_重复使用同一个变量
  • 15_步骤15_复杂的计算图(理论篇)
  • 16_步骤16_复杂的计算图(实现篇)
  • 17_步骤17_内存管理和循环引用
  • 18_步骤18_减少内存使用量的模式
  • 19_步骤19_让变量更易用
  • 20_步骤20_运算符重载(1)
  • 21_步骤21_运算符重载(2)
  • 22_步骤22_运算符重载(3)
  • 23_步骤23_打包
  • 24_步骤24_复杂函数的求导
  • 25_步骤25_计算图的可视化(1)
  • 26_步骤26_计算图的可视化(2)
  • 27_步骤27_泰勒展开的导数
  • 28_步骤28_函数优化
  • 29_步骤29_使用牛顿法进行优化(手动计算)
  • 30_步骤30_高阶导数(准备篇)
  • 31_步骤31_高阶导数(理论篇)
  • 32_步骤32_高阶导数(实现篇)
  • 33_步骤33_使用牛顿法进行优化(自动计算)
  • 34_步骤34_sin函数的高阶导数
  • 35_步骤35_高阶导数的计算图
  • 36_步骤36_DeZero的其他用途
  • 37_步骤37_处理张量
  • 38_步骤38_改变形状的函数
  • 39_步骤39_求和的函数
  • 40_步骤40_进行广播的函数
  • 41_步骤41_矩阵的乘积
  • 42_步骤42_线性回归
  • 43_步骤43_神经网络
  • 44_步骤44_汇总参数的层
  • 45_步骤45_汇总层的层
  • 46_步骤46_通过Optimizer更新参数
  • 47_步骤47_softmax函数和交叉熵误差
  • 48_步骤48_多分类
  • 49_步骤49_Dataset类和预处理
  • 50_步骤50_用于取出小批量数据的 DataLoader
  • 51_步骤51_MINST的训练
  • 52_步骤52_支持GPU
  • 53_步骤53_模型的保存和加载
  • 54_步骤54_Dropout和测试模式
  • 55_步骤55_CNN的机制(1)
  • 56_步骤56_CNN的机制(2)
  • 57_步骤57_conv2d函数和pooling函数
  • 58_步骤58_具有代表性的CNN(VGG16)
  • 59_步骤59_使用RNN处理时间序列数据
  • 60_步骤60_LSTM与数据加载器
  • 99_后记
  • 100_参考文献
  • 附录A_in-place运算(步骤14的补充内容)

35_步骤35_高阶导数的计算图

Nothing to preview yet.
Previous34.3_sin函数的高阶导数
Next35.1_tanh函数的导数

OpenTech

AI-Powered Reading and Learning Platform

Built withLogoNexty.dev

Languages

  • English
  • 中文
  • 日本語

Open Source

  • Next Forge
  • Landing Page Boilerplate
  • Blog Boilerplate

Other Products

  • Nexty - SaaS Template
  • OG Image Generator
  • Dofollow.Tools

Subscribe to our newsletter

Get the latest news and updates from Next Forge

Copyright © 2025 Next Forge All rights reserved.

Privacy PolicyTerms of Service
Featured on Dofollow.Tools