线性代数|《深度学习》课后习题解析(仅供参考)

(1)给定任意方矩阵 A , A+A? 总是对称的吗?为什么?
由线性代数的基础知识可知, (A + AT)T = AT + (AT)T = A + AT
(2) 在2.3.4节中定义了形状(2,3,4)的张量X.len(X)的输出结果是什么?

X = torch.arange(24).reshape(2, 3, 4) len(X)

线性代数|《深度学习》课后习题解析(仅供参考)
文章图片


(3) 对于任意形状的张量X,len(X)是否总是对应于X特定轴的长度?这个轴是什么?
len(X) 总对应第 0 轴的长度(可以利用代码自己实现)
(4) 在2.3.6节基础上运行A/A.sum(axis=1),看看会发生什么。你能分析原因吗?
A = torch.arange(12).reshape(3,4) A / A.sum(axis=1)

通过照抄2.3.6节的代码可以发现运行后出现如下错误
RuntimeError: The size of tensor a (4) must match the size of tensor b (3) at non-singleton dimension 1

这是因为维度不对 A 是一个3 * 4 的矩阵,而 A.sum(axis=1) 是一个大小为 3 的向量,两者不能相除。(注:广播只能发生在两者维数相同的情况下,比如都是二维)
2. 编程绘制函数 线性代数|《深度学习》课后习题解析(仅供参考)
文章图片
和其在x = 1处切线的图像
x = np.arange(-10, 10, 0.01) def f(x): return x ** 3 - 1 / x plot(x, [f(x), 2* x ], 'x', 'f(x)', legend=['f(x)', 'Tangent line (x=1)']) plt.ylim(-10,10) plt.show()


3. 为什么计算二阶导数比一阶导数的开销要更大?
因为二阶导数是在一阶导数的基础上再求导,所以开销肯定比计算一阶导数大
4. 给定两个概率为 P(A) 和 P(B) 的事件,计算 P(A∪B) 和 P(A∩B) 的上限和下限。(提示:使用友元图来展示这些情况。)
对于 P ( A ∪ B ) ,上限是 P(A) + P(B),下限是 max{P(A), P(B)}。
对于P ( A ∩ B),上限是 min{P(A), P(B)},下限是 0。
(画图)
线性代数|《深度学习》课后习题解析(仅供参考)
文章图片

线性代数|《深度学习》课后习题解析(仅供参考)
文章图片


【线性代数|《深度学习》课后习题解析(仅供参考)】

    推荐阅读