线性代数|《深度学习》课后习题解析(仅供参考)
(1)给定任意方矩阵 A , A+A? 总是对称的吗?为什么?
由线性代数的基础知识可知, (A + AT)T = AT + (AT)T = A + AT
(2) 在2.3.4节中定义了形状(2,3,4)的张量X.len(X)的输出结果是什么?
X = torch.arange(24).reshape(2, 3, 4)
len(X)
文章图片
(3) 对于任意形状的张量X,len(X)是否总是对应于X特定轴的长度?这个轴是什么?
len(X) 总对应第 0 轴的长度(可以利用代码自己实现)
(4) 在2.3.6节基础上运行A/A.sum(axis=1),看看会发生什么。你能分析原因吗?
A = torch.arange(12).reshape(3,4)
A / A.sum(axis=1)
通过照抄2.3.6节的代码可以发现运行后出现如下错误
RuntimeError: The size of tensor a (4) must match the size of tensor b (3) at non-singleton dimension 1
这是因为维度不对 A 是一个3 * 4 的矩阵,而 A.sum(axis=1) 是一个大小为 3 的向量,两者不能相除。(注:广播只能发生在两者维数相同的情况下,比如都是二维)
2. 编程绘制函数
文章图片
和其在x = 1处切线的图像
x = np.arange(-10, 10, 0.01)
def f(x):
return x ** 3 - 1 / x
plot(x, [f(x), 2* x ], 'x', 'f(x)', legend=['f(x)', 'Tangent line (x=1)'])
plt.ylim(-10,10)
plt.show()
3. 为什么计算二阶导数比一阶导数的开销要更大?
因为二阶导数是在一阶导数的基础上再求导,所以开销肯定比计算一阶导数大
4. 给定两个概率为 P(A) 和 P(B) 的事件,计算 P(A∪B) 和 P(A∩B) 的上限和下限。(提示:使用友元图来展示这些情况。)
对于 P ( A ∪ B ) ,上限是 P(A) + P(B),下限是 max{P(A), P(B)}。
对于P ( A ∩ B),上限是 min{P(A), P(B)},下限是 0。
(画图)
文章图片
文章图片
【线性代数|《深度学习》课后习题解析(仅供参考)】
推荐阅读
- 慢慢的美丽
- 《真与假的困惑》???|《真与假的困惑》??? ——致良知是一种伟大的力量
- 《跨界歌手》:亲情永远比爱情更有泪点
- 诗歌:|诗歌: 《让我们举起世界杯,干了!》
- 期刊|期刊 | 国内核心期刊之(北大核心)
- 《魔法科高中的劣等生》第26卷(Invasion篇)发售
- 人间词话的智慧
- 《一代诗人》37期,生活,江南j,拨动心潭的一泓秋水
- 广角叙述|广角叙述 展众生群像——试析鲁迅《示众》的展示艺术
- 书评——《小行星》