Adline125's Blog

NLP Engineer, Google Developers Expert

0%

把数学看作是一种解决问题的工具。解决问题的关键往往在于找到我们研究对象的恰当表示。将矩阵视为一种数据变换的方式,为我们提供了所需的几何视角,开辟了一条全新的方法之路。

通过前几次的对机器学习涉及到的线性知识的回顾,本次我们做一次全面的总结。并由此提出一系列相关问题留给读者思考。

Read more »

在前面的章节中,我们已经看到,线性变换可以被认为是对由基向量确定的网格进行扭曲。

根据我们的几何直觉,我们推测测量变换对体积和距离的扭曲程度可以提供一些有价值的见解。正如我们将在本章中看到的,情况确实如此。保持距离或范数不变的变换很特殊,由此衍生出诸如主成分分析之类的方法。

Read more »

在二维空间中,我们已经了解了一些几何映射的例子,例如缩放和旋转,它们都是线性变换。现在我们可以将它们转化为矩阵形式。我们将重点研究其中的五种:拉伸、剪切、旋转、反射和投影。

这些简单的变换不仅对于建立直觉至关重要,而且在计算机视觉中也经常应用。翻转、旋转和拉伸是图像增强流程的重要组成部分, 它们能够极大地提升模型的性能。

Read more »

我们已经看到,任何线性变换都可以用基向量的像来描述。这给了我们经常使用的矩阵表示。然而,这很大程度上取决于基的选择。对于相同的变换,不同的基会产生不同的矩阵。这就涉及到基变换和变换矩阵。

Read more »

在大多数线性代数课程中,矩阵是课程的核心。而在机器学习中,我们则始终与矩阵打交道。问题是:矩阵并不能说明一切。仅仅看矩阵很难理解其中的规律。例如,为什么矩阵乘法的定义如此复杂?为什么像\(𝐵 = 𝑇^{−1}𝐴𝑇\)这样的关系很重要?为什么有些矩阵可逆,而有些则不可逆?

为了真正理解其中的奥秘,我们必须探究矩阵的起源:线性变换。

Read more »

本文是基于《深度学习中的数学》一书中的思想,旨在从本文起系列阐述深度学习技术背后的数学原理,给想要对深度学习更进一步了解的读者提供一个可以查阅的底层原理资料。本文共分为四个部分,此为第四部分。

Read more »

本文是基于《深度学习中的数学》一书中的思想,旨在从本文起系列阐述深度学习技术背后的数学原理,给想要对深度学习更进一步了解的读者提供一个可以查阅的底层原理资料。本文共分为四个部分,此为第三部分。

Read more »

本文是基于《深度学习中的数学》一书中的思想,旨在从本文起系列阐述深度学习技术背后的数学原理,给想要对深度学习更进一步了解的读者提供一个可以查阅的底层原理资料。本文共分为四个部分,此为第二部分。

Read more »

本文是基于《深度学习中的数学》一书中的思想,旨在从本文起系列阐述深度学习技术背后的数学原理,给想要对深度学习更进一步了解的读者提供一个可以查阅的底层原理资料。本文共分为四个部分,此为第一部分。

Read more »