在深度学习和数据科学的世界里,“张量(Tensor)” 这个词出现的频率越来越高。它就像一位隐形的功臣,支撑着从图像识别到自然语言处理的各种 AI 应用。但对于刚接触这个领域的人来说,张量似乎总是带着一层神秘的面纱。今天,我们就来揭开这层面纱,深入了解什么是张量,它与我们熟悉的标量、向量有什么区别,以及它在实际应用中发挥的重要作用。
一、什么是张量?
1. 数学视角下的张量
在数学中,张量是一种多线性映射,用于描述向量空间及其对偶空间之间的线性关系。说得更通俗一点,张量是标量、向量、矩阵的高维扩展,它的核心特征是 “阶数(Order)”,也被称为 “维度” 或 “秩”,阶数代表了描述数据所需的索引数量。比如,0 阶张量就是标量,没有索引;1 阶张量是向量,有 1 个索引;2 阶张量是矩阵,有 2 个索引;n 阶张量则需要 n 个索引来描述。
2. 工程中的张量(以 AI 为例)
在计算机科学和深度学习中,张量的定义更偏向 “高维数组”,但依然保留了数学中的 “阶数” 概念。可以简单理解为:张量 = 多维数组 + 数学运算规则。在 PyTorch、TensorFlow 等主流的深度学习框架中,张量是数据的基本载体,它支持高效的并行计算和复杂的数学操作,是实现各种算法的基础。
二、张量与标量、向量、矩阵的区别
张量、标量(Scalar)、向量(Vector)、矩阵(Matrix)的核心区别在于阶数(维度)和数据表示能力。我们通过表格来清晰对比它们: