当前位置: 首页 > news >正文

洛阳做网站找哪家好贵州网站开发哪家好

洛阳做网站找哪家好,贵州网站开发哪家好,网站云空间,黄骅贴吧二手房用损失函数#xff08;Loss Functions#xff09;计算网络误差 引言1. 分类交叉熵损失#xff08;Categorical Cross-Entropy Loss#xff09;2. 分类交叉熵损失类#xff08;The Categorical Cross-Entropy Loss Class#xff09;展示到目前为止的所有代码3. 准确率计算… 用损失函数Loss Functions计算网络误差 引言1. 分类交叉熵损失Categorical Cross-Entropy Loss2. 分类交叉熵损失类The Categorical Cross-Entropy Loss Class展示到目前为止的所有代码3. 准确率计算Accuracy Calculation 引言 在随机初始化的模型中或者即使是采用更复杂方法初始化的模型中我们的目标是随着时间的推移培训或教育一个模型。为了训练一个模型我们调整权重和偏差以提高模型的准确性和置信度。为此我们需要计算模型的错误量。损失函数也被称为成本函数是量化模型错误程度的算法。损失是这一指标的衡量。由于损失是模型的错误我们理想情况下希望它为0。 你可能会想知道为什么我们不根据 argmax 准确度来计算模型的错误。回想我们之前的置信度示例[0.22, 0.6, 0.18] 对比 [0.32, 0.36, 0.32]。如果正确的类确实是中间的那一个索引1那么两个例子之间的模型准确性将是相同的。但是这两个例子真的像彼此那样准确吗它们不是因为准确性只是简单地应用一个 argmax 到输出上以找到最大值的索引。神经网络的输出实际上是置信度对正确答案的更多置信度是更好的。因此我们努力增加正确的置信度并减少错误放置的置信度。 1. 分类交叉熵损失Categorical Cross-Entropy Loss 如果你熟悉线性回归那么你已经知道了用于神经网络进行回归的一个损失函数平方误差或神经网络中的均方误差。 在这个例子中我们不是在进行回归我们是在进行分类所以我们需要一个不同的损失函数。模型的输出层使用softmax激活函数这意味着它输出一个概率分布。分类交叉熵专门用于比较一个“真实”概率 y y y 或“目标”和某个预测分布 y − h a t y-hat y−hat 或“预测”因此在这里使用交叉熵是有意义的。它也是输出层上使用softmax激活时最常用的损失函数之一。 计算 y y y 实际/期望分布和 y − h a t y-hat y−hat 帽预测分布的分类交叉熵的公式是 其中 L i L_i Li​ 表示样本的损失值 i i i 是集合中的第 i i i 个样本 j j j 是标签/输出索引 y y y 表示目标值而 y ^ \hat{y} y^​ 表示预测值。 一旦我们开始编写解决方案我们会进一步简化它为 − log ⁡ ( c o r r e c t _ c l a s s _ c o n f i d e n c e ) -\log({correct\_class\_confidence}) −log(correct_class_confidence)其公式为 其中 L i L_i Li​ 表示样本的损失值 i i i 是数据集中第 i i i 个样本 k k k 是目标标签的索引真实标签 y y y 表示目标值 y ^ \hat{y} y^​ 表示预测值。 你可能会问为什么我们称这为交叉熵而不是对数损失后者也是一种损失类型。如果你不知道什么是对数损失你可能会想知道为什么这样一个看似非常基本的描述会有这样一个看似复杂的公式。 通常情况下对数损失误差函数是我们应用于二元逻辑回归模型输出的函数我们将在第十六章描述——分布中只有两个类别每个类别对应一个单一输出神经元该输出被标记为0或1。在我们的案例中我们有一个分类模型它返回所有输出的概率分布。交叉熵比较两个概率分布。在我们的案例中我们有一个softmax输出比如说是 softmax_output [0.7, 0.1, 0.2]我们打算将这个概率分布与哪一个进行比较在上述输出中我们有3个类的置信度假设期望的预测是第一类索引0当前为0.7。如果这是预期的预测那么期望的概率分布是 [1, 0, 0]。交叉熵也可以应用于像 [0.2, 0.5, 0.3] 这样的概率分布它们不必看起来像上面那样。也就是说期望的概率将包括在期望类别中为1在其余不期望的类别中为0。这样的数组或向量被称为one-hot意味着其中一个值是“热”开值为1其余的是“冷”关值为0。当使用交叉熵将模型的结果与one-hot向量进行比较时方程的其他部分将归零目标概率的对数损失乘以1使得交叉熵计算相对简单。这也是交叉熵计算的一个特殊情况称为分类交叉熵。举个例子 — 如果我们取一个softmax输出 [0.7, 0.1, 0.2] 和目标 [1, 0, 0]我们可以按以下方式进行计算 如果还是不理解的话我的理解是背下来就好。你只需要知道的事情是我们需要一个Loss函数来更新神经网络使得 y y y和 y ^ \hat{y} y^​尽可能接近。至于使用哪个Loss函数或者Loss函数是什么样的直接上网查就行。 让我们看看相关的 Python 代码 import math# An example output from the output layer of the neural network softmax_output [0.7, 0.1, 0.2]# Ground truth target_output [1, 0, 0]loss -(math.log(softmax_output[0])*target_output[0] math.log(softmax_output[1])*target_output[1] math.log(softmax_output[2])*target_output[2])print(loss)0.35667494393873245这就是完整的分类交叉熵计算但鉴于one-hot目标向量我们可以做一些假设。首先这种情况下 target_output[1] 和 target_output[2] 的值是多少它们都是0任何数乘以0都是0。因此我们不需要计算这些索引。接下来这种情况下 target_output[0] 的值是多少它是1。所以这也可以省略因为任何数乘以1仍然是相同的。那么在这个例子中相同的输出可以用以下方式计算 import math# An example output from the output layer of the neural network softmax_output [0.7, 0.1, 0.2]loss -math.log(softmax_output[0])print(loss)0.35667494393873245正如你可以看到的对于代表目标的one-hot向量或标量值我们可以做一些简单的假设并使用更基本的计算方法——曾经涉及的公式简化为目标类别置信度得分的负对数——这是本章开头介绍的第二个公式。 正如我们已经讨论过的示例置信水平可能看起来像 [0.22, 0.6, 0.18] 或 [0.32, 0.36, 0.32]。在这两种情况下这些向量的 argmax 都会返回第二个类别作为预测但模型对这些预测的置信度只对其中一个是高的。分类交叉熵损失考虑到这一点并且输出的损失值会随着置信度的降低而增大 import mathprint(math.log(1.)) print(math.log(0.95)) print(math.log(0.9)) print(math.log(0.8)) print(...) print(math.log(0.2)) print(math.log(0.1)) print(math.log(0.05)) print(math.log(0.01))0.0 -0.05129329438755058 -0.10536051565782628 -0.2231435513142097 ... -1.6094379124341003 -2.3025850929940455 -2.995732273553991 -4.605170185988091我们为一些示例置信度打印了不同的对数值。当置信水平等于1意味着模型对其预测100%“确定”时这个样本的损失值等于0。随着置信水平的提高损失值趋近于0。你可能还会想知道为什么我们没有打印 log(0) 的结果——我们将很快解释这一点。 到目前为止我们已经将 log() 应用于 softmax 输出但还没有解释“log”是什么以及为什么使用它。我们将在下一章讨论“为什么”那一章将涵盖导数、梯度和优化可以说log 函数具有一些理想的属性。Log 是对数logarithm的简称被定义为方程 a x b a^x b axb 中 x x x 项的解。例如 1 0 x 100 10^x 100 10x100 可以用对数解决 log ⁡ 10 ( 100 ) \log_{10}(100) log10​(100)结果为2。当基数使用 e e e欧拉数或约2.71828时log 函数的这个属性尤其有利在示例中基数为10。以 e e e 为基数的对数称为自然对数简称自然 log 或 log ——你也可能看到这样写 ln ⁡ ( x ) log ⁡ ( x ) log ⁡ e ( x ) \ln(x) \log(x) \log_e(x) ln(x)log(x)loge​(x)。各种约定可能会使这变得混乱因此为了简化事物提到的任何 log 都将始终是自然对数。自然对数表示方程 e x b e^x b exb 中 x x x 项的解例如 e x 5.2 e^x 5.2 ex5.2 由 log ⁡ ( 5.2 ) \log(5.2) log(5.2) 解决。 在 Python 代码中 import numpy as npb 5.2print(np.log(b))1.6486586255873816我们可以通过对结果进行指数化来证实这一点 import mathprint(math.e ** 1.6486586255873816)5.199999999999999这种微小的差异是由于 Python 中浮点数精度引起的。回到损失计算我们需要以两种额外的方式修改我们的输出。首先我们将更新我们的过程使其能够处理批量的 softmax 输出分布其次使负对数计算动态对应到目标索引目标索引到目前为止已经被硬编码。 考虑一个场景神经网络在三个类别之间进行分类并且神经网络以三批的方式进行分类。在通过 softmax 激活函数处理一批3个样本和3个类别之后网络的输出层产生如下 # Probabilities for 3 samples softmax_outputs np.array([[0.7, 0.1, 0.2],[0.1, 0.5, 0.4],[0.02, 0.9, 0.08]])我们需要一种动态计算分类交叉熵的方法现在我们知道这是一个负对数计算。要确定从 softmax 输出中计算负对数的哪个值我们只需要知道我们的目标值。在这个例子中有3个类别假设我们试图将某物分类为“狗”、“猫”或“人”。狗是第0类索引0猫是第1类索引1人是第2类索引2。假设这批三个样本输入到这个神经网络被映射到一只狗、一只猫和一只猫的目标值。所以目标作为目标索引列表将是 [0, 1, 1]。 softmax_outputs [[0.7, 0.1, 0.2],[0.1, 0.5, 0.4],[0.02, 0.9, 0.08]]class_targets [0, 1, 1] # dog, cat, cat类别目标中的第一个值0意味着第一个softmax输出分布的预期预测是 [0.7, 0.1, 0.2] 中索引0处的值模型对这个观察是狗有0.7的置信度。这种情况在整个批次中持续第二个softmax分布 [0.1, 0.5, 0.4] 的预期目标在索引1处模型对这是一只猫只有0.5的置信度——模型对这个观察不太确定。在最后一个样本中它也是来自softmax分布的第二个索引在这种情况下是0.9的值——相当高的置信度。 有了一系列softmax输出及其预期目标我们可以映射这些索引以从softmax分布中检索值 softmax_outputs [[0.7, 0.1, 0.2],[0.1, 0.5, 0.4],[0.02, 0.9, 0.08]]class_targets [0, 1, 1]for targ_idx, distribution in zip(class_targets, softmax_outputs):print(targ_idx, distribution)print(distribution[targ_idx])print()0 [0.7, 0.1, 0.2] 0.71 [0.1, 0.5, 0.4] 0.51 [0.02, 0.9, 0.08] 0.9同样zip() 函数可以让我们在 Python 中同时遍历多个迭代表。使用 NumPy 可以进一步简化这一过程这次我们将创建一个包含 Softmax 输出的 NumPy 数组 import numpy as npsoftmax_outputs np.array([[0.7, 0.1, 0.2],[0.1, 0.5, 0.4],[0.02, 0.9, 0.08]])class_targets [0, 1, 1] class_targets_value softmax_outputs[[0, 1, 2], class_targets]print(class_targets_value)[0.7 0.5 0.9]0、1 和 2 这些值是什么意思NumPy 允许我们以多种方式索引数组。其中一种方式是使用一个填充了索引的列表这对我们来说很方便——我们可以使用 class_targets 来实现这一目的因为它已经包含了我们感兴趣的索引列表。问题是这必须过滤数组中的数据行——第二维。为了执行这一操作我们还需要明确地在其第一维过滤这个数组。这一维包含预测我们当然希望保留它们全部。我们可以通过使用一个包含从0到所有索引的数字的列表来实现这一点。我们知道我们将有和我们整个批次中的分布一样多的索引所以我们可以使用 range() 而不是自己输入每个值 import numpy as npsoftmax_outputs np.array([[0.7, 0.1, 0.2],[0.1, 0.5, 0.4],[0.02, 0.9, 0.08]])class_targets [0, 1, 1] class_targets_value softmax_outputs[range(len(softmax_outputs)), class_targets]print(class_targets_value )[0.7 0.5 0.9]这会返回每个样本在目标指数处的信度列表。现在我们对该列表应用负对数 import numpy as npsoftmax_outputs np.array([[0.7, 0.1, 0.2],[0.1, 0.5, 0.4],[0.02, 0.9, 0.08]])class_targets [0, 1, 1] neg_log -np.log(softmax_outputs[range(len(softmax_outputs)), class_targets])print(neg_log)[0.35667494 0.69314718 0.10536052]最后我们想要得到每批的平均损失值以便了解我们的模型在训练期间的表现。在Python中有许多计算平均值的方法最基本的平均值形式是算术平均值 s u m ( i t e r a b l e ) / l e n ( i t e r a b l e ) sum(iterable) / len(iterable) sum(iterable)/len(iterable)。NumPy有一个方法可以在数组上计算这个平均值所以我们将使用它。我们在代码中添加NumPy的平均计算 import numpy as npsoftmax_outputs np.array([[0.7, 0.1, 0.2],[0.1, 0.5, 0.4],[0.02, 0.9, 0.08]])class_targets [0, 1, 1]neg_log -np.log(softmax_outputs[range(len(softmax_outputs)), class_targets]) average_loss np.mean(neg_log)print(average_loss) 0.38506088005216804我们已经了解到目标可以进行一位有效编码one-hot encoding其中除了一个值是1其余都是0并且正确标签的位置填充为1。它们也可以是稀疏的这意味着它们包含的数字是正确的类别编号——我们通过 spiral_data() 函数以这种方式生成它们并且我们可以允许损失计算接受任何这些形式。 由于我们实现了这一点以适用于稀疏标签如我们的训练数据如果它们是一位有效编码我们必须进行检查并在这种新情况下以不同方式处理。可以通过计数维度来执行检查——如果目标是单维的如列表它们是稀疏的但如果有两个维度如列表的列表则是一组一位有效编码的向量。在这第二种情况下我们将使用本章的第一个方程实现一个解决方案而不是过滤目标标签处的置信度。我们必须将置信度与目标相乘除了正确标签处的值外将所有值归零并沿行轴轴1进行求和。我们必须在刚刚编写的代码中添加一个对维数的测试将对数值的计算移到这个新的 if 语句之外并按照第一个方程实现一位有效编码标签的解决方案 import numpy as npsoftmax_outputs np.array([[0.7, 0.1, 0.2],[0.1, 0.5, 0.4],[0.02, 0.9, 0.08]])class_targets np.array([[1, 0, 0],[0, 1, 0],[0, 1, 0]]) # class_targets np.array([0, 1, 1])# Probabilities for target values - # only if categorical labels if len(class_targets.shape) 1:correct_confidences softmax_outputs[range(len(softmax_outputs)), class_targets] # Mask values - only for one-hot encoded labels elif len(class_targets.shape) 2:correct_confidences np.sum(softmax_outputs * class_targets,axis1)# Losses neg_log -np.log(correct_confidences)average_loss np.mean(neg_log)print(average_loss)0.38506088005216804在NumPy中axis参数定义了数组沿哪个维度进行操作。多维数组中axis的值决定了函数是如何处理数组元素的 axis0沿着第一个轴“纵向”“列方向”“深度方向”即将操作应用于跨行的同一列的所有元素axis1沿着第二个轴“横向”“行方向”即将操作应用于同一行的所有元素axis2如果有的话这通常是沿着第三维度例如在三维数组中即针对每个页或深度层的同一位置的元素。 在Python的NumPy库中当你使用 * 操作符对两个数组进行运算时它执行的是元素级别的乘法也称为Hadamard乘积或点乘。这意味着两个数组的相应元素相乘结果数组的每个位置 i , j i, j i,j 是原来两个数组在该位置的元素相乘的结果。 第一行[0.7 × 1, 0.1 × 0, 0.2 × 0] [0.7, 0, 0]第二行[0.1 × 0, 0.5 × 1, 0.4 × 0] [0, 0.5, 0]第三行[0.02 × 0, 0.9 × 1, 0.08 × 0] [0, 0.9, 0] [[0.7, 0, 0],[0, 0.5, 0],[0, 0.9, 0]]在我们继续之前还有一个问题需要解决。Softmax 输出也是这个损失函数的输入由0到1范围内的数字组成——一系列置信度。模型可能会对某个标签有完全的信心使得所有剩余的置信度为零。同样模型也可能将完全的信心分配给一个非目标值。如果我们尝试计算这个置信度为0的损失 import numpy as np-np.log(0)163: RuntimeWarning: divide by zero encountered in log-np.log(0)在我们解释这个问题之前我们需要讨论一下 log ⁡ ( 0 ) \log(0) log(0)。从数学的角度看 log ⁡ ( 0 ) \log(0) log(0) 是未定义的。我们已经知道以下的依赖关系如果 y log ⁡ ( x ) y \log(x) ylog(x)那么 e y x e^y x eyx。在 y log ⁡ ( 0 ) y \log(0) ylog(0) 中所得到的 y y y 是什么与在 e y 0 e^y 0 ey0 中的 y y y 是什么一样。简单来说常数 e e e 的任何幂都是一个正数并且没有任何 y y y 可以使 e y 0 e^y 0 ey0。这意味着 log ⁡ ( 0 ) \log(0) log(0) 是未定义的。我们需要知道 log ⁡ ( 0 ) \log(0) log(0) 是什么而“未定义”并不意味着我们对它一无所知。既然 log ⁡ ( 0 ) \log(0) log(0) 是未定义的那么接近0的值的结果是什么呢我们可以计算函数的极限。如何精确计算超出了本书的范围但解决方案是 我们将其读作自然对数 log ⁡ ( x ) \log(x) log(x) 的极限其中 x x x 从正值接近0计算负值的自然对数是不可能的等于负无穷。这意味着对于无限小的 x x x其极限是负无穷其中 x x x 永远不会达到0。 在编程语言中情况略有不同。这里没有极限只有一个函数给定一个参数返回某个值。在Python中使用NumPy0的负自然对数等于一个无限大的数而不是未定义并且会打印一个关于0除错误的警告这是这种计算方式的结果。如果 − log ⁡ ( 0 ) -\log(0) −log(0) 等于无穷大用Python计算负无穷大的 e e e 次幂可能吗 import numpy as npresult np.e**(-np.inf)print(result)0.0在编程中未定义的事物越少越好。稍后我们将看到类似的简化例如计算绝对值函数的导数该导数在输入为0时不存在我们将不得不做出一些决策来解决这个问题。 回到 − log ⁡ ( 0 ) -\log(0) −log(0) 结果为无穷大的情况——尽管这在数学上是有意义的因为模型完全错误但这将为我们进一步进行计算带来问题。稍后在进行优化时我们还会在计算梯度时遇到问题从所有样本损失的平均值开始因为列表中单个无穷大的值会导致该列表的平均值也是无穷大 import numpy as npresult np.mean([1, 2, 3, -np.log(0)])print(result)177: RuntimeWarning: divide by zero encountered in logresult np.mean([1, 2, 3, -np.log(0)])我们可以为置信度添加一个很小的值以防止它为零例如1e-7 import numpy as npresult -np.log(1e-7)print(result)16.11809565095832在置信度的最边缘添加一个很小的值即十万分之一对结果的影响微乎其微但这种方法会产生另外两个问题。首先在置信度值为1 import numpy as npresult -np.log(11e-7)print(result)-9.999999505838704e-08当模型在预测中完全正确并将所有置信度放在正确的标签上时损失会变成负值而不是0。这里的另一个问题是置信度向1移动即使是非常小的值。为了防止这两个问题最好从两端同时剪切值我们的案例中是1e-7。这意味着可能的最低值将变为1e-7就像我们刚才演示的那样但可能的最高值而不是11e-7将变为1-1e-7稍微低于1 import numpy as npresult -np.log(1-1e-7)print(result)1.0000000494736474e-07这将使损失不会正好为0而是一个非常小的值但不会使其成为负值也不会使整体损失偏向1。 在我们的代码中使用 numpy我们将使用 np.clip() 方法来实现这一点 import numpy as npy_pred np.array([0.1, 0.2, 0.3, np.inf, -np.inf])y_pred_clipped np.clip(y_pred, 1e-7, 1-1e-7)print(y_pred_clipped)[1.000000e-01 2.000000e-01 3.000000e-01 9.999999e-01 1.000000e-07]该方法可以对数值数组执行剪切因此我们可以直接将其应用于预测值并将其保存为一个单独的数组稍后我们将使用该数组。 2. 分类交叉熵损失类The Categorical Cross-Entropy Loss Class 在后续章节中我们将添加更多的损失函数我们将执行的一些操作对所有这些损失函数都是通用的。其中一个操作是我们如何计算总损失——无论我们使用哪种损失函数总损失始终是所有样本损失的平均值。让我们创建一个包含 calculate 方法的 Loss 类该方法将调用我们的损失对象的 forward 方法并计算返回的样本损失的平均值 import numpy as np# Common loss class class Loss:# Calculates the data and regularization losses# given model output and ground truth valuesdef calculate(self, output, y):# Calculate sample lossessample_losses self.forward(output, y)# Calculate mean lossdata_loss np.mean(sample_losses)# Return lossreturn data_loss在后面的章节中我们将为该类添加更多代码它存在的理由也将变得更加清晰。现在我们只需使用它这一个目的。 让我们把损失代码转换成一个类以方便下一步操作 # Cross-entropy loss class Loss_CategoricalCrossentropy(Loss):# Forward passdef forward(self, y_pred, y_true):# Number of samples in a batchsamples len(y_pred)# Clip data to prevent division by 0# Clip both sides to not drag mean towards any valuey_pred_clipped np.clip(y_pred, 1e-7, 1 - 1e-7)# Probabilities for target values -# only if categorical labelsif len(y_true.shape) 1:correct_confidences y_pred_clipped[range(samples), y_true]# Mask values - only for one-hot encoded labelselif len(y_true.shape) 2:correct_confidences np.sum(y_pred_clipped * y_true, axis1)# Lossesnegative_log_likelihoods -np.log(correct_confidences)return negative_log_likelihoods该类继承于 Loss 类可执行本章衍生的所有误差计算并可作为对象使用。例如使用手动创建的输出和目标 import numpy as np# Common loss class class Loss:# Calculates the data and regularization losses# given model output and ground truth valuesdef calculate(self, output, y):# Calculate sample lossessample_losses self.forward(output, y)# Calculate mean lossdata_loss np.mean(sample_losses)# Return lossreturn data_loss# Cross-entropy loss class Loss_CategoricalCrossentropy(Loss):# Forward passdef forward(self, y_pred, y_true):# Number of samples in a batchsamples len(y_pred)# Clip data to prevent division by 0# Clip both sides to not drag mean towards any valuey_pred_clipped np.clip(y_pred, 1e-7, 1 - 1e-7)# Probabilities for target values -# only if categorical labelsif len(y_true.shape) 1:correct_confidences y_pred_clipped[range(samples), y_true]# Mask values - only for one-hot encoded labelselif len(y_true.shape) 2:correct_confidences np.sum(y_pred_clipped * y_true, axis1)# Lossesnegative_log_likelihoods -np.log(correct_confidences)return negative_log_likelihoodssoftmax_outputs np.array([[0.7, 0.1, 0.2],[0.1, 0.5, 0.4],[0.02, 0.9, 0.08]])class_targets np.array([0, 1, 1]) # class_targets np.array([[1, 0, 0], # [0, 1, 0], # [0, 1, 0]])loss_function Loss_CategoricalCrossentropy() loss loss_function.calculate(softmax_outputs, class_targets)print(loss)展示到目前为止的所有代码 import numpy as np import nnfs from nnfs.datasets import spiral_datannfs.init()# Dense layer class Layer_Dense:# Layer initializationdef __init__(self, n_inputs, n_neurons):# Initialize weights and biasesself.weights 0.01 * np.random.randn(n_inputs, n_neurons)self.biases np.zeros((1, n_neurons))# Forward passdef forward(self, inputs):# Calculate output values from inputs, weights and biasesself.output np.dot(inputs, self.weights) self.biases# ReLU activation class Activation_ReLU:# Forward passdef forward(self, inputs):# Calculate output values from inputself.output np.maximum(0, inputs)# Softmax activation class Activation_Softmax:# Forward passdef forward(self, inputs):# Get unnormalized probabilitiesexp_values np.exp(inputs - np.max(inputs, axis1, keepdimsTrue))# Normalize them for each sampleprobabilities exp_values / np.sum(exp_values, axis1, keepdimsTrue)self.output probabilities# Common loss class class Loss:# Calculates the data and regularization losses# given model output and ground truth valuesdef calculate(self, output, y):# Calculate sample lossessample_losses self.forward(output, y)# Calculate mean lossdata_loss np.mean(sample_losses)# Return lossreturn data_loss# Cross-entropy loss class Loss_CategoricalCrossentropy(Loss):# Forward passdef forward(self, y_pred, y_true):# Number of samples in a batchsamples len(y_pred)# Clip data to prevent division by 0# Clip both sides to not drag mean towards any valuey_pred_clipped np.clip(y_pred, 1e-7, 1 - 1e-7)# Probabilities for target values -# only if categorical labelsif len(y_true.shape) 1:correct_confidences y_pred_clipped[range(samples), y_true]# Mask values - only for one-hot encoded labelselif len(y_true.shape) 2:correct_confidences np.sum(y_pred_clipped * y_true, axis1)# Lossesnegative_log_likelihoods -np.log(correct_confidences)return negative_log_likelihoods# Create dataset X, y spiral_data(samples100, classes3)# Create Dense layer with 2 input features and 3 output values dense1 Layer_Dense(2, 3)# Create ReLU activation (to be used with Dense layer): activation1 Activation_ReLU()# Create second Dense layer with 3 input features (as we take output # of previous layer here) and 3 output values dense2 Layer_Dense(3, 3)# Create Softmax activation (to be used with Dense layer): activation2 Activation_Softmax()# Create loss function loss_function Loss_CategoricalCrossentropy()# Make a forward pass of our training data through this layer dense1.forward(X)# Make a forward pass through activation function # it takes the output of first dense layer here activation1.forward(dense1.output)# Make a forward pass through second Dense layer # it takes outputs of activation function of first layer as inputs dense2.forward(activation1.output)# Make a forward pass through activation function # it takes the output of second dense layer here activation2.forward(dense2.output)# Lets see output of the first few samples: print(activation2.output[:5])# Perform a forward pass through loss function # it takes the output of second dense layer here and returns loss loss loss_function.calculate(activation2.output, y) # Print loss value print(loss:, loss) [[0.33333334 0.33333334 0.33333334][0.3333332 0.3333332 0.33333364][0.3333329 0.33333293 0.3333342 ][0.3333326 0.33333263 0.33333477][0.33333233 0.3333324 0.33333528]] loss: 1.09861043. 准确率计算Accuracy Calculation 尽管损失是优化模型的一个有用指标但在实践中常用的与损失一起使用的指标是准确率它描述了最大置信度是正确类别的频率以分数形式表示。方便地我们可以重用现有的变量定义来计算准确率指标。我们将使用 softmax 输出的 argmax 值然后将这些值与目标进行比较。这就像做以下操作一样简单注意我们稍微修改了 softmax_outputs 以适应这个例子 import numpy as np# Probabilities of 3 samples softmax_outputs np.array([[0.7, 0.2, 0.1],[0.5, 0.1, 0.4],[0.02, 0.9, 0.08]]) # Target (ground-truth) labels for 3 samples class_targets np.array([0, 1, 1]) # class_targets np.array([[1, 0, 0], # one-hot encoded # [0, 1, 0], # [0, 1, 0]]) print(class_targets:, class_targets)# Calculate values along second axis (axis of index 1) predictions np.argmax(softmax_outputs, axis1) print(predictions:, predictions)# If targets are one-hot encoded - convert them if len(class_targets.shape) 2:class_targets np.argmax(class_targets, axis1)print(class_targets:, class_targets)# True evaluates to 1; False to 0 accuracy np.mean(predictionsclass_targets)print(acc:, accuracy)class_targets: [0 1 1] predictions: [0 0 1] acc: 0.6666666666666666我们还使用 np.argmax() 将目标转换为稀疏值从而处理单击编码目标。 我们可以在上述完整脚本的末尾添加以下内容以计算其准确性 # Calculate accuracy from output of activation2 and targets # calculate values along first axis predictions np.argmax(activation2.output, axis1)if len(y.shape) 2:y np.argmax(y, axis1)accuracy np.mean(predictionsy)# Print accuracy print(acc:, accuracy)acc: 0.34现在您已经学会了如何对我们的网络进行前向传递并计算出模型是否表现不佳的指标信号我们将在下一章开始进行优化 本章的章节代码、更多资源和勘误表https://nnfs.io/ch5
http://www.w-s-a.com/news/955506/

相关文章:

  • 网站访问量突然增加合肥宣传片制作公司六维时空
  • 建设购物网站流程图怎么找网站
  • 阿里云部署多个网站制作小程序网站源码
  • 博罗东莞网站建设网站免费源代码
  • 网站规划与设计范文桂平网站建设
  • 网站备案号密码wordpress邮箱发送信息错误
  • 模板的网站都有哪些关键词搜索工具爱站网
  • 鲜花网站建设的利息分析企业网站建设方案书
  • 深圳网站平台石家庄做商城网站的公司
  • 微网站营销是什么私人订制网站有哪些
  • 浙江建设工程合同备案网站新手做网站教程
  • 网站优化关键词排名自己怎么做wordpress安装主题失败
  • 成都建设银行招聘网站网站的切换语言都是怎么做的
  • 网站网业设计wordpress 很差
  • 网站开发软件著作权归谁网站悬浮窗广告
  • 如何提升网站alexa排名货运网站源码
  • 如何看自己网站流量梧州网站设计理念
  • 商城网站建设特点有哪些信息门户
  • 弄一个网站临沂有哪几家做网站的
  • 广州个人网站制作公司网站建设公司价
  • 免费建设网站赚钱小程序开发文档pdf
  • ucenter 整合两个数据库网站网店推广技巧
  • 网站优化排名提升百度wap
  • 八里河风景区网站建设内容摘要网站开发基础学习
  • 上海做外贸网站的公司智慧团建网站登陆平台
  • 上海商务网站建设如何做的网站手机可以用吗
  • 产品推广营销方案seo推广员招聘
  • 做水利网站需要多少钱山东市网站建设
  • 做网站找哪里如何修改wordpress颜色
  • 招商加盟网站系统站长工具 seo查询