当前位置: 首页 > news >正文

网站建设的前端和后端六安市核酸检测结果查询

网站建设的前端和后端,六安市核酸检测结果查询,长沙app开发公司排名,短视频营销策略目录 大纲 生成随机变量 可以伪随机生成均匀随机变量 随机变量表示为操作或过程的结果 逆变换方法 生成模型 我们试图生成非常复杂的随机变量…… …所以让我们使用神经网络的变换方法作为函数#xff01; 生成匹配网络 培养生成模型 比较基于样本的两个概率分布 … 目录 大纲 生成随机变量 可以伪随机生成均匀随机变量 随机变量表示为操作或过程的结果 逆变换方法 生成模型 我们试图生成非常复杂的随机变量…… …所以让我们使用神经网络的变换方法作为函数 生成匹配网络 培养生成模型 比较基于样本的两个概率分布 反向传播分布匹配错误 生成性对抗网络 “间接”训练方法 理想的情况完美的发电机和鉴别器 近似对抗性神经网络 关于GAN的数学细节 生成性对抗网络属于一组生成模型。这意味着他们能够生成/生成我们将看到如何新内容。为了说明这种“生成模型”的概念我们可以看一些用GAN获得的结果的众所周知的例子。 这些是由Generative Adversarial Networks在对两个数据集进行训练后生成的样本MNIST和TFD。对于两者最右边的列包含与直接相邻生成的样本最接近的真实数据。这向我们展示了生成的数据是真正生成的而不仅仅是由网络记忆。 大纲 在下面的第一节中我们将讨论从给定分布生成随机变量的过程。然后在第2节中我们将通过一个例子展示GAN试图解决的问题可以表示为随机变量生成问题。在第3节中我们将讨论基于匹配的生成网络并展示它们如何回答第2节中描述的问题。最后在第4节中我们将介绍GAN。更具体地说我们将展示具有其损失功能的一般架构并且我们将与之前的所有部分建立链接。 生成随机变量 我们提醒一些现有方法尤其是逆变换方法它允许从简单的均匀随机变量生成复杂的随机变量。尽管所有这些看起来与我们的物质主题GAN相差甚远 可以伪随机生成均匀随机变量 计算机基本上是确定性的。因此从理论上讲生成真正随机的数字是不可能的即使我们可以说“真正的随机性是什么”这个问题很困难。但是可以定义生成数字序列的算法其特性非常接近理论随机数序列的属性。特别是计算机能够使用伪随机数生成器生成一系列数字这些数字近似地遵循0和1之间的均匀随机分布。统一的情况是一个非常简单的情况可以在其上建立更复杂的随机变量不同的方法。 随机变量表示为操作或过程的结果 存在旨在产生更复杂的随机变量的不同技术。其中我们可以找到例如逆变换方法拒绝抽样Metropolis-Hasting算法等。所有这些方法都依赖于不同的数学技巧这些技巧主要在于表示我们想要生成的随机变量作为操作通过更简单的随机变量或过程的结果。 拒绝抽样表示随机变量是一个过程的结果该过程不是从复杂分布中采样而是从众所周知的简单分布中采样并根据某些条件接受或拒绝采样值。重复此过程直到采样值被接受我们可以证明在正确接受条件下有效采样的值将遵循正确的分布。 在Metropolis-Hasting算法中想法是找到马尔可夫链MC使得该MC的静态分布对应于我们想要对随机变量进行采样的分布。一旦这个MC发现我们可以在这个MC上模拟足够长的轨迹来考虑我们已经达到稳定状态然后我们以这种方式获得的最后一个值可以被认为是从感兴趣的分布中得出的。 我们不会再进一步​​了解拒绝抽样和Metropolis-Hasting的细节因为这些方法不会引导我们遵循GAN背后的概念尽管如此感兴趣的读者可以参考指向的维基百科文章及其中的链接 。但是让我们更多地关注逆变换方法。 逆变换方法 逆变换方法的想法只是为了表示我们的复杂性 – 在本文中“复杂”应该始终被理解为“不简单”而不是数学意义 – 随机变量作为应用于函数的函数的结果统一随机变量我们知道如何生成。 我们在下面的一个例子中考虑。设X是我们想要采样的复杂随机变量U是[0,1]上的均匀随机变量我们知道如何从中采样。我们提醒随机变量由其累积分布函数CDF完全定义。随机变量的CDF是从随机变量的定义域到区间[0,1]的函数并且在一个维度中定义使得 在我们的均匀随机变量U的特定情况下我们有 为简单起见我们在此假设函数CDF_X是可逆的并且表示其反函数 通过使用函数的广义逆可以很容易地将该方法扩展到不可逆的情况但它实际上不是我们想要关注的主要点。然后如果我们定义 我们有 我们可以看到Y和X具有相同的CDF然后定义相同的随机变量。因此通过如上定义Y作为均匀随机变量的函数我们设法定义了具有目标分布的随机变量。 总而言之逆变换方法是通过使均匀随机变量经过精心设计的“变换函数”逆CDF来生成遵循给定分布的随机变量的方式。事实上这种“逆变换方法”的概念可以扩展到“变换方法”的概念“变换方法”更广泛地说它是由一些较简单的随机变量生成随机变量不一定是均匀的然后变换函数是不再是逆CDF。从概念上讲“变换函数”的目的是使初始概率分布变形/重塑变换函数从初始分布与目标分布相比过高并将其置于过低的位置。 逆变换方法的图示。蓝色均匀分布在[0,1]上。橙色标准高斯分布。灰色从均匀到高斯分布的映射逆CDF。 生成模型 我们试图生成非常复杂的随机变量…… 假设我们有兴趣生成大小为n乘n像素的狗的黑白方形图像。我们可以将每个数据重新整形为N n×n维向量通过将列堆叠在彼此之上使得狗的图像可以由向量表示。然而这并不意味着所有的矢量都代表一只狗形状回到正方形因此我们可以说有效地给出看起来像狗的东西的N维向量根据整个N维向量空间上的非常特定的概率分布来分布该空间的某些点很可能代表狗而它是对其他人来说极不可能。同样的精神在这个N维向量空间上存在猫鸟等图像的概率分布。 然后生成狗的新图像的问题等同于在N维向量空间上生成跟随“狗概率分布”的新向量的问题。事实上我们面临着针对特定概率分布生成随机变量的问题。 在这一点上我们可以提到两件重要的事情。首先我们提到的“狗概率分布”是在非常大的空间上非常复杂的分布。其次即使我们可以假设存在这样的基础分布实际上存在看起来像狗的图像而其他图像看起来不像我们显然不知道如何明确地表达这种分布。之前的两点都使得从该分布生成随机变量的过程非常困难。然后让我们尝试解决以下两个问题。 …所以让我们使用神经网络的变换方法作为函数 当我们尝试生成狗的新图像时我们的第一个问题是N维向量空间上的“狗概率分布”是一个非常复杂的问题我们不知道如何直接生成复杂的随机变量。然而正如我们非常清楚如何生成N个不相关的均匀随机变量我们可以使用变换方法。为此我们需要将N维随机变量表示为应用于简单N维随机变量的非常复杂函数的结果 在这里我们可以强调这样的事实找到变换函数并不像我们在描述逆变换方法时所做的那样只采用累积分布函数我们显然不知道的闭式逆。转换函数无法明确表达因此我们必须从数据中学习它。 在这些情况下大多数情况下非常复杂的功能自然意味着神经网络建模。然后我们的想法是通过一个神经网络对变换函数进行建模该神经网络将一个简单的N维均匀随机变量作为输入并作为输出返回另一个N维随机变量在训练之后该随机变量应遵循正确的“狗概率分布” 。一旦设计了网络架构我们仍然需要对其进行培训。在接下来的两节中我们将讨论培训这些生成网络的两种方法包括GAN背后的对抗训练的想法 使用神经网络的生成模型概念的插图。显然我们真正谈论的维度远高于此处所表示的维度。 生成匹配网络 免责声明“生成匹配网络”的名称不是标准的。但是我们可以在文献中找到例如“Generative Moments Matching Networks”或“Generative Features Matching Networks”。我们只是想在这里使用稍微更一般的面额来描述我们所描述的内容。 培养生成模型 到目前为止我们已经证明了我们生成狗的新图像的问题可以被重新描述为在N维向量空间中生成跟随“狗概率分布”的随机向量的问题并且我们建议使用变换方法用神经网络来模拟变换函数。 现在我们仍然需要训练优化网络来表达正确的变换功能。为此我们可以建议两种不同的训练方法直接训练方法和间接训练方法。直接训练方法包括比较真实和生成的概率分布并通过网络反向传播差异误差。这是规则生成匹配网络GMNs的想法。对于间接训练方法我们不直接比较真实和生成的分布。相反我们通过使这两个分布经过选择的下游任务来训练生成网络使得生成网络相对于下游任务的优化过程将强制生成的分布接近真实分布。最后一个想法是生成对抗网络GAN背后的一个我们将在下一节中介绍。但就目前而言让我们从直接方法和GMN开始。 比较基于样本的两个概率分布 如上所述GMN的想法是通过直接将生成的分布与真实分布进行比较来训练生成网络。但是我们不知道如何明确表达真正的“狗概率分布”我们也可以说生成的分布过于复杂而无法明确表达。因此基于显式表达式的比较是不可能的。但是如果我们有一种比较基于样本的概率分布的方法我们可以使用它来训练网络。实际上我们有一个真实数据的样本我们可以在训练过程的每次迭代中生成生成数据的样本。 虽然理论上可以使用任何能够有效比较基于样本的两个分布的距离或相似性度量但我们可以特别提到最大均值差异MMD方法。MMD定义了可以基于这些分布的样本计算估计的两个概率分布之间的距离。虽然它不完全超出了本文的范围但我们决定不再花费更多时间来描述MDD。但是我们的项目很快就会发布一篇文章其中将包含有关它的更多详细信息。想要了解MMD的更多信息的读者可以参考这些幻灯片本文或本文。 反向传播分布匹配错误 因此一旦我们定义了一种基于样本比较两种分布的方法我们就可以定义GMN中生成网络的训练过程。给定具有均匀概率分布的随机变量作为输入我们希望所生成的输出的概率分布是“狗概率分布”。然后GMN的想法是通过重复以下步骤来优化网络 产生一些统一的输入使这些输入通过网络并收集生成的输出比较真实的“狗概率分布”和基于可用样本生成的一个例如计算真实狗图像样本与生成的样本的样本之间的MMD距离使用反向传播来进行梯度下降的一个步骤以降低真实分布和生成分布之间的距离例如MMD 如上所述当遵循这些步骤时我们在网络上应用梯度下降其具有损失函数该函数是当前迭代中的真实分布与生成分布之间的距离。 生成匹配网络采用简单的随机输入生成新数据直接比较生成数据的分布与真实数据的分布并反向传播匹配误差以训练网络。 生成性对抗网络 “间接”训练方法 上面提出的“直接”方法在训练生成网络时直接比较生成的分布与真实分布。规则GAN的好主意在于用间接的替代方式替换这种直接比较后者采用这两种分布的下游任务的形式。然后对该任务进行生成网络的训练使得它迫使所生成的分布越来越接近真实分布。 GAN的下游任务是真实样本和生成样本之间的歧视任务。或者我们可以说“非歧视”任务因为我们希望歧视尽可能地失败。因此在GAN架构中我们有一个鉴别器它可以获取真实数据和生成数据的样本并尝试尽可能地对它们进行分类以及一个经过培训的发生器以尽可能地欺骗鉴别器。让我们看一个简单的例子为什么我们提到的直接和间接方法理论上应该导致相同的最优生成器。 理想的情况完美的发电机和鉴别器 为了更好地理解为什么训练生成器以欺骗鉴别器将导致与直接训练生成器以匹配目标分布相同的结果让我们采用简单的一维示例。我们暂时忘记了如何表示生成器和鉴别器并将它们视为抽象概念将在下一小节中指定。而且两者都被认为是“完美的”具有无限的容量因为它们不受任何类型参数化模型的约束。 假设我们有一个真正的分布例如一维高斯分布并且我们想要一个从这个概率分布中采样的生成器。我们所谓的“直接”训练方法将包括迭代地调整生成器梯度下降迭代以校正真实分布和生成分布之间的测量差异/误差。最后假设优化过程完美我们应该最终得到与真实分布完全匹配的生成分布。 直接匹配方法的概念的例证。蓝色的分布是真实的而生成的分布用橙色表示。通过迭代迭代我们比较两个分布并通过梯度下降步骤调整网络权重。这里比较是在均值和方差上进行的类似于截断矩匹配方法。请注意显然这个例子非常简单不需要迭代方法目的只是为了说明上面给出的直觉。 对于“间接”方法我们还必须考虑一个鉴别器。我们现在假设这个鉴别器是一种oracle它确切知道什么是真实和生成的分布并且能够根据这些信息预测任何给定点的类“真”或“生成”。如果这两个分布很明显那么鉴别器将能够轻松地进行分类并且可以高度自信地将我们呈现给它的大多数点分类。如果我们想欺骗鉴别器我们必须使生成的分布接近真实的分布。当两个分布在所有点上相等时鉴别器将最难预测类在这种情况下 针对对抗方法的直觉。蓝色分布是真实的橙色是生成的。在灰色中右边有相应的y轴如果它选择每个点中密度较高的类假设“真”和“生成”数据的比例相等我们就会显示鉴别器的真实概率。两个分布越接近鉴别器就越错误。训练时目标是将“绿色区域”生成的分布太高移向红色区域生成的分布太低。 在这一点上似乎有理由怀疑这种间接方法是否真的是一个好主意。实际上它似乎更复杂我们必须基于下游任务而不是直接基于分布来优化生成器并且它需要我们在此认为是给定oracle的鉴别器但实际上它既不是已知的也不完美。对于第一点直接比较基于样本的两个概率分布的难度抵消了间接方法的明显更高的复杂性。对于第二点很明显鉴别器是未知的。但是它可以学到 近似对抗性神经网络 现在让我们描述采用GANs架构中的生成器和鉴别器的具体形式。生成器是一个模拟转换函数的神经网络。它将一个简单的随机变量作为输入并且必须在训练后返回一个跟随目标分布的随机变量。由于它非常复杂和未知我们决定用另一个神经网络对鉴别器进行建模。该神经网络模拟判别函数。它将一个点在我们的狗示例中为N维向量作为输入并将该点的概率作为输出返回为“真”。 请注意我们现在强加一个参数化模型来表达生成器和鉴别器而不是前一小节中的理想化版本的事实实际上并没有对上面给出的理论论证/直觉产生巨大影响我们只是然后在一些参数化空间而不是理想的全空间中工作因此在理想情况下我们应达到的最佳点可以被视为由参数化模型的精确容量“舍入”。 一旦定义两个网络就可以联合同时进行相反的目标训练 生成器的目标是欺骗鉴别器因此训练生成神经网络以最大化最终分类错误真实数据和生成数据之间鉴别器的目标是检测伪造的数据因此训练判别神经网络以最小化最终的分类错误 因此在训练过程的每次迭代中更新生成网络的权重以增加分类错误错误梯度上升到生成器的参数同时更新判别网络的权重以减少此错误误差梯度下降超过鉴别器的参数。 生成性对抗网络表示。生成器将简单随机变量作为输入并生成新数据。鉴别器采用“真实”和“生成”数据并尝试区分它们构建分类器。生成器的目标是欺骗鉴别器通过将尽可能多的生成数据与真实数据混合来增加分类错误并且鉴别器的目标是区分真实数据和生成数据。 这些相反的目标和两个网络的对抗性训练的隐含概念解释了“对抗性网络”的名称两个网络都试图相互击败这样做它们都变得越来越好。他们之间的竞争使这两个网络在各自的目标方面“进步”。从博弈论的角度来看我们可以将此设置视为极小极大双玩家游戏其中均衡状态对应于发生器从精确目标分布生成数据并且鉴别器预测“真实”或“生成”的情况“它接收的任何一点的概率为1/2。 关于GAN的数学细节 注意本节更具技术性对于全面了解GAN并非绝对必要。所以现在不想读一些数学的读者可以暂时跳过这一部分。对于其他人让我们看看上面给出的直觉是如何在数学上形式化的。 放弃下面的等式不是Ian Goodfellow的文章。我们在这里提出另一个数学形式化有两个原因第一保持更接近上面给出的直觉第二因为原始论文的方程已经非常清楚只是重写它们是没有用的。另请注意我们绝对不会参与与不同可能的损失函数相关的实际考虑消失梯度或其他。我们强烈建议读者也要看看原始论文的方程式主要区别在于Ian Goodfellow和共同作者使用交叉熵误差而不是绝对误差正如我们所做的那样。此外在下文中我们假设具有无限容量的发生器和鉴别器。 神经网络建模本质上需要定义两件事架构和损失函数。我们已经描述了Generative Adversarial Networks的架构。它包含两个网络 生成网络G。其采用密度为p_z的随机输入z并返回输出x_g Gz该输出应遵循训练后目标概率分布一个判别网络D。它取一个可以是“真”的输入xx_t其密度用p_t表示或“生成”的一个x_g其密度p_g是由密度p_z引起的密度通过G并将x的概率Dx返回为“真实”数据 现在让我们仔细看看GAN的“理论”损失函数。如果我们以相同的比例向鉴别器“真实”和“生成”数据发送则鉴别器的预期绝对误差可以表示为 生成器的目标是欺骗鉴别器其目标是能够区分真实数据和生成数据。因此在训练生成器时我们希望最大化此错误同时我们尝试将其最小化以用于鉴别器。它给了我们 对于任何给定的发生器G以及诱导概率密度p_g最佳可能的鉴别器是最小化的鉴别器 为了最小化相对于D这个积分我们可以最小化x的每个值的积分内的函数。然后它为给定的发电机定义最佳可能的鉴别器 事实上​​最好的因为x值使得p_tx p_gx可以用另一种方式处理但对于后面的内容并不重要。然后我们搜索G最大化 同样为了最大化相对于G这个积分我们可以最大化x的每个值的积分内的函数。由于密度p_t独立于发电机G我们不能比设置G更好 当然由于p_g是应该与1整合的概率密度我们必然拥有最佳的G 因此我们已经证明在具有无限容量发生器和鉴别器的理想情况下对抗性设置的最佳点使得发生器产生与真密度相同的密度并且鉴别器不能比真实的更好。一个案例中有两个就像直觉告诉我们的那样。最后还要注意G最大化 在这种形式下我们最好看到G想要最大化鉴别器出错的预期概率。 本文的主要内容是 计算机基本上可以生成简单的伪随机变量例如它们可以生成非常接近均匀分布的变量存在不同的方法来生成更复杂的随机变量包括“变换方法”的概念其包括将随机变量表示为一些更简单的随机变量的函数。在机器学习中生成模型试图从给定复杂概率分布生成数据深度学习生成模型被建模为神经网络非常复杂的函数它将一个简单的随机变量作为输入并返回一个跟随目标分布的随机变量“变换方法”这些生成网络可以“直接”训练通过比较生成数据与真实分布的分布这就是生成匹配网络的思想这些生成网络也可以“间接”训练通过试图欺骗同时训练的另一个网络来区分“生成的”数据和“真实”数据这就是生成对抗网络的想法
http://www.w-s-a.com/news/517020/

相关文章:

  • 网站随机代码网站建设费 账务处理
  • 商洛网站建设哪家好网站建设 织梦者
  • 怎么创建收费网站宁夏住房和城乡建设部网站
  • 怎么确认网站是什么语言做的用php和mysql做网站
  • 安徽做网站的公司有哪些星子网络公司
  • 肥西县重点工程建设管理局网站wordpress界面菜单怎么弄
  • 宁夏网站开发设计说明书wordpress主题背景图片
  • 同一个阿里云可以做两个网站吗织梦 帝国 学校网站
  • 城阳网站建设培训网站后台怎么上传文件
  • 重庆茂尔建设集团有限公司网站网页制作教程软件
  • 金湖建设工程质量监督网站高端网站建设公司哪里济南兴田德润实惠吗
  • 站酷设计网站官网入口文字设计seo网站推广工具
  • 专业移动网站建设网站建设软件dw
  • 摄影网站设计思想视觉传达毕业设计作品网站
  • 需要优化的网站有哪些设计装修app
  • 数据型网站建设东莞好的网站国外站建设价格
  • 网络营销方法有哪些举例seo应用领域有哪些
  • 建设银行官方网站官网做网站的专业叫什么
  • 矿区网站建设濮阳做网站的公司有哪些
  • 有什么网站可以自己做书甘肃建设厅网站首页
  • 门户网站建设哪专业怎么把自己做的网站登录到网上
  • 如何做网站小编餐饮业手机php网站
  • 备案 网站商城网站设计公司排名
  • 汕头做网站优化公司seo软件简单易排名稳定
  • 如何做众筹网站微网站设计平台
  • 富平做网站十堰优化seo
  • 免费网站空间可访问wordpress弹窗注册代码
  • 东莞网站建设教程南京做代账会计在哪个网站上找
  • 网站开发好了 怎么发布wordpress数据库缓存插件
  • 工业电商网站怎么配色社交网站建设平台