当前位置: 首页 > news >正文

文章自定义wordpress郑州seo排名公司

文章自定义wordpress,郑州seo排名公司,外贸 礼品 网站,天元建设集团有限公司怎么样图神经网络 前面讲了图机器学习的一些传统方法#xff0c;现在正式进入到课程的核心部分#xff1a;图神经网络。 Design of GNN 那么图神经网络和我们之前接触的一些深度神经网络有什么不同呢#xff1f; 对于别的类型的神经网络#xff0c;往往我们都是处理一些类似网…图神经网络 前面讲了图机器学习的一些传统方法现在正式进入到课程的核心部分图神经网络。 Design of GNN 那么图神经网络和我们之前接触的一些深度神经网络有什么不同呢 对于别的类型的神经网络往往我们都是处理一些类似网格的或者序列信号但是这些方法往往不能直接运用到图数据中。一个原因是在图数据中不同的节点往往没有固定顺序拓扑结构非常复杂并且不同图的大小往往不一样比如做分子结构毒性预测不同的分子很可能含有的原子数目不一样。另一个原因是图数据很可能具有多模态的信息甚至可能出现异质的节点。 一个处理图数据最简单的想法是将描述图结构的邻接矩阵和节点的特征整合成一个新的矩阵并且将这个矩阵放到传统的神经网络中作为输入。 这个方法的问题在于神经网络输入层的大小和节点的数量呈O(|V|)的关系对于不同大小的图没法处理并且对于节点在邻接矩阵中的位置很敏感。 对于graph representation我们需要保证permutation invariance的性质即对于同一个图不同的order plan经过一个函数f过后的值需要是相同的。 对于node representation我们需要保证permutation equivariance的性质。 对于同一个图的相同位置的节点经过函数f映射过后需要拥有相同的值。 图神经网络里面包含了多个permutation equivariant/invariant的函数。 图神经网络的一个key idea就是通过聚合节点的local network的邻居的信息来生成node embedding。 每一个计算图的深度可以是任意的 对于layer0的embedding就是当前节点的feature其它layer的则是结合了节点本身信息和它从k hop邻居节点收集到的信息。 一个比较经典的想法如上所示。个人比较疑惑的点在于hv(k)h_v^{(k)}hv(k)​是怎么求出来的按照计算图来看单个的计算图中假设第k1layer中有节点v那么第k个layer中必然没有节点v。目前我倾向于认为由于有多个计算图的存在每个计算图中对于相同节点的embedding都是相同的所以即使某一个计算图中没有某个embedding也没有关系。 在实际的操作的过程中很多aggregation的操作很多时候能够使用稀疏矩阵运算给高效的执行。 对于图神经网络有一个很重要的点是它的inductive capability在我们训练的过程中不同的计算图中模型的参数是共享的。此时模型的参数是sublinear in |V|并且可以泛化到没有见过的节点。 还有一个比较有意思的点是在课件中提到transformer可以被视作一种特殊的GNN具体可以参考 Transformers are Graph Neural Networks | by Chaitanya K. Joshi | Towards Data Science 一层GNN主要做了两件事情第一件是收集邻居节点的信息第二件事情是将这些信息和自己本身的信息做aggregation。 Classical GNN Layers Graph Convolutional Networks (GCN) 将GCN layer写成messageaggregation的形式 我们可以得到GCN的aggregation其实是做了一个sum的操作,而message的部分则是做了一个 normalization。 GraphSAGE 这个是做了一个两阶段的aggregation先是从邻居节点进行聚合然后是将聚合的产物和上一层的本节点的embedding拼接然后再进行聚合。公式里面的AGG有多种方式比如常见的取mean取max等等甚至还可以接一个LSTM。在GraphSAGE中还可能会使用l2 normalization。 Graph Attention Network 在前面介绍的GCN和GraphSAGE中对于邻居节点都赋予了相同的重要性在GAT中我们使用注意力机制使得能够给不同的邻居节点分配不同的权重。 假设我们有两个不同的节点uv。我们可以使用下面的式子来计算u的消息对于v的重要程度evue_{vu}evu​(注意evue_{vu}evu​和euve_{uv}euv​是不同的)。 这个最终注意力的计算需要再经过一个softmax操作。 我们也可以有multi-head attention最终再整合多个attention head的结果。 Others 在GNN中假如神经网络的层数过多很可能会出现over smoothing的情况。不同的节点可能最终embedding的结果非常相似导致效果不好。这是由于增大层数之后GNN的receptive field变大导致不同的节点的field高度重叠增大了区分的难度。 假如我们真的需要很多层的GNN我们可以参考Resnet创造一些shortcut来延缓over smoothing的副作用。 使GNN的表达能力变强的方法 1让aggregation操作都使用神经网络来刻画。 2在GNN layer前面或者后面增加别的layer
http://www.w-s-a.com/news/212964/

相关文章:

  • 专业北京网站建设凡科网做网站怎么样
  • 金富通青岛建设工程有限公司网站浙江省住建厅四库一平台
  • 有搜索引擎作弊的网站企业建设H5响应式网站的5大好处6
  • 是做网站编辑还是做平面设计seo外包公司接单
  • 做性的网站有哪些苏州专业网站设计制作公司
  • 陵水网站建设友创科技十大优品店排名
  • 想换掉做网站的公司简要说明网站制作的基本步骤
  • 国企公司网站制作wordpress 浮动定位
  • 网站网页直播怎么做的企业网站建设推荐兴田德润
  • 网站建设熊猫建站厦门seo全网营销
  • 扁平网站设计seo是什么岗位的缩写
  • 工商企业网站群晖配置wordpress 80端口
  • 企业网站建设流程步骤镇江东翔网络科技有限公司
  • 网络工程师和做网站哪个难网络建站如何建成
  • 网站建设需要哪些项目游民星空是用什么做的网站
  • 旅游网站建设要如何做百度商城网站建设
  • destoon 网站搬家中国企业500强都有哪些企业
  • 商城网站前端更新商品天天做吗哈尔滨做网站优化
  • 新乡网站开发wordpress 产品分类侧边栏
  • 网站自己做自己的品牌好做互联网企业分类
  • 项目网站建设方案石家庄网站快速排名
  • 网站开发大作业报告做电商网站的参考书
  • Apache局域网网站制作wordpress外链自动保存
  • 网站备案号要怎么查询千锋教育培训机构地址
  • 门户网站建设要求几款免费流程图制作软件
  • 花生壳域名可以做网站域名吗wordpress内链工具
  • 猎头公司网站模板网站伪静态作用
  • 工程建设教育网站html成品网页模板下载
  • 同一ip 网站 权重wordpress 菜单 小图标
  • 网站没有icp备案wordpress d8主题 4.1