
#7 论文分享: GNNExplainer - 知乎 - 知乎专栏
GNNExplainer可以通过输出输入图结构子图与节点特征子集的方式,表示最能影响预测结果的子图结构与特征向量子集。 在图中可以看出,预测红色中心为basketball的原因是周边都是进行球类运动的人,而预测绿色中心为sailling的原因是周边都是进行水上、沙滩运动的人。 这里被高亮的除中心节点外的部分可以认为是找到的重要“结构”信息,而这些节点干的事情可以认为是重要的“特征”向量。 图、边集合、节点集合分别是 G, E, V ,并且有一个d维的节点特征集合 X = x_1, ..., x_n, …
GNNExplainer: Generating Explanations for Graph Neural Networks
2019年3月10日 · Here we propose GNNExplainer, the first general, model-agnostic approach for providing interpretable explanations for predictions of any GNN-based model on any graph-based machine learning task. Given an instance, GNNExplainer identifies a compact subgraph structure and a small subset of node features that have a crucial role in GNN's prediction.
图可解释系列-GNNExplainer(实验结果很牛逼) - 知乎专栏
2023年5月15日 · 三段话总结 gnn-explainer 做了什么。 背景是:针对 同质图 的可解释性操作,和GNN模型结构无关,主要是分析 node feature 和节点信息聚合过程链路 对模型预测的影响。
【可解释AI】图神经网络的可解释性方法及GNNexplainer代码示例
GNNExplainer 是一种与模型无关的基于扰动的方法,可以为任何基于图的机器学习任务上的任何基于 GNN 的模型的预测提供可解释的报告。 GNNExplainer学习边和节点特征的软掩码,然后通过掩码的优化来解释预测。 GNNExplainer会获取输入图并识别紧凑的子图结构和在预测中起关键作用的一小部分节点特征。 论文摘要: 图神经网络 (GNN)是在图上进行机器学习的强大工具。 GNN通过沿着输入图的边递归地传递神经消息,将节点特征信息与图结构相结合。 然而,结 …
Explaining Graph Neural Networks — pytorch_geometric …
Interpreting GNN models is crucial for many use cases. PyG (2.3 and beyond) provides the torch_geometric.explain package for first-class GNN explainability support that currently includes a flexible interface to generate a variety of explanations via the Explainer class,
GNN-Explainer - Stanford University
GNN-Explainer is a general tool for explaining predictions made by graph neural networks (GNNs). Given a trained GNN model and an instance as its input, the GNN-Explainer produces an explanation of the GNN model prediction via a compact subgraph structure, as well as a set of feature dimensions important for its prediction.
RexYing/gnn-model-explainer - GitHub
gnn-explainer This repository contains the source code for the paper GNNExplainer: Generating Explanations for Graph Neural Networks by Rex Ying , Dylan Bourgeois , Jiaxuan You , Marinka Zitnik & Jure Leskovec , presented at NeurIPS 2019 .
torch_geometric.explain.algorithm.GNNExplainer
The GNN-Explainer model from the “GNNExplainer: Generating Explanations for Graph Neural Networks” paper for identifying compact subgraph structures and node features that play a crucial role in the predictions made by a GNN.
图神经网络的可解释性方法介绍和GNNExplainer解释预测的代码 …
GNN 可以通过使用不同的掩码生成算法来获得不同类型的掩码来进行特征重要性的判断,如 GNNExplainer、PGExplainer、ZORRO、GraphMask、Causal Screening 和 SubgraphX。 分解方法通过将原始模型预测分解为若干项来衡量输入特征的重要性,这些项被视为相应输入特征的重要性分数。 代理方法采用简单且可解释的代理模型来近似复杂深度模型对输入示例的相邻区域的预测。 代理方法包括 GraphLime、RelEx 和 PGM Explainer。 GNNExplainer 是一种与模型无 …
【图神经网络】GNNExplainer代码解读及其PyG实现 - CSDN博客
2023年5月6日 · 给定经训练的gnn模型,gnn解释器旨在识别最有影响力的子图以解释实例的预测(例如,节点或图),其本质上是图上的组合优化问题。 现有的作品解决这个问题的连续松弛或基于搜索的启发式。