将二元脉冲神经网络视为因果模型,带来更可靠的可解释AI
可解释人工智能(XAI)领域迎来一项新进展:法国研究团队提出将二元脉冲神经网络(BSNN) 建模为二元因果模型,并借助逻辑求解器(SAT/SMT)计算溯因解释,从而在保证解释简洁性的同时,避免包含无关特征。相关论文《Binary Spiking Neural Networks as Causal Models》已发表于 arXiv,并入选 Logics for New-Generation AI 2025 国际研讨会。
从脉冲到因果:BSNN 的独特优势
脉冲神经网络(SNN)因其生物 plausibility 和低功耗特性,被视为下一代神经网络的重要方向。二元脉冲神经网络进一步简化了脉冲机制——神经元要么放电(1)要么不放电(0),使网络行为天然具有离散性。研究团队正是利用这一特性,将 BSNN 的脉冲活动形式化为二元因果模型,从而将网络推理过程转化为逻辑可操作的结构。
逻辑求解器如何生成解释?
传统可解释方法(如 SHAP)通过特征贡献度分配来生成解释,但无法保证解释的最小充分性——即解释中可能包含对决策无实际影响的特征。本研究采用溯因解释思路:给定一个分类结果,寻找一组最小的特征值条件,使得在该条件下网络必然输出该结果。
具体实现上,团队将因果模型编码为布尔公式,然后使用 SAT(布尔可满足性)求解器和 SMT(可满足性模理论)求解器来搜索满足条件的特征组合。实验在 MNIST 手写数字数据集上进行,BSNN 经过训练后,对每个测试样本,求解器能够快速找到一组像素级特征作为分类的解释。
与 SHAP 的对比:无关特征被有效剔除
研究将生成的解释与 SHAP 进行对比。SHAP 基于合作博弈论计算每个特征的 Shapley 值,但值高的特征不一定都是因果必要的。例如,在识别数字“8”时,SHAP 可能将背景像素也列为重要特征,而本方法生成的解释则严格排除无关像素,只保留那些若被翻转就会改变分类结果的“关键像素”。
团队强调:“与 SHAP 不同,我们的方法保证解释中不包含完全无关的特征。”
挑战与展望
尽管逻辑求解器在小规模 BSNN 上表现良好,但扩展到更大网络时可能面临计算瓶颈。不过,BSNN 的离散特性天然适合逻辑推理,未来可结合近似求解或层级化因果模型来提升效率。此外,该框架不仅适用于图像分类,还可推广至时序信号处理等脉冲网络应用场景。
小结
这项研究为可解释 AI 提供了一条基于因果逻辑的新路径。在“黑箱”模型日益普及的今天,能够提供无冗余、可验证的解释,对于医疗、金融等高风险领域具有重要价值。BSNN 的因果模型化,或许正是连接神经科学与逻辑推理的桥梁。