• 2026年第37卷第4期文章目次
    全 选
    显示方式: |
    • 基于高质量样本选择的跨领域方面级情感分析方法

      2026, 37(4):0-0. DOI: 10.13328/j.cnki.jos.007521

      摘要 (173) HTML (0) PDF 2.67 M (158) 评论 (0) 收藏

      摘要:跨领域方面级情感分析利用源领域的已标注样本来帮助训练目标领域上的方面级情感分析任务,但并非所有源领域样本均适合进行迁移训练,部分样本会对迁移模型训练产生负迁移效应,需要进行样本筛选工作.现有的跨领域实例迁移方法所考虑的迁移依据比较片面,忽略了样本间的协同作用,影响力跨领域泛化性能.为了解决方面级情感分析任务中的特定领域训练样本匮乏与跨领域迁移中的样本筛选问题,本文以多领域情感分析的为开放环境,结合高可信机器学习理论及建模中的领域适应方法,提出了一种基于高质量样本选择的跨领域方面级情感分析方法.首先,该方法分别设计了域间及域内高质量样本选择指标,依次对源领域数据进行领域层面和样本层面的筛选,兼顾了两种样本选择粒度的优势.其次,全面地设计了源领域与目标领域间相似性的衡量指标,并通过图神经网络进行高效计算.最后,将多源领域迁移的场景纳入跨领域ABSA的讨论范围中,设计了域间联合适应性分数,通过平衡领域特征的重合性与差异性来选择领域间协同性高的多源领域组合.在涵盖六个领域的基准数据集上设计了跨领域迁移任务,并在方面级情感分析的三种子任务上进行了实验来验证所提出方法的有效性.

    • 基于自适应策略优化的鲁棒精度权衡学习

      2026, 37(4):0-0. DOI: 10.13328/j.cnki.jos.007522

      摘要 (161) HTML (0) PDF 2.07 M (132) 评论 (0) 收藏

      摘要:对抗训练被视为提升深度模型鲁棒性的核心防御手段,但其固有缺陷严重制约了实际应用效果.传统对抗训练方法依赖固定攻击模式生成对抗样本,导致训练过程中样本多样性不足、模型泛化能力受限,且在鲁棒性与干净准确率间难以达成有效平衡.更为关键的是,现有对抗训练框架缺乏对训练过程的自适应控制,容易引发鲁棒过拟合现象.针对上述挑战,本文利用演化优化提出了一个自适应对抗训练框架,称为基于自适应策略优化的鲁棒精度权衡学习,简称TRA2SO.该方法创新性地将遗传算法引入对抗训练过程,通过动态调整不同训练阶段的对抗攻击策略,实现对抗样本生成模式的渐进式复杂化.这种层级递进的对抗机制不仅增强了样本多样性,还可通过策略优化记录实现训练早停,有效抑制过拟合风险.在CIFAR系列数据集上的实验表明,相较于传统对抗训练方法,本框架在维持基础分类性能的同时,提升了模型面对多种攻击范式的防御能力,且加快了训练收敛速度.本研究为对抗训练中鲁棒性-准确性的权衡提供了新思路,对构建可信深度学习系统具有重要实践价值.

    • 动态不完整图中异常的解释:一种基于强-弱互信息的掩码学习模型

      2026, 37(4):0-0. DOI: 10.13328/j.cnki.jos.007523

      摘要 (131) HTML (23) PDF 3.06 M (143) 评论 (0) 收藏

      摘要:大多数图异常检测方法依赖图神经网络(GNNs)在相对高质量的图数据上进行学习。然而,在现实应用中,这种理想场景极为罕见,大多数数据存在标签缺失、动态变化和结构不完整等问题,这些问题统称为动态不完整图。针对GNNs在极端条件下性能下降的挑战,我们提出了一种可解释的动态图异常检测方法EXDIG(EXplainable Dynamic Incomplete Graph anomaly detection),其核心是一种结合强-弱互信息优化的图掩码自编码器框架。该框架通过对图结构(节点/边)和节点特征进行掩码,模拟现实中的动态不完整场景。此外,通过强-弱互信息损失,EXDIG捕捉结构与特征之间的关系,同时保持结构完整性,降低过拟合风险,并提升泛化能力。此外,该方法通过在节点、边及特征上引入掩码扰动,提高了动态不完整图异常检测的可解释性,使其能够识别关键组成部分,并为异常检测结果提供透明且可信的解释。我们在八个真实世界图数据集上进行了评估,实验结果表明,EXDIG在不同程度的动态不完整场景下,在多种下游任务和表示学习评估(包括有监督和无监督设定)中均优于现有最先进方法。其中,在异常检测数据集亚马逊上,EXDIG的NMI和ARI指标分别提升了超过13%和15%;在动态不完整比例从25%到99%的设置下,其F1分数波动被控制在5%以内。此外,EXDIG还首次实现了在动态不完整图中对各节点的可解释性分析。

    • 面向欺诈检测的风险感知动态聚合图联邦学习

      2026, 37(4):0-0. DOI: 10.13328/j.cnki.jos.007524

      摘要 (171) HTML (5) PDF 1.37 M (166) 评论 (0) 收藏

      摘要:随着信息技术的迅猛发展,欺诈行为在金融交易、社交网络与评论系统等多个领域呈现出日益复杂化和多样化的趋势,给传统欺诈检测技术带来了严峻挑战.当前主流的基于图神经网络的方法虽然在单机构数据环境中表现出色,但由于涉及用户敏感信息,难以实现跨机构间的数据共享与协作,进而限制了模型的训练效果与泛化性能.联邦学习作为一种新兴的隐私保护分布式学习范式,为跨机构协作训练提供了可行途径,但现有图联邦学习方法多针对通用图任务设计,难以适应欺诈检测中普遍存在的类别分布不平衡和数据异构性问题,导致在欺诈样本识别方面表现不佳.为应对上述挑战,本文提出了一种面向欺诈检测的风险感知动态聚合图联邦学习方法(FedRPDA),旨在有效应对跨机构的复杂欺诈风险事件识别.FedRPDA包括两项关键策略:典型风险动态聚合策略通过衡量客户端图中欺诈节点的结构性风险强度,并结合具有时间衰减特性的动态权重映射机制来自适应地调整客户端的聚合权重,从而在数据异构条件下增强全局模型对正常样本与典型欺诈样本的判别能力;多样化风险平均聚合策略结合基于变分扰动的欺诈样本特征增强机制与全局原型引导的对比学习机制,有效提升模型对结构多样、数量稀少的非典型欺诈样本的表征能力,促进其在特征空间中向共性异常靠拢,进一步提升模型在复杂欺诈风险场景下的识别鲁棒性.在多个真实欺诈检测数据集上的实验结果表明,FedRPDA在检测性能与训练收敛效率方面显著优于现有图联邦学习基线方法,展现出良好的泛化能力与实际应用潜力.

    • 面向开放世界持续学习的任务敏感提示驱动的混合专家模型

      2026, 37(4):0-0. DOI: 10.13328/j.cnki.jos.007525

      摘要 (200) HTML (0) PDF 1.19 M (160) 评论 (0) 收藏

      摘要:开放世界持续学习旨在模拟现实环境中任务不断演化、类别动态变化且遇到未经训练的未知样本的情景.一个良好的开放世界持续学习模型不仅需要在学习新任务的同时保持对已学任务的记忆,还需具备识别未知类别的能力,进而实现持续且鲁棒的知识积累与泛化.然而,现有持续学习方法普遍建立在封闭世界假设之上,无法有效应对开放类别带来的类别不确定性与任务间干扰,尤其在知识的稳定性与知识可塑性之间的权衡上表现出明显不足.因此,本文在开放世界持续学习问题的形式化定义基础上,提出了一种任务敏感提示驱动的混合专家模型(TP-MoE),以实现对任务语义的动态建模与专家模块的高效调度,从而帮助模型进行知识传输和知识更新.具体而言,TP-MoE引入了一种即插即用的任务提示聚合机制并改进了门限机制用以专家网络路由,在任务增量过程中持续融合历史与当前任务知识;同时结合一种自适应开放边界阈值策略,可根据新旧知识的迁移动态调整开放类别的判别边界,从而提升开放类别检测能力与已知类别分类准确性.实验结果表明,TP-MoE在Split-CIFAR100和Open-CORe50基准数据集上对各类指标的测试均取得领先性能,展现出良好的稳健性与泛化性,开放世界持续学习任务中的知识建模与任务调度提供了一种可扩展、可迁移的创新框架.

    • 数值型标签噪声的渐进式区间校正方法

      2026, 37(4):0-0. DOI: 10.13328/j.cnki.jos.007526

      摘要 (131) HTML (0) PDF 821.24 K (148) 评论 (0) 收藏

      摘要:在回归任务中,数值型标签噪声会扭曲数据的真实分布,削弱模型的泛化能力.数据过滤是目前常用的一类方法,在一定程度上能减少噪声影响,但易引发过度过滤问题,导致有效样本流失和数据分布偏移.本文提出一种回归噪声标签的渐进式区间校正(Progressive Interval Correction,PIC)算法,旨在解决数据过滤导致的样本流失问题,并有效降低标签噪声水平.首先基于真实标签的后验分布给出了标签校正的有效性条件,以确保降低标签噪声水平;然后对满足有效性条件的标签进行最大后验校正;最后通过逐步缩小可信区间范围的方式渐进地校正和优化标签.在基准数据集与真实数据集上的实验结果表明,PIC算法能够显著降低数据的噪声水平,有效提升模型性能.

    • 全局与局部残差信息联合感知的可泛化图异常检测方法

      2026, 37(4):0-0. DOI: 10.13328/j.cnki.jos.007527

      摘要 (175) HTML (0) PDF 1.55 M (155) 评论 (0) 收藏

      摘要:图异常检测作为图数据挖掘中的关键任务,旨在识别网络中与大多数节点存在显著差异的异常节点.现有的图异常检测方法普遍采用数据集特定的训练范式,即为每个数据集单独训练模型.然而,该类方法缺乏跨数据集的泛化能力,且训练成本高昂.为克服上述局限,近期研究开始关注残差特征的泛化潜力.该类特征通过计算节点自身表示与基于邻居传播后的表示之差,能够在很大程度上抵消特定于数据集的语义信息,从而保留与异常模式紧密相关的通用性信息.尽管该方向已取得初步成果,但残差特征的建模过程仍存在如下关键问题:首先,在计算节点基于邻居传播前后的表示差值时,邻居节点的稀少和潜在的结构噪声会在一定程度上影响到结果的可靠性.其次,计算时的表示依赖于图神经网络(GNN)对局部关系的学习,这种方式难以建模对异常检测同样有益的全局关系,从而限制了残差特征的表达能力.为解决上述问题,本文提出了一种全局和局部残差信息联合感知的可泛化图异常检测方法(GRAD).具体地,该方法在利用GNN建模局部节点关系的基础上,引入线性Transformer模块,在不依赖原始图结构的前提下,于特征空间中建模节点之间的全局结构相关性,从而获得具备全局感知能力的节点表示.随后,GRAD在全局和局部视角上分别将表示转换为自身与其邻居之间的残差,并将二者融合,以构建数据集无关的通用节点表示.本文在多个不同领域的公开图数据集上进行了广泛实验,验证了GRAD的有效性.

    • 基于动量加速和任务均衡的目标检测对抗训练方法

      2026, 37(4):0-0. DOI: 10.13328/j.cnki.jos.007528

      摘要 (161) HTML (0) PDF 1.55 M (152) 评论 (0) 收藏

      摘要:对抗训练作为提升深度神经网络对抗鲁棒性的核心策略,在图像分类任务中已得到广泛关注,但在目标检测领域中的研究较为匮乏.传统对抗训练通常依赖投影梯度下降法(Projected Gradient Descent,PGD)开展模型的鲁棒优化,然而对抗样本的迭代大幅延长了模型训练周期,成为限制对抗训练在目标检测这类计算密集型任务中实际部署的主要瓶颈.针对这个问题,本文提出了一种基于Nesterov加速梯度(Nesterov’s Accelerated Gradient,NAG)的对抗训练方法,通过引入NAG动量机制加速算法收敛,该方法在得到与PGD所训练模型精度相当的同时,显著加快了对抗训练速度.此外,目标检测与图像分类最主要的区别在于目标边界框定位.然而我们观察到现有方法仍侧重于学习基于分类损失产生的对抗样本,忽视了定位在目标检测中的特殊性.本文设计了一种自适应损失重加权策略,以均衡训练中不同任务所衍生对抗样本的数量占比,促进模型聚焦定位以增强鲁棒性.在PASCAL VOC和MS COCO两个公开目标检测数据集上与现有的先进目标检测对抗训练方法进行实验对比验证了所提方法的有效性.

    • 融合全流程多视图机制的多模态测试时适应方法

      2026, 37(4):0-0. DOI: 10.13328/j.cnki.jos.007529

      摘要 (145) HTML (0) PDF 1015.61 K (132) 评论 (0) 收藏

      摘要:现实环境中,数据分布常因时间,空间或模态变化而发生偏移,严重影响机器学习模型在开放场景下的泛化能力与决策稳定性.测试时适应(Test-Time Adaptation,TTA)旨在实现对未知测试分布的动态自主快速适应,近年来受到广泛关注.作为TTA的重要拓展方向,多模态测试时适应(Multi-Modal Test-Time Adaptation,MM-TTA)引入了模态间协同与模态内变化的双重建模需求,相较于单模态场景具备更高的信息维度与动态复杂性.然而,现有方法仍面临两方面挑战:其一,跨模态协同能力有限,难以充分挖掘模态间的互补信息;其二,模态内上下文建模薄弱,抑制了模型对动态分布变化的快速响应能力.基于此,本文提出一种全流程多视图自适应方法(Full-Process Multi-View Adaptation,FP-MVA).该方法在训练与测试阶段共享多视图采样,实现表征优化与动态适应的统一协同.该方法主要包括两部分内容:第一部分是在训练阶段通过多视图协同策略结合跨模态对齐损失与模态特异性数据增强,提升模态内外的表示质量;第二部分是在测试阶段引入上下文一致性动态采样与时序绑定机制,构建跨视图自适应融合通路,强化上下文感知与模态选择能力.在Kinetics50-C与VGGSound-C数据集上的实验结果表明,相较Tent,MMT,READ等主流TTA方法,本文方法在模态可靠性偏差场景下取得了显著的准确率提升.消融分析和参数敏感度分析等对比实验进一步证实了动态融合权重调节与多视图机制在增强模型鲁棒性中的有效性.该方法增强了多模态系统在自动驾驶,远程医疗等需实时响应的分布变化环境下的通用适应能力与工程可行性.

    • 可解释深度学习的概念建模方法研究综述

      2026, 37(4):0-0. DOI: 10.13328/j.cnki.jos.007530

      摘要 (260) HTML (0) PDF 1.76 M (182) 评论 (0) 收藏

      摘要:近年来,深度神经网络在多个领域取得了显著进展,但其作为典型的黑盒模型,内部机制仍难以为人所理解,给医疗诊断、金融风控、自动驾驶等高风险应用场景带来了严峻挑战。提升模型的可解释性,已成为实现高可信机器学习的核心问题之一。现有可解释性方法大致可分为两类:基于信息流的解释和基于概念的解释。基于信息流的解释主要侧重于神经元或特征重要性分析,如定位图片中对分类结果起关键作用的像素区域。虽然能揭示模型“关注了什么”,但难以提供具备人类语义的认知解释;相比之下,基于概念的解释通过构建语义空间,将模型内部表示映射为可理解的概念结构,能够以“模型理解了什么”的方式提供更具语义深度和认知契合的解释,在增强语义透明性和用户信任方面展现出独特优势。深度学习的不可解释性源于其语义表达的缺失,因此,如何构建对人类认知友好的概念空间与表示机制,已成为可解释模型研究的关键突破口。本文围绕可解释深度学习中的概念建模方法展开综述,依据建模介入阶段将相关研究划分为事后解释与事中解释两大路径:前者通过神经元解剖、语义聚类等手段挖掘已有模型的概念表示,后者则在训练过程中引入结构化先验或语义约束,以实现模型的内生可解释性。基于该分类框架,本文系统梳理了典型方法的建模思路与代表性成果,比较其在语义透明性与实际应用中的性能差异,并总结当前研究面临的挑战与未来发展方向,旨在为理解和构建语义可解释的深度模型提供系统性参考与方法指引。

当期目录


文章目录

过刊浏览

年份

刊期

联系方式
  • 《软件学报 》
  • 主办单位:中国科学院软件研究所
                     中国计算机学会
  • 邮编:100190
  • 电话:010-62562563
  • 电子邮箱:jos@iscas.ac.cn
  • 网址:https://www.jos.org.cn
  • 刊号:ISSN 1000-9825
  •           CN 11-2560/TP
  • 国内定价:70元
您是第位访问者
版权所有:中国科学院软件研究所 京ICP备05046678号-3
地址:北京市海淀区中关村南四街4号,邮政编码:100190
电话:010-62562563 传真:010-62562533 Email:jos@iscas.ac.cn
技术支持:北京勤云科技发展有限公司

京公网安备 11040202500063号