cs
12-25 00:00
本研究提出一种新方法,利用事件相关电位(ERP)和听觉刺激来更精确地识别虚拟现实(VR)使用中晕动症(Cybersickness)的脑电图(EEG)特征。通过训练卷积神经网络和Transformer模型,并结合积分梯度与类别激活图生成可解释性图谱,研究发现位于左前额叶皮层附近的头皮电极记录的振幅在晕动症分类中具有关键作用。该方法在12次运行中结果一致,表明该位置可作为未来实时EEG晕动症分类的标记特征,有助于提升在线检测性能。
脑电图虚拟现实晕动症神经网络可解释性ai事件相关电位
cs
12-25 00:00
本研究通过实验与理论建模,探讨了间接互惠机制在儿童-机器人互动中的适用性。研究发现,儿童在解决协调困境时展现的策略,能为多臂老虎机算法提供足够信号,使其学会合作行为。然而,算法的合作效果高度依赖于人类所揭示的策略,这揭示了人机协作中学习动态与道德判断差异带来的挑战。
人机交互间接互惠多臂老虎机儿童机器人合作机制社会智能
cs
12-25 00:00
本文系统调查了5G及B5G/6G网络中被动网络攻击的可行性。此类攻击无需与目标网络直接交互,极难被检测,可提取用户敏感信息(如系统识别、应用指纹)或进行地理位置追踪。研究表明,在5G网络中,由于定向波束成形、高频传播特性及加密机制的应用,此类攻击在理论上虽仍可能,但实际执行已受到显著制约。对于B5G及早期6G网络,目前公开工具的缺乏和高昂的硬件成本使得攻击在实践中尚不可行,这凸显了未来网络威胁模型认知上的关键空白。
5g安全被动攻击网络隐私威胁模型信息提取地理位置追踪
cs
12-25 00:00
本研究提出一种量子启发框架,用于优化多智能体强化学习中的探索-利用权衡,并将其应用于无人机辅助的6G网络部署。该框架将经典MARL算法与量子启发优化技术相结合,以变分量子电路(VQC)为核心结构,并采用量子近似优化算法(QAOA)作为组合优化的代表方法。通过贝叶斯推断、高斯过程和变分推断进行互补概率建模,以捕捉潜在的环境动态。采用集中训练与分散执行(CTDE)范式,其中共享内存和局部视图网格增强了智能体间的局部可观测性。实验表明,该框架提高了样本效率,加速了收敛,并增强了覆盖性能。
量子启发优化多智能体强化学习6g网络部署无人机协同变分量子电路探索利用权衡
cs
12-25 00:00
本文提出了一种参数高效的神经控制微分方程(Neural CDEs)新方法。传统Neural CDEs在处理时间序列时参数需求量大,成为其主要瓶颈。新方法通过利用隐函数雅可比矩阵(Implicit Function Jacobians)来构建模型,显著减少了所需参数数量,同时保持了模型作为“连续时间RNN”的理论直观性。该方法在保持序列建模能力的前提下,提升了计算与存储效率。
神经控制微分方程参数高效时间序列分析隐函数微分连续时间模型深度学习
cs
12-25 00:00
本研究提出MegaRAG,一种创新的多模态知识图谱检索增强生成框架,旨在解决传统RAG模型在长文档、领域特定内容(如整本书)上进行深度推理和高层次概念理解时的局限性。该方法将视觉线索融入知识图谱构建、检索及答案生成全过程,实现了跨模态推理。实验表明,该模型在全局和细粒度问答任务上,对文本和多模态语料库的表现均优于现有RAG方法。
检索增强生成多模态推理知识图谱大语言模型视觉文档理解
cs
12-25 00:00
本文针对工业物联网中意图驱动网络策略频繁部署与回滚不切实际、节点异构且数据隐私受限的问题,提出了联邦评估增强型意图驱动网络框架FEIBN。该框架利用大语言模型将多模态用户意图对齐为结构化策略元组,并采用联邦学习在节点间进行分布式策略验证。为提升效率,设计了策略相似性感知的联邦学习机制SSAFL,基于策略相似性与资源状态选择相关节点,仅在更新显著时触发异步模型上传。实验表明,SSAFL能提升模型精度、加速收敛,并相比SemiAsyn方法降低27.8%的成本。
联邦学习意图驱动网络工业物联网策略评估异步训练大语言模型
cs
12-25 00:00
本研究提出了一种多智能体语言框架,其核心创新在于无需微调语言模型参数,即可实现策略的持续演化。框架通过将抽象概念的潜向量从传统的静态语义表示中解放出来,使其能通过环境交互和强化反馈进行持续更新。系统采用双循环架构:行为循环根据环境奖励调整行动偏好,语言循环则通过反思生成文本的语义嵌入来更新外部潜向量。实验表明,在反思驱动的更新下,智能体的潜空间展现出清晰的收敛轨迹,并在关键时刻发生结构化转变。系统还展现出一种涌现能力,能够隐式推断并持续适应情感智能体,即使在没有共享奖励的情况下。
多智能体系统策略演化潜空间学习语言模型强化学习持续学习
cs
12-25 00:00
本研究提出了一种无需训练的零训练方法,用于检测基于Transformer的情感模型在真实社交媒体数据流中的时间漂移。通过对三种Transformer架构进行系统评估,并在12,279条真实社交媒体帖子上进行严格统计验证,研究发现,在事件驱动期间,模型准确率下降最高可达23.4%,置信度最大下降13.0%(Bootstrap 95% CI: [9.1%, 16.5%])。研究引入了四种新颖的漂移度量指标,这些指标在保持计算效率的同时,性能优于基于嵌入的基线方法,适用于生产环境部署。该方法为实时情感监控系统提供了即插即用的解决方案,并揭示了Transformer模型在动态内容期间的行为特性。
时间漂移检测transformer模型情感分析零训练方法社交媒体分析模型稳定性
cs
12-25 00:00
本研究提出一种新框架,将大语言模型(LLMs)作为目标导向的知识策展器(GKC),用于处理稀疏、异构的临床数据。该方法将实验室、基因组和用药数据转化为与预测任务对齐的高保真语义特征,作为离线预处理步骤集成到医院信息流程中。在184例肺癌患者队列中,GKC取得了0.803的平均AUROC,优于专家手工特征、直接文本嵌入和端到端Transformer模型。结果表明,在稀疏临床数据场景下,语义表征质量是预测准确性的关键决定因素。
肺癌预测大语言模型特征工程临床决策支持语义表征多模态数据
cs
12-25 00:00
本文针对大语言模型持续学习中的灾难性遗忘问题,提出了浅层对齐与深层对齐的分析框架。研究发现,现有任务对齐方法仅在前3-5个输出词元上维持浅层对齐,导致模型易受虚假遗忘(由对齐破坏而非知识丢失引起)影响。为解决此问题,作者提出了首个量化对齐深度的指标(0-1标度)、实时检测方法、可视化分析工具以及自适应缓解策略。在多个数据集和模型架构(Qwen2.5-3B至32B)上的实验表明,该框架能以86.2-90.6%的准确率识别遗忘类型,并通过促进深层对齐将抗遗忘鲁棒性提升3.3-7.1%。
持续学习灾难性遗忘对齐深度虚假遗忘大语言模型量化分析
cs
12-25 00:00
本文提出了一种名为Gate-Norm的权重剪枝方法,基于“注意力抑制假说”:在预训练过程中,部分深层注意力层学会了抑制自身贡献。该方法通过分析查询-键耦合度对注意力子层进行排序,无需校准数据、前向传播或微调即可移除最不重要的层。在40层、130亿参数的LLaMA模型上,该方法可在1秒内完成剪枝。移除8-16个注意力子层后,推理吞吐量最高提升1.30倍,同时在多个零样本任务中平均准确率下降控制在2%以内。Gate-Norm在准确率上与数据驱动方法相当,但评分速度提升约1000倍。
大语言模型模型剪枝注意力机制推理加速无数据压缩
cs
12-25 00:00
本研究提出一种基于稀疏自编码器(SAEs)的新方法,用于自动识别大语言模型(LLMs)评测中的两类“缺口”:模型在特定概念上的能力不足(模型缺口),以及评测基准本身概念覆盖的不均衡(基准缺口)。该方法通过提取SAE概念激活,并计算其在基准数据上的显著性加权性能分数,将评估过程锚定于模型的内部表征,实现了跨基准的比较。应用该方法对两个开源模型和十个基准的分析发现,模型在“礼貌拒绝请求”等非谄媚行为及安全相关概念上表现持续不佳,而许多基准则过度代表了“服从”、“权威”等概念,遗漏了其本应涵盖的核心概念。该方法为传统聚合指标提供了概念层面的分解,揭示了模型得分背后的原因及基准的改进方向。
大语言模型评估稀疏自编码器能力缺口分析基准评测模型可解释性无监督方法
cs
12-25 00:00
本文针对6G网络日益增长的复杂性,提出了一种创新的反射驱动自优化框架。该框架将智能体AI与高保真网络仿真在闭环架构中集成,通过编排场景、求解器、仿真和反射四个专用智能体协同工作,使系统能够摆脱局部最优、识别隐含用户意图并适应动态网络条件。实验验证表明,相比非智能体方法,该框架在干扰优化中实现了17.1%的吞吐量提升,通过意图识别将用户QoS满意度提高了67%,并在低流量时段在保持服务质量的同时减少了25%的资源占用。
6g网络智能体ai网络仿真自优化资源管理闭环控制
cs
12-25 00:00
本研究利用2019至2023年共五年的闪电网络拓扑快照数据,计算了47个计算密集型指标与网络属性,对网络结构及其时间动态进行了全面分析。结果不仅验证了先前拓扑研究的结论,更深入揭示了网络的结构演化过程。研究特别量化了网络拓扑随时间的稳定性,其发现对基于启发式的路径查找与路由协议设计具有指导意义。这项工作为公开可用的闪电网络快照数据提供了详细的特征描述,为支付通道网络分析与网络科学的未来研究提供了支持。
闪电网络网络拓扑支付通道网络动态路由协议
cs
12-25 00:00
本研究针对天体物理学中的N体问题,对比了科学机器学习框架下的两种方法:神经常微分方程(NODE)和通用微分方程(UDE)。传统机器学习模型常为忽略物理定律的“黑箱”,而本研究将已知的引力相互作用物理定律直接嵌入模型。通过在Julia语言中建模并使用含噪声的合成数据进行测试,研究发现UDE模型的数据效率显著更高,仅需20%的训练数据即可准确预测未来轨迹,而NODE模型则需要90%的数据。
科学机器学习n体问题微分方程数据效率轨迹预测天体物理模拟
cs
12-25 00:00
本文提出BitRL-Light框架,将1比特量化的大型语言模型与深度Q网络强化学习结合,用于边缘设备的实时智能家居照明控制。该系统在树莓派上部署1比特量化的Llama-3.2-1B模型,相比全精度模型能耗降低71.4倍。通过多目标强化学习,系统从用户反馈中学习最优照明策略,平衡能耗、舒适度与昼夜节律。实验表明,相比基于规则的系统节能32%,树莓派4上推理延迟低于200毫秒,用户满意度达95%。
1比特量化强化学习智能家居边缘计算节能优化大模型部署
cs
12-25 00:00
本文为第20届知识、信息与创造力支持系统国际会议(KICSS 2025)的论文集介绍。该会议于2025年12月3日至5日在日本长冈举行,由IEICE Proceedings Series协办,为人工智能、知识工程、人机交互及创造力支持系统等领域的研究者提供了一个多学科交流平台。收录的论文均经过双盲同行评审,部分优秀论文经进一步评审后,被推荐至《IEICE信息与系统汇刊》发表。
人工智能知识工程人机交互创造力支持系统学术会议论文集
cs
12-25 00:00
本文提出 MicroProbe 方法,通过仅需 100 个精心设计的探针样本,即可对大语言模型进行全面的可靠性评估。该方法结合了跨五个关键可靠性维度的策略性提示多样性、先进的不确定性量化与自适应加权,能高效检测潜在失效模式。在多个 GPT-2 变体及跨领域(医疗、金融、法律)验证中,其综合可靠性得分比随机采样基线高 23.5%(p < 0.001),评估成本降低 90%,同时保持 95% 的传统方法覆盖率,为负责任 AI 部署提供了高效评估方案。
大模型评估可靠性测试高效采样不确定性量化ai安全
cs
12-25 00:00
本报告详细介绍了基于阿里通义千问Qwen-3模型开发的AI医疗咨询助手Erkang-Diagnosis-1.1。该模型整合了约500GB高质量结构化医学知识,采用增强预训练与检索增强生成相结合的混合方法,旨在构建一个安全、可靠且专业的AI健康顾问。通过3-5轮高效交互,模型能准确理解用户症状,进行初步分析,并提供有价值的诊断建议与健康指导。验证显示,其在综合医学考试中表现领先于GPT-4。
ai医疗助手检索增强生成医学知识库健康管理大语言模型
cs
12-25 00:00
本文提出SHRP框架,用于压缩Transformer编码器以降低推理延迟与内存消耗。其核心是将每个注意力头视为独立专家,并引入轻量共享前馈网络,通过统一的Top-1使用率机制,在训练时动态路由、部署时确定性剪枝冗余头。在BERT-base上的实验表明,该框架在减少48%参数的同时保持了93%的原始精度;在极端压缩场景下(剪除11/12层),仍能维持84%精度,计算量降至原始的11.5%,吞吐量提升4.2倍。
模型压缩注意力机制结构化剪枝transformer高效推理自然语言处理
cs
12-25 00:00
本文针对网络流量分类中的大象流检测在异构网络环境中泛化能力差的问题,提出了一个统一的机器学习框架。该框架通过融合应用感知特征和安全特征,并采用自适应阈值、综合特征工程及跨域评估方法,有效量化并缓解了域偏移现象。实验在校园网、UNSW-NB15和CIC-IDS2018三个不同领域的数据集上进行,结果显示模型性能存在显著差异(F1分数范围为0.37至0.97),凸显了跨域验证的重要性。统一模型在保持可解释性的同时,取得了0.99的整体交叉验证F1分数。特征重要性分析表明,基于大小的特征(如总字节数,重要性占33.80%)占主导地位,但应用感知和安全特征对提升分类精度及网络管理与安全应用具有重要价值。
网络流量分类大象流检测跨域学习机器学习特征工程网络安全
cs
12-25 00:00
本文提出了一种基于混合整数线性规划(MILP)的集成框架,用于优化资源受限环境下的物联网(IoT)网状网络部署。该框架通过战略性地结合静态与移动Zigbee节点,解决了大规模无线传感器网络(WSN)部署成本高昂的挑战。核心贡献包括三种新颖的规划模型:边界优化的静态节点布局(MILP-Static)、覆盖最大化的移动节点路径规划(MILP-Cov)以及移动节点运动最小化(MILP-Mov)。仿真与实验验证表明,MILP-Static将覆盖率从随机方法的33.42%提升至53.06%,MILP-Cov实现了97.95%的覆盖率,而MILP-Mov则将移动成本降低了40%。该框架为全球物联网的经济高效部署提供了基础性解决方案。
物联网网络规划混合整数线性规划无线传感器网络能效优化覆盖最大化zigbee节点
cs
12-25 00:00
本研究探索了不同大语言模型(LLM)在数学推理任务中的可互换性,即一个模型生成的中间推理链能否被另一个模型可靠地延续。通过使用Gemma和LLaMA系列模型,在推理链的早、中、晚期进行截断并交由其他模型继续,并利用过程奖励模型(PRM)进行评估。研究发现,混合推理链不仅能保持,有时甚至能提升最终答案的准确性和逻辑结构,揭示了推理模型的一种新兴行为特性,为构建可靠、模块化的协作AI系统提供了新范式。
大语言模型数学推理模型可互换性推理稳定性过程奖励模型协作ai