今日速览 · AI 导读

24 小时跨学科精选

自动抓取 arXiv 多学科 RSS,DeepSeek 自动润色标题与摘要,最快 24 小时内汇总。每日 14:00 初始化批次并每 15 分钟轮询学科,24h 无数据则回退 72h/7 天;arXiv 周末停更时自动跳过。

AI 导读

计算机科学

2026-02-27 02-27 15:43

今日计算机科学领域的研究热点聚焦于检索增强生成(RAG)的深度优化与扩展应用,以及大模型(LLM)在特定任务中的能力评估与安全加固。整体趋势是追求系统更高效、更可靠、更贴近真实场景。

  1. RAG系统的效率与架构革新:研究重点从基础RAG转向动态优化与边缘部署。例如,SmartChunk框架通过查询感知的动态分块压缩提升效率;RAGdb则设计了无需外部依赖的嵌入式架构,为边缘计算场景提供了轻量级解决方案。
  2. 知识增强与可控生成:为了提升生成内容的领域相关性与可控性,研究深入探索知识图谱与RAG的融合。GYWI系统通过作者图谱和混合检索机制,为科学创意生成提供深度背景;电商领域的KG-RAG研究则系统优化了检索-重排流程,显著提升了命中率。
  3. 大模型的能力评测与安全风险:对LLM的评估趋于具体化与场景化。研究系统评估了LLM生成并行代码的能力差异,并揭示了多款开源模型面临提示注入与越狱攻击的显著风险,同时探讨了轻量级防御机制的有效性。
  4. 专用硬件与架构优化:为突破特定计算瓶颈,研究向底层架构延伸。FHECore通过为全同态加密重构GPU微架构,实现了2倍以上的性能提升;TT-SEAL框架则针对张量分解网络,实现了安全性与低延迟的平衡。
  5. 高质量数据集的构建方法:数据构建追求自动化与高质量。Alpha-Root利用社区检测技术从网络图谱中自动化构建网络安全数据集;SQaLe则基于真实数据库模式,构建了目前最贴近现实的大规模文本转SQL基准。
  6. 跨学科的应用与评估:LLM和AI技术深入医疗、信息可信度等关键领域。研究开发了基于患者语言的被动监测系统用于中风风险早期识别,并对中文网络信息可靠性进行了大规模对比评估,揭示了AI辅助搜索的结构性风险。

2026-02-27 速览 · 计算机科学

2026-02-27 共 24 条抓取,按综合热度排序

← 返回日历
cs 02-27 00:00

Taxoria:利用大语言模型自动扩展知识分类体系

针对现有知识分类体系(Taxonomy)普遍存在的覆盖不全、节点过时或模糊等问题,本文提出了Taxoria,一种基于大语言模型(LLM)的自动化分类体系扩展方法。该方法以现有分类体系为种子,通过提示LLM生成候选节点,并经过验证以减轻幻觉、确保语义相关性后,再将其整合。最终输出包含来源追踪的扩展分类体系及其可视化图谱,有效提升了知识检索的效率和准确性。

大语言模型知识图谱分类体系扩展信息检索语义验证
cs 02-27 00:00

自适应预过滤框架:基于查询频率的高维相似性搜索优化

本文针对高维相似性搜索中统一策略无法适应真实世界查询分布异构性的问题,提出了一种自适应预过滤框架。该方法利用查询频率模式(遵循齐夫分布)和聚类一致性度量,动态分配计算资源。通过在ImageNet-1k数据集上使用CLIP嵌入进行实验,结果表明,与静态nprobe选择相比,该频率感知的预算分配方法在达到相同召回率的同时,减少了20.4%的距离计算量,并在GPU加速的FAISS索引上保持了亚毫秒级延迟。框架通过轻量级频率跟踪引入最小开销,并通过基于一致性的回退策略为未见查询提供优雅降级。

高维搜索自适应预过滤查询频率计算预算分配相似性检索向量数据库
cs 02-27 00:00

融合作者图谱与检索增强生成,提升大模型科学创意生成质量

本文提出名为GYWI的科学创意生成系统,旨在解决大语言模型生成结果缺乏可控学术背景与可追溯灵感路径的问题。该系统通过构建以作者为中心的知识图谱,并结合检索增强生成与图检索增强生成形成混合检索机制,为模型提供兼具深度与广度的知识上下文。同时,系统采用融合强化学习思想的提示优化策略,自动引导模型基于混合上下文优化生成结果。基于arXiv数据集的实验表明,GYWI在创意的新颖性、可行性、清晰度、相关性和重要性等多个维度上,显著优于GPT-4o、DeepSeek-V3等主流大模型。

科学创意生成知识图谱检索增强生成大语言模型混合检索提示优化
cs 02-27 00:00

检索增强生成助手在解剖病理实验室的应用与评估

本研究针对解剖病理实验室中静态文档(如纸质手册或PDF)更新滞后、信息分散、检索困难的问题,提出并评估了一个检索增强生成助手。该助手旨在为技术人员提供基于上下文的协议相关查询答案。研究构建了包含99个协议的新语料库及323个问答对,通过10组实验比较了不同文本分块策略、检索方法和嵌入模型。结果表明,递归分块与混合检索结合生物医学专用嵌入模型(MedEmbed)能显著提升答案相关性(0.74)、忠实度(0.70)和上下文召回率(0.77)。分析发现,仅检索最相关的单个文本块(k=1)即可实现最佳效率与准确性,这反映了AP协议模块化的结构特点。

检索增强生成解剖病理学实验室协议医疗人工智能信息检索领域嵌入
cs 02-27 00:00

RAGdb:面向边缘计算的无依赖、嵌入式多模态检索增强生成架构

本文提出RAGdb,一种创新的单体式架构,旨在解决传统检索增强生成(RAG)系统在边缘计算场景下的基础设施臃肿问题。它将多模态数据自动摄取、基于ONNX的特征提取和混合向量检索整合进单个便携的SQLite容器中,无需依赖云端向量数据库或GPU推理服务器。其核心是确定性的混合评分函数(HSF),结合了亚线性的TF-IDF向量化和精确子串增强技术。实验表明,在消费级硬件上,RAGdb实现了实体检索100%的Recall@1,增量更新效率提升31.6倍,磁盘占用相比标准Docker堆栈减少约99.5%,为去中心化、本地优先的AI应用提供了可行的“单文件知识容器”方案。

边缘ai检索增强生成向量检索高效计算嵌入式系统知识容器
cs 02-27 00:00

Alpha-Root:基于社区检测从Common Crawl构建网络安全数据集

Alpha-Root是一个从Common Crawl网络图谱中一次性采集的网络安全数据集。该方法通过社区检测技术,直接从网络图谱中挖掘高质量域名,仅需从20个可信种子域名出发,无需依赖DeepSeekMath等迭代内容评分方法。该数据集为网络安全研究提供了大规模、高质量的语料资源。

网络安全数据集构建社区检测网络图谱common crawl
cs 02-27 00:00

电商知识图谱检索增强生成:神经检索-重排管道性能对比分析

本研究针对电商领域,系统比较了多种基于知识图谱的检索增强生成(RAG)管道。通过使用生产级电商数据集STaRK,优化了面向自然语言查询的检索-重排流程。实验结果表明,所提方法在关键指标上显著超越现有基准,命中率(Hit@1)提升20.4%,平均倒数排名(MRR)提升14.5%。该工作为将领域特定半结构化知识库集成到生成系统中提供了实用框架,其见解可推广至其他依赖结构化知识检索的领域。

检索增强生成知识图谱电商应用神经检索重排模型结构化知识
cs 02-27 00:00

推荐“意料之外,情理之中”的引文:NovelQR框架通过新颖性优化提升写作质量

本研究针对现有引文推荐系统仅关注表层主题相关性、忽视引文深层语义与美学价值的问题,提出“意料之外,情理之中”是优质引文的核心标准。受“陌生化”理论启发,作者开发了NovelQR框架,通过生成式标签代理解析引文与上下文的深层含义,并利用词元级新颖性估计器对候选引文进行重排序,以缓解自回归延续偏差。在跨语言、多领域的真实数据集上的实验表明,该系统推荐的引文在恰当性、新颖性和吸引力方面均优于基线模型。

引文推荐新颖性估计语义理解自然语言处理写作辅助
cs 02-27 00:00

中文网络信息可靠性评估:搜索引擎、大模型与AI摘要的对比研究

本研究构建了一个包含12,161个中文是非题的核查数据集,源自真实搜索日志,并建立统一评估框架,对比了传统搜索引擎、独立大语言模型和AI生成摘要模块三种信息获取模式的事实准确性。分析发现,不同系统在事实准确性和主题层面存在显著差异。结合百度指数数据,研究进一步估算了中国不同地区用户可能接触错误信息的潜在风险。这些发现揭示了AI辅助搜索的结构性风险,强调了为数字世界开发更可靠、透明信息工具的必要性。

信息可靠性大语言模型搜索引擎事实核查中文网络ai风险
cs 02-27 00:00

TWICE:基于大语言模型的个性化用户推文行为模拟框架

本文提出了TWICE框架,旨在解决现有用户模拟方法难以建模长期时序特征的局限。该框架利用社交媒体数据的长期时序与个性化特征,通过整合个性化用户画像、事件驱动的记忆模块以及个性化风格重写工作流,能够模拟个性化的用户推文行为,并有效捕捉行为的长期动态变化。实验结果表明,TWICE通过有效融入时序动态,提升了用户模拟的个性化水平,为长期行为追踪提供了稳健的解决方案。

用户模拟大语言模型时序特征个性化行为社交媒体分析记忆模块
cs 02-27 00:00

SQaLe:基于真实数据库模式构建的大规模文本转SQL数据集

本文介绍了SQaLe,一个基于135,875个真实世界数据库模式(源自SchemaPile)构建的大规模半合成文本转SQL数据集。该数据集通过结合模式采样、问题合成和SQL构建的生成流程,产生了517,676个高质量的(问题、模式、查询)三元组。SQaLe捕捉了真实的模式规模可变性、多样化的查询模式以及自然语言的歧义性,同时保持了执行有效性。分析表明,与现有基准相比,SQaLe是目前最贴近现实的大规模文本转SQL数据集,为数据扩展和模型泛化研究提供了重要资源。

文本转sql数据集构建自然语言处理数据库查询模型泛化半合成数据
cs 02-27 00:00

DS-Serve:高效可扩展的神经检索框架,支持万亿级文本数据集

DS-Serve 是一个将大规模文本数据集(包含五千亿个词元)转化为高性能神经检索系统的框架。它提供 Web 界面和 API 接口,在单节点上以适中的内存开销实现低延迟检索。该框架还支持在推理时对延迟、准确性和结果多样性进行权衡,预计将广泛应用于大规模检索增强生成(RAG)、训练数据归因、训练搜索代理等领域。

神经检索大规模数据集检索增强生成低延迟可扩展框架
cs 02-27 00:00

SmartChunk:基于查询感知的文档分块压缩框架,提升RAG效率与准确性

本文提出SmartChunk检索框架,解决了传统检索增强生成(RAG)中静态分块和统一检索的局限性。该框架包含一个规划器,用于预测每个查询的最优分块抽象级别,以及一个轻量级压缩模块,无需重复摘要即可生成高级分块嵌入。通过动态调整检索粒度,SmartChunk在五个QA基准测试和一个域外数据集上均优于现有RAG基线,在保证准确性的同时显著降低了计算成本。

检索增强生成动态分块查询自适应文档检索强化学习
cs 02-27 00:00

SEGB:基于局部自回归扩散的自进化生成式竞价框架

本文提出了一种名为SEGB的自进化生成式竞价框架,旨在解决在线广告自动竞价中离线训练策略缺乏动态市场前瞻性的问题。该框架通过合成合理的短期未来状态来指导每次出价,为智能体提供关键动态预见。其核心在于执行价值引导的策略精炼,无需外部干预即可迭代发现更优策略。在AuctionNet基准测试和大规模A/B测试中,SEGB显著优于现有最优基线。大规模在线部署实现了目标成本提升+10.19%,证明了其先进规划与进化范式的有效性。

自动竞价生成式模型离线强化学习广告优化自进化策略
cs 02-27 00:00

AOT:通过对抗自演化的多模态大模型鲁棒性训练框架

针对多模态大语言模型在复杂视觉场景下感知脆弱的问题,本研究提出了AOT-SFT对抗数据集与AOT自演化的对抗训练框架。该框架通过图像编辑攻击者与模型防御者之间的协同演化,自动生成动态多样的对抗性图像训练课程,迫使防御模型持续适应与提升。实验表明,该方法能有效增强模型的感知鲁棒性并减少幻觉,为训练更可靠的多模态大模型提供了一种可扩展的新范式。

多模态大模型对抗训练模型鲁棒性自演化学习感知脆弱性
cs 02-27 00:00

FHECore:为全同态加密重构GPU微架构,性能提升2倍以上

全同态加密(FHE)可直接处理加密数据,但其巨大的计算与内存开销限制了应用。针对现有GPU(如Tensor Core)因专注于低精度计算而与FHE所需的高精度模运算不匹配的问题,本研究提出FHECore——一种直接集成到GPU流式多处理器中的专用功能单元。核心洞见在于,将FHE中两大关键延迟源(数论变换与基转换)统一为模线性变换,从而映射到支持宽精度模乘加运算的通用硬件上。模拟结果显示,FHECore将CKKS原语的动态指令数平均减少2.41倍,端到端工作负载性能提升2.12倍,自举延迟降低50%,而面积开销仅为2.4%。

全同态加密gpu架构硬件加速模运算ckks方案性能优化
cs 02-27 00:00

自适应多链区块链:多目标优化方法解决可扩展性难题

本文提出了一种自适应多链区块链架构,将区块链配置建模为一个多智能体资源分配问题。每个周期,优化器根据应用和运营方声明的需求、容量和价格范围,将其动态分组为临时链,并设定链级清算价格。该模型旨在最大化应用、运营方和系统三者的归一化效用的加权组合,同时兼顾能力兼容性、应用类型多样性和跨周期稳定性。模型可链下求解、链上验证,并通过仿真分析了吞吐量、去中心化、运营方收益和服务稳定性之间的权衡。

区块链多链架构资源分配多目标优化可扩展性
cs 02-27 00:00

澄清“无威胁算法合谋”:实为竞争与非竞争行为并存

本文对Arunachaleswaran等人(2025)提出的“无威胁算法合谋”场景进行了澄清。作者指出,该场景并非真正的合谋,而是描述了一种混合行为模式:其中一方参与者采取了非竞争性策略,而另一方则保持了竞争性行为。这一澄清有助于更精确地界定算法在博弈论($GT$)与经济理论($ECON.TH$)交叉领域中的行为分类,避免对“合谋”概念的误用。

算法博弈论合谋澄清竞争行为非竞争策略行为分类
cs 02-27 00:00

分布式存储灾备优化:轻量级元数据架构突破加密哈希瓶颈

本文针对分布式存储系统在灾难恢复(DR)流程中依赖内容加密哈希进行数据识别与同步的瓶颈问题,提出了一种根本性的架构转变。研究发现,在故障切换与回切时,哈希索引可能过时或不完整,导致不可避免的完全或部分重哈希,严重影响恢复时间目标(RTO)。为此,作者提出一个通用框架,在数据摄取时即分配与内容无关的全局唯一复合标识符,从而实现灾难恢复期间的即时增量计算,完全消除了加密哈希的计算开销。

分布式存储灾难恢复元数据架构哈希瓶颈恢复时间目标数据同步
cs 02-27 00:00

TT-SEAL:面向张量分解网络的低延迟选择性加密框架

本文提出TT-SEAL,一种针对张量分解(TTD)压缩网络的选择性加密框架。该方法通过基于敏感性的重要性度量对TT核心进行排序,校准鲁棒性阈值,并使用差分隐私优化器,仅对最关键的少量核心(如4.89%-15.92%)进行AES加密。在TTD感知的威胁模型和FPGA原型验证中,TT-SEAL在保持与全加密相当鲁棒性的同时,将AES解密在端到端延迟中的占比降至极低水平(例如,ResNet-18上从58%降至2.76%),实现了安全、低延迟的边缘AI部署。

边缘ai安全选择性加密张量分解模型压缩低延迟推理
cs 02-27 00:00

评估大语言模型生成任务并行代码的能力:从提示到性能

本研究系统评估了大语言模型(LLM)生成高效任务并行代码的能力。研究通过三种输入提示(自然语言描述、顺序参考实现、并行伪代码)引导模型,针对OpenMP Tasking、C++标准并行库和HPX运行时三大框架生成代码,并评估其正确性与可扩展性。结果表明,LLM的表现随问题复杂度和框架抽象层级的不同而存在显著差异,揭示了其在辅助高性能与科学计算开发中的潜力与局限。

大语言模型并行计算代码生成高性能计算任务并行程序评估
cs 02-27 00:00

多款开源大语言模型面临提示注入与越狱攻击风险分析

本研究评估了包括Phi、Mistral、DeepSeek-R1、Llama 3.2、Qwen和Gemma在内的多款开源大语言模型对提示注入与越狱攻击的脆弱性。通过使用大型人工标注数据集进行测试,发现不同模型在攻击下的行为差异显著,部分模型会触发内部安全机制导致拒绝响应或完全沉默。研究还评估了多种轻量级推理时防御机制,这些机制无需重新训练或GPU密集型微调即可作为过滤器运行。结果表明,虽然这些防御措施能缓解简单攻击,但面对冗长、推理密集型的提示时仍可被绕过。

大语言模型提示注入越狱攻击模型安全防御机制开源模型
cs 02-27 00:00

基于患者语言与图神经网络的被动监测系统实现早期中风风险高精度识别

本研究针对中风症状识别延迟的问题,开发了一种面向糖尿病患者的被动监测系统。系统核心在于构建基于患者自述语言的症状分类法,并采用异构图神经网络与弹性网络/LASSO的双重机器学习管道,识别与后续中风相关的症状模式。研究成果转化为一个混合风险筛查系统,该系统整合了症状相关性与时间邻近性,并通过基于电子健康记录的模拟在3-90天的时间窗口内进行评估。在保守阈值下,系统实现了高特异性(1.00)和患病率调整后的阳性预测值(1.00),以及良好的灵敏度(0.72),体现了优先保证精度的预期权衡。研究表明,仅凭患者报告的语言即可支持高精度、低负担的早期中风风险检测。

中风风险检测图神经网络被动监测患者报告结局机器学习数字健康
cs 02-27 00:00

SODA-CitrON:在线多模态传感器检测聚类实现静态物体数据关联

本文提出了一种名为SODA-CitrON的新方法,用于在线融合和跟踪来自异构传感器的静态物体检测数据。该方法通过在线聚类多模态传感器检测,同时估计未知数量物体的位置并维持持续轨迹。作为一种无监督机器学习方法,它完全在线运行,能处理时间不相关和多传感器的测量数据,在最坏情况下具有对数线性复杂度,并保持完全的输出可解释性。在静态物体建图场景的蒙特卡洛模拟中,SODA-CitrON在F1分数、位置RMSE、MOTP和MOTA等指标上均优于贝叶斯滤波、DBSTREAM聚类和JPDA等现有方法。

静态物体跟踪多传感器融合在线聚类数据关联无监督学习机器人感知
AI速览助手