今日速览 · AI 导读

24 小时跨学科精选

自动抓取 arXiv 多学科 RSS,DeepSeek 自动润色标题与摘要,最快 24 小时内汇总。每日 14:00 初始化批次并每 15 分钟轮询学科,24h 无数据则回退 72h/7 天;arXiv 周末停更时自动跳过。

AI 导读

计算机科学

2026-01-09 01-09 15:26

今日计算机科学领域研究聚焦于提升AI系统的可靠性、安全性与可解释性,并积极探索其在医疗、教育、社会治理等垂直领域的深度应用与治理挑战。

  • 提升模型可靠性与效率:研究通过偏好优化(TrueBrief)、自适应推理分解(CARD)和时空动态令牌优化(STDD)等方法,旨在减少幻觉、提升多步推理效率并加速文本生成,核心在于让模型行为更可控、更高效。
  • 医疗AI的安全与评估挑战:研究揭示了医疗大模型普遍存在安全漏洞(易受越狱攻击),并提出了参数空间干预修复法。同时,首个高维度医疗对话评估基准MedPI的建立,系统性暴露了主流模型在诊断等核心能力上的不足。
  • 专业领域与复杂模态的基准测试:针对AI在电信(TeleTables)、前端开发(FronTalk)等专业领域理解力不足的问题,研究通过构建包含多模态反馈的专门基准,系统评估并揭示了模型在处理复杂技术材料和交互任务时的局限。
  • AI治理与伦理的系统化审视:研究从儿童AI治理(量化评估UNICEF指南差距)、批判性分析AI价值链的法律化,到解析社会工程攻击的系统框架,推动治理从原则走向可量化、可操作的实践,并强调纳入伦理、文化等非经济维度。
  • 人机交互与社会影响:探讨了依恋风格如何塑造人与AI聊天机器人的互动模式(如“AI亲密悖论”),以及通过“集体叙事扎根”让社区参与改善本地AI系统,关注技术的社会嵌入与个体差异。
  • 创新应用与自动化工具:研究展示了AI在自动化生成教育视频(“生成式教学”)、构建可解释的中文动词规则库、以及开发本地化临床合作推荐系统等方面的潜力,推动AI成为增强各领域生产力的创造性工具。

2026-01-09 速览 · 计算机科学

2026-01-09 共 24 条抓取,按综合热度排序

← 返回日历
cs 01-09 00:00

TrueBrief:通过偏好优化提升小语言模型摘要忠实度

本文提出TrueBrief框架,旨在通过偏好优化范式提升小语言模型在文本摘要任务中的忠实度,减少幻觉。其核心是一个数据生成模块,通过可控幻觉注入来合成偏好数据。研究揭示了数据质量和模型规模对基于偏好的优化效果的影响,并明确了该方法最有效的适用条件。

小语言模型文本摘要幻觉抑制偏好优化数据生成
cs 01-09 00:00

动态证据积累:主动感知如何塑造真实世界决策

本研究将实验室中的证据积累模型(EAM)推广至真实世界驾驶场景,提出了一种认知计算框架。该框架通过形式化真实世界的“证据可供性”并利用眼动追踪捕捉主动感知行为,揭示了驾驶员如何将外部证据转化为内部心理信念。研究发现,证据可供性与个体投入的注意力呈负相关,而两者共同对决策倾向产生正向影响,阐明了人类在不同情境下适应证据收集模式的内在机制。

主动感知证据积累模型真实世界决策眼动追踪认知计算驾驶行为
cs 01-09 00:00

社会工程攻击知识系统化:从人类、组织与攻击者三维度解析网络威胁

本研究首次将人类的知识、能力与行为(KAB)指标、组织文化驱动因素以及攻击者经济动机整合进一个统一的分析框架(TriLayer Systematisation),揭示了漏洞、规范与威胁激励如何协同演化。通过对HAISQ评分进行标准化与风险加权元分析,识别出互联网与社交媒体使用等持续高风险集群,并提出预测性影响权重。基于聚类证据,研究还设计了一套自适应的‘分段与模拟’培训蓝图,为不同风险等级的用户群体匹配体验式学习方案。

社会工程攻击网络安全人为因素风险分析培训蓝图知识系统化
cs 01-09 00:00

UNICEF儿童AI治理指南的量化差距评估:基于Graph-GAP框架的证据-机制-治理-指标建模

本研究针对儿童中心人工智能治理的实践挑战,提出了Graph-GAP方法学。该方法将权威政策文本(以UNICEF《人工智能与儿童指导3.0》为例)的要求分解为证据、机制、治理和指标四层图结构,并计算GAP分数和缓解准备度两个指标,以识别治理差距并确定行动优先级。研究发现,与隐私和数据保护相比,儿童福祉与发展、可解释性与问责制、跨机构实施与资源分配等要求更容易出现指标和机制层面的差距。研究建议将要求转化为可审计的闭环治理,整合儿童权利影响评估、持续监测指标和申诉补救程序。

人工智能治理儿童权利政策量化差距评估图模型可审计指标
cs 01-09 00:00

依恋风格如何影响大学生与AI聊天机器人的互动模式

本研究通过质性访谈探讨了不同依恋风格的大学生与ChatGPT的互动模式。研究发现:AI被普遍视为一个低风险的情感空间;安全型依恋者将AI整合为现有支持系统的补充工具,而回避型依恋者则利用AI缓冲脆弱感并维持人际边界;同时存在“AI亲密悖论”——学生愿意向AI披露个人信息,却又清楚其作为关系伙伴的局限性。这表明依恋取向在塑造人机互动体验中扮演重要角色。

人机交互依恋理论ai聊天机器人大学生心理质性研究
cs 01-09 00:00

人工智能价值链:从经济概念到法律治理工具的批判性审视

本文批判性地审视了“人工智能价值链”这一概念,它已从经济术语演变为欧盟《人工智能法案》等法规的核心治理工具。文章分析了其在欧盟数字战略中的功能与局限,并推进理论构建,提出应纳入语言、文化、伦理与法律等难以货币化的无形维度。研究还比较了欧盟、英联邦与美国的AI监管框架,最终提出一个旨在维护民主价值、促进数字时代法治的具体分析框架。

人工智能治理欧盟监管价值链分析数字法治伦理ai
cs 01-09 00:00

MedPI:首个高维度医疗对话AI评估基准,揭示主流模型诊断能力不足

研究团队提出了MedPI,一个用于评估大语言模型在医患对话场景表现的高维度基准。该基准包含五个层级:模拟电子健康记录的“患者档案包”、具备记忆与情感的AI患者、涵盖多种就诊原因与目标的“任务矩阵”、映射至医学教育认证委员会能力的105维评估框架,以及经过校准的AI评委委员会。研究对9款主流模型进行了超过7000次对话测试,发现所有模型在多项维度,尤其是鉴别诊断方面表现不佳。这项工作为未来LLM在诊断与治疗建议方面的应用提供了关键的评估指引。

医疗ai评估大语言模型医患对话诊断能力基准测试
cs 01-09 00:00

RAGVUE:可解释的检索增强生成系统自动化评估诊断框架

本文提出了RAGVUE,一个用于检索增强生成(RAG)系统自动化、无参考评估的诊断与可解释框架。该框架将RAG行为分解为检索质量、答案相关性与完整性、严格的声明级忠实度以及评估者校准等多个维度,每个指标均提供结构化解释,使评估过程透明化。RAGVUE支持手动指标选择和全自动智能体评估,并提供Python API、CLI和本地Streamlit交互界面。实验表明,相较于RAGAS等现有工具,RAGVUE能揭示更细粒度的系统失败模式。

检索增强生成自动化评估可解释性诊断框架rag系统
cs 01-09 00:00

卡尔曼滤波器辨识:局部解的一致性证明

本文针对线性动态系统辨识中预测误差和最大似然方法通常面临的非凸优化问题,聚焦于仅估计卡尔曼增益这一特殊情况。研究证明了,随着数据量的增加,目标函数会收敛到一个具有唯一局部(即全局)极小值的极限函数,从而确保了局部极小值解是真实卡尔曼增益的统计一致估计。这一结果为卡尔曼滤波器调参的优化问题设计提供了理论指导,并讨论了向联合估计其他线性参数和噪声协方差的扩展。

系统辨识卡尔曼滤波非凸优化统计一致性参数估计线性系统
cs 01-09 00:00

医疗大模型的安全漏洞与参数空间干预修复

研究发现,当前先进的医疗多模态大语言模型在通用及医疗特定安全维度上存在普遍脆弱性,尤其易受跨模态越狱攻击。医疗微调过程常导致模型遗忘原有的安全对齐。为此,本文提出一种新颖的“参数空间干预”方法,从原始基础模型中提取内在安全知识表征,并在构建医疗能力时将其注入目标模型。同时,设计细粒度参数搜索算法,以在安全性与医疗性能间达成最优权衡。实验表明,该方法无需额外领域安全数据即可显著增强模型安全护栏,同时最小化对核心医疗性能的影响。

医疗大模型模型安全参数干预安全对齐多模态
cs 01-09 00:00

基于大语言模型的电商产品属性可控生成框架

本研究提出了一种利用大语言模型生成高质量电商产品合成数据的系统性方法。核心是引入一个可控修改框架,包含属性保留修改、可控负例生成和系统性属性移除三种策略。通过属性感知提示,模型能在遵守店铺约束的同时保持产品描述的连贯性。人工评估2000个合成产品显示,99.6%的描述自然,96.5%包含有效属性值,超过90%的属性使用一致。在公开MAVE数据集上,仅使用合成数据训练的模型准确率达到60.5%,与使用真实数据(60.8%)相当,远超零样本基线(13.4%)。混合使用合成与真实数据可将准确率进一步提升至68.8%。该框架为增强电商数据集,特别是在资源有限场景下,提供了实用解决方案。

大语言模型数据生成电子商务属性控制合成数据低资源学习
cs 01-09 00:00

集体叙事扎根:社区协同数据贡献改善本地AI系统

针对大语言模型在回答社区特定问题时存在的“知识盲区”与认知不公,本研究提出“集体叙事扎根”参与式协议。该协议将社区故事转化为结构化叙事单元,并在社区治理下整合至AI系统。通过对14,782个本地信息问答对的审计发现,事实缺失、文化误解等错误占比高达76.7%。在参与式工作坊构建的问答集上,顶尖LLM无上下文时的正确率低于21%。研究设计了保留叙事丰富性的提取与验证模式,并探讨了表征与权力、治理与控制等关键设计张力,为构建社区扎根、溯源可见、本地治理的问答系统提供了严谨基础。

社区ai参与式设计叙事数据知识盲区本地治理问答系统
cs 01-09 00:00

TeleTables:电信表格理解基准测试揭示大模型在专业领域的局限

本文针对大语言模型在解读电信行业标准(如3GPP规范)中密集表格时表现不佳的问题,提出了首个专门用于评估模型电信表格知识与解释能力的基准测试集TeleTables。该数据集通过一个新颖的多阶段数据生成流程构建,从3GPP标准中提取表格,并利用多模态和推理导向的大模型生成和验证问题,最终包含500个人工验证的问答对。评估发现,参数小于100亿的模型在知识回忆和表格解释方面均存在困难,表明其预训练数据对电信标准覆盖有限,且缺乏处理复杂技术材料的归纳偏置。而更大规模的模型则展现出更强的表格推理能力。研究凸显了领域专业化微调对于可靠解读电信标准的重要性。

大语言模型电信标准表格理解基准测试3gpp规范领域适应
cs 01-09 00:00

FronTalk:首个前端对话式代码生成基准,引入多模态反馈评估

本文提出了FronTalk基准,旨在研究前端开发中独特的交互动态:结合多模态反馈的对话式代码生成。该基准包含100个源自新闻、金融、艺术等真实网站的多轮对话,每轮均包含等价的文本和视觉指令。研究引入基于智能体的评估框架,通过模拟用户浏览网页来综合评估功能正确性与用户体验。对20个模型的评估揭示了两个关键挑战:模型存在显著的“遗忘”问题,会覆盖先前实现的功能;开源视觉语言模型在解读视觉反馈方面持续面临困难。为解决遗忘问题,研究提出了AceCoder基线方法,利用自主网页智能体对过往指令的实现进行审查,将遗忘率降至接近零,并将性能提升高达9.3%。

前端开发代码生成多模态反馈对话式ai基准测试视觉语言模型
cs 01-09 00:00

生成式教学:通过代码自动化生成高质量教育视频

本文提出“生成式教学”新范式,将教育者角色从手动内容创作者转变为高层导演。为实现该愿景,研究团队开发了TeachMaster多智能体框架,其核心创新在于利用代码作为中间语义媒介,协同规划、设计和渲染等多个智能体,自动化生成结构清晰、可解释且易于编辑的课程视频。实验表明,该方法在保持教学结构连贯性和视觉保真度的同时,显著提升了内容生产效率,为大规模高质量在线教育提供了可行解决方案。

生成式教学教育视频生成多智能体框架代码语义媒介自动化内容创作在线教育
cs 01-09 00:00

STDD:基于时空动态的扩散语言模型令牌优化方法

本文针对扩散语言模型(DLMs)在并行生成文本时,主流重掩码策略依赖单一全局置信度阈值、忽视令牌时空动态特性的问题,提出了一种新颖的重掩码方法STDD。该方法通过动态检测每个令牌的“时间方差”(反映其收敛状态)和“空间偏差”(反映其与其它令牌的关联性),自适应地调整每个令牌在每一步的置信度阈值。实验结果表明,该方法在主流数据集上显著提升了DLMs的运行效率,最高可实现8.9倍的加速,同时忠实保持了生成质量。

扩散语言模型重掩码策略时空动态令牌优化并行生成效率提升
cs 01-09 00:00

基于微调模型与检索增强生成的大学招生咨询应答系统

针对大学招生办公室处理海量咨询时面临的响应速度与信息准确性问题,本研究提出了一种结合微调语言模型与检索增强生成(RAG)的AI系统。通过使用特定招生流程的精选数据集对模型进行微调,增强了模型对RAG检索到的复杂规则与细节信息的准确解读与领域相关输出能力。这种混合方法同时利用了RAG获取最新信息的能力与微调模型内嵌的领域细微理解。研究还探索了响应生成逻辑的优化策略,以平衡响应质量与速度,旨在为招生沟通提供持续高质量的输出。

检索增强生成模型微调智能问答招生咨询自然语言处理人机交互
cs 01-09 00:00

轻量级Logit导向:社交媒体分析中针对特定标注者的意识形态对齐方法

研究发现,大语言模型内部对政治意识形态的组织呈现低维结构,但与人类的意识形态空间存在系统性、模型特异性的错位。本文提出一种轻量级线性探针方法,不仅能量化这种错位,还能通过直接调整模型输出层的概率分布(即logits)进行最小化校正。该方法无需重新训练模型,仅需计算其内部特征的偏差分数,即可高效地将模型与特定用户的观点对齐,同时保留模型的原始推理能力。

意识形态对齐大语言模型社交媒体分析轻量级校正模型偏见
cs 01-09 00:00

LEXMA:基于强化学习的LLM微调框架,为商业决策生成多受众解释

本文提出LEXMA框架,通过强化学习微调大语言模型,为高风险的商业决策(如抵押贷款审批)生成自然语言解释。该方法结合反思增强的监督微调与两阶段组相对策略优化,无需依赖大量人工标注的解释数据,即可同时优化决策正确性与面向不同受众(如专家与消费者)的解释风格。实验表明,LEXMA在预测性能上优于基线模型,其生成的专家解释更关注风险,而面向消费者的解释则更清晰、更具可操作性且更礼貌。

可解释人工智能大语言模型强化学习微调商业决策多受众解释
cs 01-09 00:00

CARD框架:预测问题复杂度,自适应分解推理步骤,提升大模型多步推理效率

本文提出CARD框架,旨在解决大语言模型在多步推理中因固定策略而忽略问题具体难度导致的失败。CARD的核心在于先预测问题复杂度,再自适应分解。它包含一个0.6B参数的复杂度估计器MRCE,可从问题文本预测30个细粒度特征,以及一个两阶段递归求解器:首先根据任务画像进行K步层次分解,然后通过递归MRCE分析为每一步分配思想预算(1、5-9或10个思想)。在三个推理模型上的评估显示,CARD在GSM8K上达到81.4%至89.2%的准确率,同时比固定分解基线减少1.88倍至2.40倍的令牌消耗;在MATH-500上达到75.1%至86.8%的准确率,并使用少1.71倍至5.74倍的令牌。结果表明,先行的复杂度估计能同时实现更高的准确率和显著的效率提升。

大语言模型多步推理复杂度估计自适应分解效率优化递归求解
cs 01-09 00:00

Qwerty AI:俄语剧本自动化分级与内容安全评估系统

本研究提出了Qwerty AI系统,用于根据俄罗斯联邦法律对俄语剧本进行端到端的自动化年龄分级与内容安全评估。该系统能在2分钟内处理长达700页的完整剧本,将其分割为叙事单元,并在暴力、性内容、脏话、药物、恐怖元素五个类别中检测违规内容,最终给出可解释的年龄分级(0+至18+)。系统基于4位量化的微调Phi-3-mini模型实现,分级准确率达80%,分割精度达80-95%。该系统在Wink黑客松中开发,部署于Yandex云平台,展示了在生产工作流中的实际应用潜力。

内容安全年龄分级剧本分析自然语言处理ai应用俄语nlp
cs 01-09 00:00

AnimatedLLM:通过交互式可视化解释大语言模型内部机制

针对大语言模型(LLM)教学材料稀缺的问题,本研究提出了AnimatedLLM——一个完全在浏览器中运行的交互式Web应用。它通过预计算的开源LLM轨迹和精心设计的输入,提供Transformer语言模型的分步可视化,旨在作为教学辅助工具,帮助用户直观理解LLM的内部工作原理。

大语言模型交互可视化transformer模型解释教育工具
cs 01-09 00:00

中文动词构式数据库的自动构建:为LLMs提供可解释规则

本文提出了一种完全无监督的方法,用于自动构建中文动词构式数据库,旨在为需要解释性和可解释性的应用场景提供明确的规则,以补充大型语言模型。该方法将动词构式形式化定义为一种投影的、有根的、有序的有向无环图,并采用一系列聚类算法,从大规模语料库检索的句子列表中为给定动词生成构式。统计分析表明,生成的构式具有功能独立性和分级典型性的设计特征。在动词语法纠错任务上的评估显示,基于构式最大匹配的纠错算法性能优于LLMs。

动词构式无监督学习可解释ai语法纠错中文处理知识库构建
cs 01-09 00:00

基于本地化RAG系统的临床知识发现与协作推荐

本研究针对医院环境中严格的隐私与网络安全限制,开发并评估了一种基于检索增强生成(RAG)的系统,用于在完全本地化的基础设施中推荐研究合作者。系统利用PubMedBERT生成领域特定的嵌入向量,并结合本地部署的LLaMA3模型进行生成式合成,通过分析机构成员在PubMed上的出版物来实现。研究证明了将领域专用编码器与轻量级大语言模型相结合,在本地部署约束下支持生物医学知识发现的可行性与实用性。

检索增强生成本地化部署临床知识发现pubmedbertllama3协作推荐
AI速览助手