Investigating Spatial Attention Bias in Vision-Language Models (arxiv 2025) 本论文关注一种有趣的空间注意力偏差:当输入为左右拼接的双图时,模型在生成描述顺序上显著倾向于先描述左侧内容。 2025-12-25 #深度学习 #多模态 #大模型
Steer LLM Latents for Hallucination Detection (ICML 2025) Truthfulness Separator Vector = TSV 2025-12-18 #深度学习 #大模型
Neural Message-Passing on Attention Graphs for Hallucination Detection (ICLR 2026在投) 分数6686 2025-12-17 #深度学习 #大模型
Think-on-Graph: Deep and Responsible Reasoning of Large Language Model on Knowledge Graph (ICLR 2024) 提出了一种新的 LLM-KG 整合范式”$LLM\otimes KG$”,将 LLM 视为代理,交互式探索 KG(知识图谱) 上的相关实体和关系,并基于检索到的知识进行推理。 2025-12-16 #深度学习 #大模型
Martingale Score: An Unsupervised Metric for Bayesian Rationality in LLM Reasoning (NeurIPS 2025) 稍微有趣的一篇论文。 2025-12-14 #深度学习 #大模型