[CL]《EfficientKnowledgeProbingofLarg

爱生活爱珂珂 2025-08-12 06:32:35

[CL]《Efficient Knowledge Probing of Large Language Models by Adapting Pre-trained Embeddings》K Sharma, Y Jin, R Trivedi, S Kumar [Georgia Institute of Technology & MIT] (2025)

PEEK:用预训练嵌入模型高效估计大语言模型(LLM)知识全景

• LLM虽拥有跨领域知识,但直接探测成本高、效率低,PEEK提出用预训练句子嵌入模型作为代理,通过线性层微调预测LLM对事实的掌握情况,避免频繁调用庞大模型。

• 覆盖四种知识探测方式:二元事实生成(yes/no)、二元logits预测、隐藏层激活预测、长文本事实生成,全面映射LLM知识空间。

• 33个维基百科衍生数据集、7种嵌入模型、4款主流LLM实测,嵌入模型准确率最高达90%,句子嵌入优于图神经网络嵌入,揭示LLM知识编码偏向文本语义而非图路径结构。

• 线性调优与LoRA微调效果相近,证明事实知识隐含于嵌入空间,简单线性映射即可捕捉,极大提升知识探测效率和可扩展性。

• PEEK可用于LLM部署前知识缺口识别、辅助检索增强生成过滤已知事实、辅助幻觉检测与模型编辑,降低模型风险与维护成本。

• 未来可探索动态适应的嵌入代理、专用领域嵌入训练及更复杂推理任务估计,推动LLM知识理解和安全应用边界。

详细研读👉 arxiv.org/abs/2508.06030

代码与数据👉 github.com/claws-lab/peek

大语言模型知识探测预训练嵌入机器学习人工智能

0 阅读:0
爱生活爱珂珂

爱生活爱珂珂

感谢大家的关注