这项研究介绍了一种名为 scPEFT 的创新框架,旨在通过参数高效微调技术优化单细胞大语言模型(scLLMs)。传统的全参数微调在处理跨物种分析或新疾病数据等新场景时,往往面临计算成本高昂以及灾难性遗忘原始知识的风险。scPEFT 通过引入LoRA、令牌适配器和前缀适配器等轻量级模块,在保持预训练参数冻结的状态下实现快速任务迁移。实验结果证明,该方法在细胞类型识别、基因扰动预测和批次效应矫正等多种任务中展现出卓越的性能。相比于传统方法,它不仅显著提升了模型在零样本学习环境下的泛化能力,还为研究者提供了一种更低硬件门槛的科研工具。此外,scPEFT 在揭示疾病相关的细胞状态和跨物种同源基因映射方面也表现出极强的生物学解释力。
References:
- He F, Fei R, Krull J E, et al. Harnessing the power of single-cell large language models with parameter-efficient fine-tuning using scPEFT[J]. Nature Machine Intelligence, 2025: 1-16.
Fler avsnitt av 聊聊Sci
Visa alla avsnitt av 聊聊Sci聊聊Sci med 淼淼Elva finns tillgänglig på flera plattformar. Informationen på denna sida kommer från offentliga podd-flöden.
