Desbloqueando modelos de fundación de células individuales con un 96% menos de parámetros Los modelos de lenguaje de gran tamaño de células individuales (scLLMs) han aprendido un conocimiento biológico notable a partir de millones de células. Pero tienen una debilidad crítica: sacarlos de su contexto de entrenamiento—una nueva enfermedad, una especie no vista, una población celular no caracterizada—y sus predicciones se vuelven poco fiables. La solución estándar es el ajuste fino. Pero el ajuste fino sobrescribe los parámetros originales del modelo, causando un "olvido catastrófico" del conocimiento biológico previamente aprendido. Y es computacionalmente costoso, requiriendo recursos de GPU sustanciales que muchos investigadores simplemente no tienen. Fei He y coautores proponen scPEFT—un marco de ajuste fino eficiente en parámetros que congela la columna vertebral original del scLLM y entrena solo pequeños adaptadores de baja dimensión. Cuatro tipos de adaptadores (adaptador de token, adaptador de prefijo, LoRA, adaptador de codificador) se insertan en diferentes partes de la arquitectura del modelo, aprendiendo ajustes específicos de la tarea sin tocar los pesos preentrenados. Las ganancias de eficiencia son sorprendentes: scPEFT reduce los parámetros entrenables en más del 96% y corta el uso de memoria de GPU en más de la mitad. Pero aquí está lo que importa—realmente rinde mejor que el ajuste fino completo. En conjuntos de datos específicos de enfermedades (NSCLC, EM, COVID-19), scPEFT logra mejoras de precisión del 39.7–81.7% sobre los modelos nativos y del 4.3–15% sobre las versiones ajustadas, precisamente porque preserva en lugar de sobrescribir el conocimiento preentrenado. El marco también permite la transferencia entre especies de modelos entrenados en humanos: 14% de mejora en neuronas de ratón, 39% en células germinales de macaco, y 144% en C. elegans—todo utilizando mapeos de genes ortólogos. El análisis de atención identifica genes relacionados con COVID en estados específicos de células T y descubre subpoblaciones biológicamente relevantes invisibles para los modelos ajustados. La implicación más amplia: a medida que los modelos de fundación proliferan en biología, necesitamos formas eficientes de adaptarlos sin destruir lo que han aprendido. scPEFT muestra que a veces, actualizar menos significa aprender más. Artículo: