Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jorge Bravo Abad
Prof. of Physics @UAM_Madrid | Profesor Titular. PI of the AI for Materials Lab | Director del Laboratorio de IA para Materiales.
Doblado del espacio para igualar la energía: cómo la geometría logra que la predicción de la estructura molecular alcance la precisión química
Predecir la estructura 3D de una molécula—dónde se sitúa exactamente cada átomo en el espacio—es fundamental para la química computacional. Si te equivocas un poco, tus cálculos de energía pueden estar muy desviados. El estándar de oro es la teoría del funcional de densidad, pero la DFT es lenta y costosa. El aprendizaje automático ofrece una ruta más rápida: entrenar un modelo para eliminar el ruido de una conjetura inicial burda y convertirla en una estructura precisa.
El problema es que la mayoría de los modelos de eliminación de ruido operan en el espacio euclidiano ordinario, donde todas las direcciones se tratan por igual. Pero las moléculas no funcionan de esa manera. Estirar un enlace cuesta mucha más energía que rotar alrededor de él. Distancias iguales en coordenadas cartesianas no significan cambios de energía iguales.
Jeheon Woo y sus coautores abordan esta discrepancia directamente. Construyen una variedad riemanniana—un espacio curvado con una métrica dependiente de la posición—diseñada para que la distancia geodésica se correlacione con la diferencia de energía. La métrica se construye a partir de coordenadas internas informadas por la física que ponderan las distancias interatómicas según cuánto cuesta cambiarles: los enlaces rígidos cuentan más que las torsiones suaves. Cuando comparan la distancia geodésica con el RMSD estándar, la correlación con la energía salta de 0.37 a 0.90.
Entrenar un modelo de eliminación de ruido en este espacio curvado cambia lo que el modelo aprende. En el espacio euclidiano, añadir ruido isotrópico puede romper enlaces o crear geometrías imposibles—estructuras cientos de kcal/mol por encima del mínimo. En la variedad riemanniana, la misma magnitud de ruido mantiene a las moléculas químicamente sensatas, permaneciendo dentro del mismo pozo potencial. La trayectoria de eliminación de ruido sigue geodésicas que rastrean la minimización de energía, no líneas rectas arbitrarias a través del espacio cartesiano.
Los resultados alcanzan el umbral que importa: precisión química, definida como un error de energía por debajo de 1 kcal/mol. En el benchmark QM9, el modelo riemanniano logra un error mediano de 0.177 kcal/mol—aproximadamente 20 veces mejor que las estructuras iniciales del campo de fuerzas y significativamente mejor que la versión euclidiana. Cuando estas predicciones se utilizan como puntos de partida para el refinamiento de DFT, el costo computacional se reduce en más de la mitad.
El punto más profundo: en el modelado molecular, la geometría del espacio de representación no es neutral. El espacio euclidiano trata todos los desplazamientos atómicos como equivalentes; el espacio riemanniano puede codificar la física. Cuando alineas la distancia geométrica con el costo energético, la eliminación de ruido se convierte en optimización, y el modelo aprende a seguir la superficie de energía potencial en lugar de luchar contra ella.
Artículo:

177
Desbloqueando modelos de fundación de células individuales con un 96% menos de parámetros
Los modelos de lenguaje de gran tamaño de células individuales (scLLMs) han aprendido un conocimiento biológico notable a partir de millones de células. Pero tienen una debilidad crítica: sacarlos de su contexto de entrenamiento—una nueva enfermedad, una especie no vista, una población celular no caracterizada—y sus predicciones se vuelven poco fiables.
La solución estándar es el ajuste fino. Pero el ajuste fino sobrescribe los parámetros originales del modelo, causando un "olvido catastrófico" del conocimiento biológico previamente aprendido. Y es computacionalmente costoso, requiriendo recursos de GPU sustanciales que muchos investigadores simplemente no tienen.
Fei He y coautores proponen scPEFT—un marco de ajuste fino eficiente en parámetros que congela la columna vertebral original del scLLM y entrena solo pequeños adaptadores de baja dimensión. Cuatro tipos de adaptadores (adaptador de token, adaptador de prefijo, LoRA, adaptador de codificador) se insertan en diferentes partes de la arquitectura del modelo, aprendiendo ajustes específicos de la tarea sin tocar los pesos preentrenados.
Las ganancias de eficiencia son sorprendentes: scPEFT reduce los parámetros entrenables en más del 96% y corta el uso de memoria de GPU en más de la mitad. Pero aquí está lo que importa—realmente rinde mejor que el ajuste fino completo. En conjuntos de datos específicos de enfermedades (NSCLC, EM, COVID-19), scPEFT logra mejoras de precisión del 39.7–81.7% sobre los modelos nativos y del 4.3–15% sobre las versiones ajustadas, precisamente porque preserva en lugar de sobrescribir el conocimiento preentrenado.
El marco también permite la transferencia entre especies de modelos entrenados en humanos: 14% de mejora en neuronas de ratón, 39% en células germinales de macaco, y 144% en C. elegans—todo utilizando mapeos de genes ortólogos. El análisis de atención identifica genes relacionados con COVID en estados específicos de células T y descubre subpoblaciones biológicamente relevantes invisibles para los modelos ajustados.
La implicación más amplia: a medida que los modelos de fundación proliferan en biología, necesitamos formas eficientes de adaptarlos sin destruir lo que han aprendido. scPEFT muestra que a veces, actualizar menos significa aprender más.
Artículo:

202
Arquitecturas inspiradas en la neurociencia para construir IA verdaderamente adaptativa
Los sistemas de IA modernos son potentes pero frágiles. Entrena un modelo, despliega, y observa cómo el rendimiento se degrada a medida que el mundo cambia. Vuelve a entrenar con nuevos datos, y el modelo olvida lo que sabía. Este ciclo produce sistemas que sobresalen en benchmarks estáticos pero luchan con la adaptación continua, algo que la inteligencia biológica maneja sin esfuerzo.
Un ratón puede aprender en pocas tomas a encontrar agua en un laberinto novedoso en aproximadamente diez intentos, una tasa de aprendizaje 1,000 veces más rápida que las tareas tradicionales de laboratorio. Sin embargo, nuestras redes neuronales más sofisticadas sufren un olvido catastrófico cuando se les pide aprender secuencialmente.
El cerebro ofrece una arquitectura diferente. No opera como una única red enredada, sino como módulos especializados interconectados de manera inteligente: la corteza visual procesa bordes, la corteza motora calcula en el espacio de fuerzas, y las regiones prefrontales rastrean la memoria estructurada por tareas. Cada módulo construye modelos internos actualizados a través de errores de predicción cuando los resultados esperados divergen de la realidad. Estas señales de enseñanza firmadas se han descubierto ahora en circuitos sensoriales, motores y de recompensa.
Mackenzie Weygandt Mathis sintetiza estas ideas en una propuesta para una IA agente adaptativa. En lugar de perseguir modelos de base monolíticos cada vez más grandes, argumenta a favor de sistemas de codificadores específicos de dominio cuyos resultados se optimizan conjuntamente en un espacio latente compartido. Cada codificador es monitoreado por señales de error de predicción: los codificadores robustos permanecen "bloqueados" mientras que aquellos que muestran un rendimiento degradado son "desbloqueados" para el aprendizaje continuo utilizando la repetición de memoria o inteligencia sináptica, sin llevar todo el sistema fuera de línea.
El principio más amplio: al estructurar la IA en torno a la modularidad inspirada en la neurociencia y la actualización basada en errores de predicción en lugar de la escala monolítica, se vuelve posible avanzar más allá de los modelos estáticos hacia una inteligencia genuinamente adaptativa: sistemas que refinan continuamente sus modelos del mundo a través de la interacción con él.
Artículo:

185
Parte superior
Clasificación
Favoritos
