Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jorge Bravo Abad
Prof. de Física @UAM_Madrid | Professora. PI do AI for Materials Lab | Diretor do AI for Materials Lab.
Dobrando o espaço para corresponder à energia: como a geometria faz a previsão da estrutura molecular alcançar precisão química
Prever a estrutura 3D de uma molécula—onde exatamente cada átomo se encontra no espaço—é fundamental para a química computacional. Se errar um pouco, seus cálculos de energia podem estar muito errados. O padrão ouro é a teoria do funcional de densidade, mas a DFT é lenta e cara. O aprendizado de máquina oferece um caminho mais rápido: treinar um modelo para eliminar o ruído de uma suposição inicial grosseira em uma estrutura precisa.
O problema é que a maioria dos modelos de eliminação de ruído opera no espaço euclidiano comum, onde todas as direções são tratadas igualmente. Mas as moléculas não funcionam assim. Esticar uma ligação custa muito mais energia do que girar em torno dela. Distâncias iguais em coordenadas cartesianas não significam mudanças de energia iguais.
Jeheon Woo e coautores abordam essa discrepância diretamente. Eles constroem uma variedade riemanniana—um espaço curvado com uma métrica dependente da posição—projetada para que a distância geodésica correlacione com a diferença de energia. A métrica é construída a partir de coordenadas internas informadas pela física que ponderam as distâncias interatômicas de acordo com o quanto custa mudar: ligações rígidas contam mais do que torções suaves. Quando comparam a distância geodésica com o RMSD padrão, a correlação com a energia salta de 0,37 para 0,90.
Treinar um modelo de eliminação de ruído neste espaço curvado muda o que o modelo aprende. No espaço euclidiano, adicionar ruído isotrópico pode quebrar ligações ou criar geometrias impossíveis—estruturas centenas de kcal/mol acima do mínimo. Na variedade riemanniana, a mesma magnitude de ruído mantém as moléculas quimicamente sensatas, permanecendo dentro do mesmo poço potencial. O caminho de eliminação de ruído em si segue geodésicas que rastreiam a minimização de energia, não linhas retas arbitrárias através do espaço cartesiano.
Os resultados atingem o limiar que importa: precisão química, definida como erro de energia abaixo de 1 kcal/mol. No benchmark QM9, o modelo riemanniano alcança um erro mediano de 0,177 kcal/mol—aproximadamente 20× melhor do que estruturas iniciais de campo de força e significativamente melhor do que a versão euclidiana. Quando essas previsões são usadas como pontos de partida para o refinamento da DFT, o custo computacional cai em mais da metade.
O ponto mais profundo: na modelagem molecular, a geometria do espaço de representação não é neutra. O espaço euclidiano trata todos os deslocamentos atômicos como equivalentes; o espaço riemanniano pode codificar a física. Quando você alinha a distância geométrica com o custo energético, a eliminação de ruído se torna otimização, e o modelo aprende a seguir a superfície de energia potencial em vez de lutar contra ela.
Artigo:

159
Desbloqueando modelos de fundação de célula única com 96% menos parâmetros
Modelos de linguagem de célula única (scLLMs) aprenderam um conhecimento biológico notável a partir de milhões de células. Mas eles têm uma fraqueza crítica: tirá-los do seu contexto de treinamento—uma nova doença, uma espécie não vista, uma população celular não caracterizada—e as suas previsões tornam-se pouco confiáveis.
A solução padrão é o fine-tuning. Mas o fine-tuning sobrescreve os parâmetros originais do modelo, causando "esquecimento catastrófico" do conhecimento biológico pré-aprendido. E é computacionalmente caro, exigindo recursos substanciais de GPU que muitos pesquisadores simplesmente não têm.
Fei He e coautores propõem o scPEFT—uma estrutura de fine-tuning eficiente em parâmetros que congela a espinha dorsal original do scLLM e treina apenas pequenos adaptadores de baixa dimensão. Quatro tipos de adaptadores (Adaptador de Token, Adaptador de Prefixo, LoRA, Adaptador de Codificador) se encaixam em diferentes partes da arquitetura do modelo, aprendendo ajustes específicos da tarefa sem tocar nos pesos pré-treinados.
Os ganhos de eficiência são impressionantes: o scPEFT reduz os parâmetros treináveis em mais de 96% e corta o uso de memória da GPU em mais da metade. Mas aqui está o que importa—ele realmente apresenta um desempenho melhor do que o fine-tuning completo. Em conjuntos de dados específicos de doenças (NSCLC, MS, COVID-19), o scPEFT alcança melhorias de precisão de 39,7–81,7% em relação aos modelos nativos e ganhos de 4,3–15% em relação às versões ajustadas, precisamente porque preserva em vez de sobrescrever o conhecimento pré-treinado.
A estrutura também permite a transferência entre espécies a partir de modelos treinados em humanos: 14% de melhoria em neurônios de camundongo, 39% em células germinativas de macacos e 144% em C. elegans—tudo usando mapeamentos de genes ortólogos. A análise de atenção identifica genes relacionados ao COVID em estados específicos de células T e revela subpopulações biologicamente relevantes invisíveis para modelos ajustados.
A implicação mais ampla: à medida que modelos de fundação proliferam na biologia, precisamos de maneiras eficientes de adaptá-los sem destruir o que aprenderam. O scPEFT mostra que, às vezes, atualizar menos significa aprender mais.
Artigo:

195
Arquiteturas inspiradas na neurociência para construir IA verdadeiramente adaptativa
Os sistemas de IA modernos são poderosos, mas frágeis. Treine um modelo, implemente-o e observe o desempenho degradar à medida que o mundo muda. Re-treine com novos dados e o modelo esquece o que sabia. Esse ciclo produz sistemas que se destacam em benchmarks estáticos, mas lutam com a adaptação contínua—algo que a inteligência biológica lida com facilidade.
Um rato pode aprender em poucas tentativas a encontrar água em um labirinto novo em cerca de dez tentativas, uma taxa de aprendizado 1.000 vezes mais rápida do que as tarefas tradicionais de laboratório. No entanto, nossas redes neurais mais sofisticadas sofrem de esquecimento catastrófico quando solicitadas a aprender sequencialmente.
O cérebro oferece uma arquitetura diferente. Ele opera não como uma única rede emaranhada, mas como módulos especializados interconectados de forma inteligente—o córtex visual processando bordas, o córtex motor computando no espaço de força, regiões pré-frontais rastreando memória estruturada por tarefas. Cada módulo constrói modelos internos atualizados através de erros de previsão quando os resultados esperados divergem da realidade. Esses sinais de ensino assinados foram agora descobertos em circuitos sensoriais, motores e de recompensa.
Mackenzie Weygandt Mathis sintetiza essas percepções em uma proposta para IA agente adaptativa. Em vez de buscar modelos de fundação monolíticos cada vez maiores, ela argumenta a favor de sistemas de codificadores específicos de domínio cujas saídas são otimizadas em um espaço latente compartilhado. Cada codificador é monitorado por sinais de erro de previsão—codificadores robustos permanecem "trancados" enquanto aqueles que mostram desempenho degradado são "destrancados" para aprendizado contínuo usando replay de memória ou inteligência sináptica, sem tirar todo o sistema do ar.
O princípio mais amplo: ao estruturar a IA em torno da modularidade inspirada na neurociência e da atualização baseada em erro de previsão, em vez de uma escala monolítica, torna-se possível ir além de modelos estáticos em direção a uma inteligência genuinamente adaptativa—sistemas que refinam continuamente seus modelos do mundo através da interação com ele.
Artigo:

178
Top
Classificação
Favoritos
