Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jorge Bravo Abad
Prof. de Física @UAM_Madrid | Professor. Pesquisador Principal do Laboratório de IA para Materiais | Diretor do Laboratório de IA para Materiais.
Química autônoma de molécula única: quando o aprendizado por reforço profundo rompe ligações uma a uma
Quebrar uma ligação química específica em uma única molécula — enquanto deixa suas vizinhas intactas — é uma das coisas mais difíceis que você pode fazer em química. Uma ponta STM pode fazer isso injetando elétrons em tunelamento em um local preciso, mas esses experimentos exigem um especialista que ajuste manualmente a posição da ponta, a tensão de polarização e a corrente a cada tentativa. Muito pouco e nada acontece; Muito e você destrói a molécula.
Zhiwen Zhu e seus coautores agora demonstram uma plataforma totalmente autônoma que realiza reações seletivas de vínculos em múltiplas etapas sem intervenção humana. Seu sistema é uma porfirina tetrabrominada (TPP-Br₄) em Au(111) — quatro ligações equivalentes C–Br ao redor de um núcleo de porfirina, dissociadas sequencialmente ao longo de vias pré-definidas (orto, para, orção*, orto-Z) através de diferentes intermediários.
O oleoduto possui três estágios. A detecção de pontos-chave YOLOv7 e a segmentação U-Net localizam moléculas e determinam a orientação. Um classificador ResNet-18 lê patches ao redor de cada sítio bromo para codificar o estado molecular como um vetor binário de 4 bits. Depois, um agente Soft Actor-Critic RL decide a posição da ponta, voltagem e corrente. O agente interage diretamente com o STM via TCP, manipula, reescaneia e recebe recompensas em níveis — positivas para a clivagem correta da ligação única, negativas para nenhuma reação, ativação no local errado ou degradação.
Para lidar com a escassez de dados — apenas 948 eventos em 36 horas — eles exploram a simetria D₄h da molécula por meio da repetição da experiência por transformação invariante, gerando trajetórias virtuais equivalentes sem experimentos adicionais.
O agente descobre a física real. O viés ótimo aumenta a cada etapa de desbromação (~2,5 V para a primeira ligação, ~3,2 V para a última), refletindo a estrutura eletrônica em evolução dos intermediários radicais. Ele posiciona a ponta acima das ligações alvo, consistente com o decaimento espacial da excitação de elétrons em tunelamento, e se adapta às mudanças de condição da ponta em tempo real. As taxas de sucesso em etapas únicas chegam a 50–79%, com a conclusão completa das quatro etapas entre 29 e 35% — totalmente sem orientação humana.
Do ponto de vista de ML, o algoritmo navega por restrições extremas: regiões de sucesso minúsculas, recompensas escassas e ruidosas, ambientes não estacionários e modos de falha irreversíveis. A regularização de entropia do SAC proporciona equilíbrio de exploração, enquanto a repetição aumentada por simetria previne o colapso de políticas.
Isso aponta para agentes de IA que conduzem experimentos ativamente, aprendendo protocolos ideais a partir da interação direta com sistemas físicos.
Papel:

3
Computação fotônica neuromórfica encontra memória analógica: eliminando o gargalo de conversão de dados
A maior parte do hardware de IA roda em chips eletrônicos onde os cálculos são realizados movendo elétrons através de transistores. Mas há uma alternativa crescente: realizar operações de redes neurais usando luz. Em processadores fotônicos, multiplicações matriciais são executadas codificando dados como sinais ópticos e passando-os por arrays de ressonadores microring sintonizáveis, cada um atuando como um peso sináptico. A física da luz permite paralelismo massivo e propagação de latência ultrabaixa, prometendo velocidades e eficiências energéticas que a eletrônica sozinha não consegue igualar.
No entanto, há um gargalo surpreendentemente mundano: todo peso sináptico precisa de um conversor digital-analógico (DAC) dedicado para alimentar continuamente o modulador que o codifica. Para uma matriz de pesos de tamanho n×n, isso significa n² DACs rodando sem parar — não para calcular, mas apenas para manter tensões no lugar. O custo energético de transportar dados entre a memória digital e a computação analógica corre o risco de anular as próprias vantagens que tornam a fotônica atraente.
Sean Lam e coautores demonstram uma solução elegante: colocar um pequeno capacitor diretamente em cada modulador óptico. Uma vez carregado, ele segura o peso sem precisar de um DAC para se manter ativo. Os DACs são então compartilhados ao longo das colunas e ativados apenas quando os pesos precisam ser atualizados — escalando como n em vez de n². O conceito, chamado memória analógica eletro-óptica dinâmica (DEOAM), é fabricado em um chip fotônico monolítico de silício em um processo padrão de fundição de 90 nm, alcançando mais de 26× economia de energia em comparação com projetos convencionais.
Os números experimentais enquadram claramente os trade-offs. O tempo de gravação é ~40–50 ns, o tempo de retenção ~0,83 ms, a energia por gravação ~56 pJ, e a precisão dos bits em torno de 5,6 bits. A retenção depende da potência óptica incidente — mais luz significa mais vazamento — criando uma tensão direta entre a qualidade do sinal e a vida útil da memória.
Para entender o que essas especificações significam para cargas de trabalho reais, os autores emulam uma rede neural de três camadas no MNIST. Uma relação retenção-latência de rede de apenas 100 é suficiente para manter a precisão da inferência acima de 90%. Redes treinadas com o vazamento incluído tornam-se substancialmente mais robustas — um exemplo vívido de treinamento consciente de hardware que vale a pena.
O mesmo princípio que impulsiona a computação eletrônica em memória — que mover dados custa mais energia do que processar com eles — se aplica aqui em um domínio híbrido eletro-óptico. A maioria dos processadores fotônicos hoje só consegue fazer inferência com pesos treinados offline em GPUs. O DEOAM abre um caminho para treinamento on-chip, online, onde a rede se adapta continuamente a novos dados e drift de hardware.
Papel:

3
Modelando todos os 28.000 genes ao mesmo tempo: um modelo fundamental para transcriptômica de célula única
Cada célula do seu corpo carrega o mesmo genoma, mas um neurônio não se parece nem se comporta como uma célula hepática. A diferença está em quais genes são ativados ou desativados — e em que nível. O sequenciamento de RNA de célula única (scRNA-seq) nos permite medir esse perfil de expressão uma célula de cada vez, revelando populações celulares raras, regulação gênica e resposta a medicamentos com resolução sem precedentes.
Modelos Foundation pré-treinados em milhões de células tornaram-se ferramentas poderosas para analisar esses dados. Mas todos compartilham um compromisso prático: restringir seu mecanismo de atenção a ~2.000 genes altamente expressos e descartar os ~26.000 restantes. Muitos desses genes excluídos, apesar de baixa expressão, atuam como interruptores regulatórios, ajustadores finos das vias de sinalização e impulsionadores de respostas específicas do contexto, como ativação imune ou resistência a medicamentos. Ignorá-los significa aprender uma imagem incompleta da célula.
Ding Bai e coautores abordam isso com o scLong, um modelo de bilhões de parâmetros pré-treinado em 48 milhões de células que realiza autoatenção em todos os 27.874 genes humanos. Para tornar isso viável, eles usam um codificador duplo: um grande Performer (42 camadas) processa os 4.096 genes de alta expressão superiores, enquanto um menor (2 camadas) cuida dos ~24.000 restantes. Ambas as saídas se fundem por meio de um codificador de comprimento completo que captura interações entre grupos. O scLong também integra o conhecimento da Ontologia Gênica por meio de uma rede convolucional de grafos, incorporando cada gene com informações sobre suas funções conhecidas, processos e localização celular — contexto que os dados de expressão sozinhos não podem fornecer.
Os resultados são consistentes e amplos. Ao prever respostas transcricionais a perturbações genéticas, o scLong alcança uma correlação de Pearson de 0,63 em perturbações não vistas, em comparação com 0,56–0,58 para modelos e GEARS existentes. Ele supera Geneformer, scGPT e DeepCE na previsão de perturbações químicas em todas as métricas, atinge 0,873 Pearson para resposta a medicamentos contra o câncer e supera tanto o Geneformer quanto o DeepSEM na inferência de redes reguladoras de genes.
O ponto mais amplo: em modelos de base biológica, o que você escolhe para atender molda o que pode aprender. Ao incluir genes de baixa expressão e representações de fundamento no conhecimento funcional, o scLong mostra que escalar o contexto — não apenas os parâmetros — é fundamental para capturar toda a complexidade da regulação celular. Um princípio relevante onde dependências de características de longo alcance são biologicamente significativas, mas computacionalmente caras para modelar.
Papel:

4
Melhores
Classificação
Favoritos
