Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jorge Bravo Abad
Professor i fysikk @UAM_Madrid | Professor. PI for AI for Materials Lab | Direktør for AI for Materials Lab.
Undervisning i AI til å planlegge kjemisk syntese med 27,5 millioner datagenererte reaksjoner
KI-modeller som planlegger hvordan man syntetiserer et målmolekyl – retrosyntese – lærer nesten utelukkende fra reaksjoner hentet fra amerikanske patentsøknader. Problemet er at dette datasettet er sterkt skjevt: et fåtall vanlige reaksjonstyper (amidkoblinger, Suzuki-reaksjoner) dominerer, mens tusenvis av sjeldnere, men like viktige transformasjoner bare har noen få eksempler hver. Modeller trent på disse ubalanserte dataene blir uunngåelig spesialister på populærkjemi og sliter med mindre vanlige reaksjoner.
Yves Grandjean, David Kreutter og Jean-Louis Reymond tar tak i dette med en kreativ strategi: bruk AI selv til å generere millioner av balanserte, validerte treningsreaksjoner. Deres tilnærming bygger på Triple Transformer Loop (TTL), en arkitektur der tre transformatormodeller arbeider i rekkefølge. T1 foreslår hvordan man kan dele opp et målmolekyl i enklere startmaterialer, T2 forutsier hvilke reagenser og betingelser som trengs, og T3 validerer hele forslaget ved å forutsi produktet ut fra de foreslåtte innsatsfaktorene, og aksepterer kun forutsigelser med høy konfidensial (over 95 %).
For dataforsterkning erstatter forfatterne T1 med kjente reaksjonsmaler—abstraherte regler som koder spesifikke kjemiske transformasjoner. De anvender systematisk 14 024 maler på 1,5 millioner patentmolekyler, og genererer kandidatreaksjoner som T2 og en modifisert validator T3* deretter fullfører og verifiserer. Resultatet: 27,5 millioner validerte syntetiske reaksjoner som dekket 99,5 % av de opprinnelige malene, med opptil 5 000 eksemplarer per reaksjonstype. Avgjørende er det at over 98 % av disse reaksjonene er nye sammenlignet med de opprinnelige patentdataene, men de befinner seg i samme kjemiske rom.
For å teste om balanserte data faktisk hjelper, trente forfatterne retrosyntesemodeller på et kuratert delsett på ~1,1 millioner genererte reaksjoner (begrenset til 100 per mal) og sammenlignet dem med modeller trent på det opprinnelige patentdatasettet av lignende størrelse. Modellen trent på balanserte data oppnådde 83,4 % malgjennomsnittlig nøyaktighet mot 78,2 % for den patenttrente modellen – en betydelig gevinst nettopp der det gjelder: på tvers av hele variasjonen av reaksjonstyper i stedet for bare de populære.
Den bredere lærdommen går utover kjemi. I ethvert vitenskapelig område hvor treningsdata følger en potenslovfordeling, er de sjeldne tilfellene ofte de mest interessante. Å bruke KI til å generere balanserte treningsdata—validert av modellene selv—gir en prinsippiell vei til å overvinne datasett-bias uten å vente på at mer eksperimentelle data skal akkumulere.
Artikkel:

2
Autonom enkeltmolekylkjemi: når dyp forsterkningslæring bryter bindinger én om gangen
Å bryte en spesifikk kjemisk binding i ett enkelt molekyl – samtidig som naboene forblir urørt – er en av de vanskeligste tingene du kan gjøre i kjemi. En STM-spiss kan gjøre dette ved å injisere tunnelingselektroner på et nøyaktig sted, men disse eksperimentene krever en ekspert som manuelt justerer tuppens posisjon, biasspenning og strøm for hvert forsøk. For lite, og ingenting skjer; For mye og du ødelegger molekylet.
Zhiwen Zhu og medforfatterne demonstrerer nå en fullstendig autonom plattform som utfører flertrinns, båndselektive reaksjoner uten menneskelig inngripen. Deres system er et tetrabromert porfyrin (TPP-Br₄) på Au(111)—fire ekvivalente C–Br-bindinger rundt en porfyrinkjerne, dissosiert sekvensielt langs forhåndsdefinerte baner (ortho, para, ortho*, ortho-Z) gjennom ulike mellomprodukter.
Rørledningen har tre trinn. YOLOv7 nøkkelpunktdeteksjon og U-Net-segmentering lokaliserer molekyler og bestemmer orienteringen. En ResNet-18-klassifisator leser patcher rundt hvert bromsted for å kode molekylær tilstand som en 4-bits binær vektor. Deretter bestemmer en Soft Actor-Critic RL-agent spissplassering, spenning og strøm. Agenten interagerer direkte med STM via TCP, manipulerer, skanner på nytt og mottar lagdelte belønninger—positiv for korrekt enkeltbindingsspalting, negativ for ingen reaksjon, aktivering på feil sted eller degradering.
For å håndtere dataknapphet—bare 948 hendelser over 36 timer—utnytter de molekylets D₄h-symmetri gjennom invariant-transform opplevelsesgjenspilling, og genererer tilsvarende virtuelle baner uten ytterligere eksperimenter.
Agenten oppdager ekte fysikk. Optimal bias øker med hvert debrominasjonssteg (~2,5 V for den første bindingen, ~3,2 V for den siste), noe som reflekterer den utviklende elektroniske strukturen til radikalintermediater. Den plasserer spissen over målbindingene, i samsvar med romlig henfall av tunnel-elektron-eksitasjon, og tilpasser seg endringer i tuppens tilstand i sanntid. Suksessraten for enkeltsteg når 50–79 %, med full firetrinnsfullføring på 29–35 % – helt uten menneskelig veiledning.
Fra et ML-perspektiv navigerer algoritmen ekstreme begrensninger: små suksessområder, sparsomme støyende belønninger, ikke-stasjonære miljøer og irreversible feilmoduser. SACs entropiregularisering gir balanse i utforskning, mens symmetriforsterket gjenspilling forhindrer policy-kollaps.
Dette peker mot AI-agenter som aktivt utfører eksperimenter, og lærer optimale protokoller gjennom direkte interaksjon med fysiske systemer.
Artikkel:

40
Nevromorf fotonisk databehandling møter analogt minne: eliminering av flaskehalsen i datakonvertering
De fleste AI-maskinvare kjører på elektroniske brikker hvor beregninger utføres ved å flytte elektroner gjennom transistorer. Men det finnes et økende alternativ: å utføre nevrale nettverksoperasjoner med lys. I fotoniske prosessorer utføres matrisemultiplikasjoner ved å kode data som optiske signaler og sende dem gjennom arrays av justerbare mikroringresonatorer, hver som fungerer som en synaptisk vekt. Fysikken bak lys muliggjør massiv parallellisme og ultralav-latens utbredelse, og lover hastigheter og energieffektivitet som elektronikk alene ikke kan matche.
Likevel er det en overraskende hverdagslig flaskehals: hver synaptisk vekt trenger en dedikert digital-til-analog omformer (DAC) for kontinuerlig å drive modulatoren som koder den. For en vektmatrise av størrelse n×n, er det n² DAC-er som kjører nonstop – ikke for å beregne, men bare for å holde spenningene på plass. Energikostnaden ved å overføre data mellom digitalt minne og analog databehandling risikerer å oppheve nettopp de fordelene som gjør fotonikk attraktivt.
Sean Lam og medforfatterne demonstrerer en elegant løsning: plasser en liten kondensator direkte på hver optisk modulator. Når den er ladet, holder den vekten uten å trenge DAC for å holde seg aktiv. DAC-er deles deretter langs kolonner og aktiveres kun når vekter må oppdateres—skalerer som n i stedet for n². Konseptet, kalt dynamisk elektro-optisk analogminne (DEOAM), produseres på en monolittisk silisiumfotonisk brikke i en standard 90 nm støperiprosess, og oppnår over 26× strømbesparelser sammenlignet med konvensjonelle design.
De eksperimentelle tallene rammer inn avveiningene tydelig. Skrivetid er ~40–50 ns, retensjonstid ~0,83 ms, energi per skriving ~56 pJ, og bitpresisjon rundt 5,6 biter. Retensjon avhenger av innkommende optisk effekt—mer lys betyr mer lekkasje—noe som skaper en direkte spenning mellom signalkvalitet og minnelevetid.
For å forstå hva disse spesifikasjonene betyr for reelle arbeidsbelastninger, emulerer forfatterne et tre-lags nevralt nettverk på MNIST. Et forhold mellom retensjon og nettverkslatens på bare 100 er tilstrekkelig for å holde slutningsnøyaktigheten over 90 %. Nettverk som trenes med lekkasjen inkludert, blir betydelig mer robuste – et levende eksempel på maskinvarebevisst trening som lønner seg.
Det samme prinsippet som driver elektronisk databehandling i minnet—at det koster mer energi å flytte data enn å regne med det—gjelder her i et hybrid elektro-optisk domene. De fleste fotoniske prosessorer i dag kan bare gjøre slutninger med vekter som er trent offline på GPU-er. DEOAM åpner en vei mot on-chip, nettbasert trening hvor nettverket kontinuerlig tilpasser seg nye data og maskinvaredrift.
Artikkel:

44
Topp
Rangering
Favoritter
