Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Neuromorf fotonisk beräkning möter analogt minne: eliminerar flaskhalsen i datakonvertering
De flesta AI-hårdvaror körs på elektroniska chip där beräkningar utförs genom att flytta elektroner genom transistorer. Men det finns ett växande alternativ: att utföra neurala nätverksoperationer med hjälp av ljus. I fotoniska processorer utförs matrismultiplikationer genom att koda data som optiska signaler och skicka dem genom arrayer av justerbara mikroringresonatorer, där varje enhet fungerar som en synaptisk vikt. Ljusets fysik möjliggör massiv parallellism och ultralåg latenspropagering, vilket lovar hastigheter och energieffektivitet som elektronik ensam inte kan matcha.
Men det finns en förvånansvärt vardaglig flaskhals: varje synaptisk vikt behöver en dedikerad digital-till-analog-omvandlare (DAC) för att kontinuerligt driva modulatorn som kodar den. För en viktmatris av storlek n×n är det n² DAC:er som körs nonstop – inte för att beräkna, utan bara för att hålla spänningarna på plats. Energikostnaden för att överföra data mellan digitalt minne och analog beräkning riskerar att motverka de fördelar som gör fotonik attraktiv.
Sean Lam och medförfattarna demonstrerar en elegant lösning: placera en liten kondensator direkt på varje optisk modulator. När den är laddad håller den vikten utan att behöva en DAC för att hålla sig aktiv. DACs delas sedan längs kolumner och aktiveras endast när vikter behöver uppdateras—skalning som n istället för n². Konceptet, kallat dynamiskt elektro-optiskt analogt minne (DEOAM), tillverkas på ett monolitiskt kiselfotoniskt chip i en standard 90 nm gjuteri och uppnår över 26× energibesparing jämfört med konventionella konstruktioner.
De experimentella siffrorna ramar in avvägningarna tydligt. Skrivtiden är ~40–50 ns, retentionstiden ~0,83 ms, energi per skriv ~56 pJ och bitprecisionen cirka 5,6 bitar. Retention beror på infallande optisk effekt—mer ljus innebär mer läckage—vilket skapar en direkt spänning mellan signalkvalitet och minneslivslängd.
För att förstå vad dessa specifikationer betyder för verkliga arbetsbelastningar emulerar författarna ett trelagers neuralt nätverk på MNIST. Ett förhållande mellan retention och nätverkslatens på endast 100 räcker för att hålla inferensnoggrannheten över 90%. Nätverk som tränas med läckan inkluderade blir betydligt mer robusta – ett tydligt exempel på hårdvarumedveten träning som lönar sig.
Samma princip som driver elektronisk minnesberäkning – att flytta data kostar mer energi än att beräkna med den – gäller här i en hybrid elektro-optisk domän. De flesta fotoniska processorer idag kan bara göra inferenser med vikter som är tränade offline på GPU:er. DEOAM öppnar en väg mot on-chip, online-träning där nätverket kontinuerligt anpassar sig till ny data och hårdvarudrift.
Papper:

Topp
Rankning
Favoriter
