Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
La computación fotónica neuromórfica se encuentra con la memoria analógica: eliminando el cuello de botella de conversión de datos
La mayoría del hardware de IA funciona en chips electrónicos donde los cálculos se realizan moviendo electrones a través de transistores. Pero hay una alternativa en crecimiento: realizar operaciones de redes neuronales usando luz. En procesadores fotónicos, las multiplicaciones matriciales se ejecutan codificando datos como señales ópticas y pasándolos a través de matrices de resonadores microring sintonizables, cada uno actuando como un peso sináptico. La física de la luz permite un paralelismo masivo y una propagación de latencia ultrabaja, prometiendo velocidades y eficiencias energéticas que la electrónica por sí sola no puede igualar.
Sin embargo, hay un cuello de botella sorprendentemente mundano: cada peso sináptico necesita un convertidor digital a analógico (DAC) dedicado para alimentar continuamente el modulador que lo codifica. Para una matriz de pesos de tamaño n×n, eso son n² DACs funcionando sin parar—no para calcular, sino solo para mantener los voltajes en su lugar. El coste energético de transportar datos entre la memoria digital y el cálculo analógico corre el riesgo de anular las ventajas que hacen atractiva la fotónica.
Sean Lam y sus coautores demuestran una solución elegante: colocar un pequeño condensador directamente en cada modulador óptico. Una vez cargado, soporta el peso sin necesidad de un DAC para mantenerse activo. Los DAC se comparten a lo largo de columnas y se activan solo cuando los pesos necesitan actualizarse, escalando como n en lugar de n². El concepto, llamado memoria analógica electro-óptica dinámica (DEOAM), se fabrica sobre un chip fotónico monolítico de silicio en un proceso estándar de fundición de 90 nm, logrando un ahorro energético superior al 26× en comparación con los diseños convencionales.
Los números experimentales enmarcan claramente los compromisos. El tiempo de escritura es de ~40–50 ns, el tiempo de retención de ~0,83 ms, la energía por escritura de ~56 pJ, y la precisión de bits alrededor de 5,6 bits. La retención depende de la potencia óptica incidente—más luz significa más fugas—creando una tensión directa entre la calidad de la señal y la vida útil de la memoria.
Para entender qué significan estas especificaciones para cargas de trabajo reales, los autores emulan una red neuronal de tres capas en MNIST. Una relación retención-latencia de la red de solo 100 es suficiente para mantener la precisión de la inferencia por encima del 90%. Las redes entrenadas con la fuga incluidas se vuelven considerablemente más robustas, un ejemplo vívido de cómo el entrenamiento consciente del hardware da sus frutos.
El mismo principio que impulsa la computación electrónica en memoria —que mover datos cuesta más energía que calcular con ellos— se aplica aquí en un dominio híbrido electro-óptico. La mayoría de los procesadores fotónicos hoy en día solo pueden hacer inferencia con pesos entrenados offline en GPUs. DEOAM abre un camino hacia la formación online en chip, donde la red se adapta continuamente a nuevos datos y deriva de hardware.
Papel:

Populares
Ranking
Favoritas
