Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
La computación fotónica neuromórfica se encuentra con la memoria analógica: eliminando el cuello de botella de conversión de datos
La mayoría del hardware de IA funciona con chips electrónicos donde los cálculos se realizan moviendo electrones a través de transistores. Pero hay una alternativa creciente: realizar operaciones de redes neuronales utilizando luz. En los procesadores fotónicos, las multiplicaciones de matrices se ejecutan codificando datos como señales ópticas y pasándolas a través de arreglos de resonadores de micror anillos ajustables, cada uno actuando como un peso sináptico. La física de la luz permite un paralelismo masivo y una propagación de ultrabaja latencia, prometiendo velocidades y eficiencias energéticas que la electrónica por sí sola no puede igualar.
Sin embargo, hay un sorprendente cuello de botella mundano: cada peso sináptico necesita un convertidor digital-analógico (DAC) dedicado para impulsar continuamente el modulador que lo codifica. Para una matriz de pesos de tamaño n×n, eso son n² DACs funcionando sin parar—no para calcular, sino solo para mantener voltajes en su lugar. El costo energético de mover datos entre la memoria digital y el cálculo analógico arriesga anular las ventajas mismas que hacen atractiva la fotónica.
Sean Lam y coautores demuestran una solución elegante: colocar un pequeño condensador directamente en cada modulador óptico. Una vez cargado, mantiene el peso sin necesidad de un DAC para permanecer activo. Los DACs se comparten a lo largo de las columnas y se activan solo cuando los pesos necesitan ser actualizados—escalando como n en lugar de n². El concepto, llamado memoria analógica electro-óptica dinámica (DEOAM), se fabrica en un chip fotónico de silicio monolítico en un proceso de fundición estándar de 90 nm, logrando más de 26× de ahorro energético en comparación con diseños convencionales.
Los números experimentales enmarcan claramente los compromisos. El tiempo de escritura es de ~40–50 ns, el tiempo de retención ~0.83 ms, la energía por escritura ~56 pJ, y la precisión de bits alrededor de 5.6 bits. La retención depende de la potencia óptica incidente—más luz significa más fuga—creando una tensión directa entre la calidad de la señal y la vida útil de la memoria.
Para entender lo que estas especificaciones significan para cargas de trabajo reales, los autores emulan una red neuronal de tres capas en MNIST. Una relación de retención a latencia de red de solo 100 es suficiente para mantener la precisión de inferencia por encima del 90%. Las redes entrenadas con la fuga incluida se vuelven sustancialmente más robustas—un vívido ejemplo de cómo el entrenamiento consciente del hardware da sus frutos.
El mismo principio que impulsa la computación en memoria electrónica—que mover datos cuesta más energía que calcular con ellos—se aplica aquí en un dominio electro-óptico híbrido. La mayoría de los procesadores fotónicos hoy en día solo pueden hacer inferencias con pesos entrenados fuera de línea en GPUs. DEOAM abre un camino hacia el entrenamiento en línea en chip, donde la red se adapta continuamente a nuevos datos y al desvío del hardware.
Artículo:

Parte superior
Clasificación
Favoritos
