El equipo de investigación de Nvidia AI presenta un enfoque basado en el aprendizaje de refuerzo profundo (RL) para crear circuitos más pequeños y más rápidos

Estás leyendo la publicación: El equipo de investigación de Nvidia AI presenta un enfoque basado en el aprendizaje de refuerzo profundo (RL) para crear circuitos más pequeños y más rápidos

Existe una ley conocida como ley de Moore, que establece que la cantidad de transistores en un microchip se duplica cada dos años. Y a medida que la ley de Moore se ralentiza, se vuelve más vital crear técnicas alternativas para mejorar el rendimiento del chip en el mismo nodo de proceso tecnológico.

NVIDIA ha revelado un nuevo método que utiliza inteligencia artificial para construir circuitos más pequeños, más rápidos y más eficientes para brindar un mayor rendimiento con cada nueva generación de chips. Demuestra que la IA es capaz de aprender a crear estos circuitos desde cero en su trabajo utilizando Deep Reinforcement Learning.

Según la compañía, la iteración más reciente de la arquitectura de la GPU NVIDIA Hopper tiene cerca de 13 000 instancias diferentes de circuitos diseñados por IA. El objetivo de NVIDIA es descubrir una solución para establecer un equilibrio utilizando el tamaño del circuito y el retardo para producir el circuito con el área más pequeña posible manteniendo el retardo deseado. Su estudio titulado PrefixRL se concentra en circuitos aritméticos denominados circuitos de prefijo paralelo. Al agente de inteligencia artificial se le enseña a crear gráficos de prefijos y al mismo tiempo optimiza las características del circuito final formado a partir del gráfico.

Fuente: https://developer.nvidia.com/blog/designing-arithmetic-circuits-with-deep-reinforcement-learning/

El equipo de NVIDIA creó un entorno para circuitos de prefijos en los que el agente de aprendizaje por refuerzo tiene la capacidad de agregar o eliminar un nodo del gráfico de prefijos. Educaron a un agente para maximizar la eficiencia de los circuitos aritméticos en términos de su área y su latencia; el agente es recompensado con la mejora en el área del circuito relacionado y la latencia en cada paso.

🔥 Recomendado:  La lista de verificación definitiva para entrevistas de marketing digital

Dado que entrenar el caso 64b requiere más de 32 000 horas de GPU y la simulación física de PrefixRL requiere 256 CPU para cada GPU, NVIDIA desarrolló Raptor. Esta plataforma de aprendizaje por refuerzo distribuido utiliza hardware NVIDIA para el aprendizaje por refuerzo industrial y fortalece la escalabilidad y la velocidad de aprendizaje.

Según los hallazgos, el sumador PrefixRL más efectivo produjo un área reducida del 25 por ciento mientras operaba con el mismo retraso que el sumador de herramientas de automatización de diseño electrónico. NVIDIA espera que el método pueda actuar como modelo para integrar la inteligencia artificial en los desafíos de diseño de circuitos del mundo real, como la construcción de espacios de acción, representaciones de estado, modelos de agentes de RL, la optimización para múltiples objetivos en competencia y la superación de procesos lentos de cálculo de recompensas como síntesis física. .

Este artículo está escrito como un artículo de resumen por el personal de Marktechpost basado en el trabajo de investigación ‘PrefixRL: Optimización de Circuitos de Prefijos Paralelos usando Aprendizaje de Refuerzo Profundo’. Todo el crédito de esta investigación es para los investigadores de este proyecto. Revisar la papel y artículo fuente.

Por favor no olvides unirte Nuestro subreddit de ML

Echa un vistazo a https://aitoolsclub.com para encontrar 100 de Cool AI Tools