Rebeca Moen
07 de septiembre de 2024 07:01

NVIDIA aprovecha modelos de IA generativa para optimizar el diseño de circuitos, mostrando mejoras significativas en eficiencia y rendimiento.



NVIDIA explora modelos de IA generativa para mejorar el diseño de circuitos

Los modelos generativos han avanzado considerablemente en los últimos años, desde los modelos de lenguaje de gran tamaño (LLM) hasta las herramientas creativas de generación de imágenes y vídeos. NVIDIA está aplicando ahora estos avances al diseño de circuitos, con el objetivo de mejorar la eficiencia y el rendimiento, según el Blog técnico de NVIDIA.

La complejidad del diseño de circuitos

El diseño de circuitos presenta un problema de optimización complejo. Los diseñadores deben equilibrar múltiples objetivos conflictivos, como el consumo de energía y el área, al mismo tiempo que satisfacen restricciones como los requisitos de tiempo. El espacio de diseño es vasto y combinatorio, lo que dificulta encontrar soluciones óptimas. Los métodos tradicionales se han basado en heurísticas elaboradas a mano y aprendizaje de refuerzo para sortear esta complejidad, pero estos enfoques requieren un uso intensivo de recursos computacionales y a menudo carecen de generalización.

Presentación de CircuitVAE

En su reciente artículo, CircuitVAE: Efficient and Scalable Latent Circuit Optimization, NVIDIA demuestra el potencial de los autocodificadores variacionales (VAE) en el diseño de circuitos. Los VAE son una clase de modelos generativos que pueden producir mejores diseños de sumadores de prefijos a una fracción del costo computacional requerido por los métodos anteriores. CircuitVAE integra gráficos computacionales en un espacio continuo y optimiza un sustituto aprendido de la simulación física a través del descenso de gradientes.

Cómo funciona CircuitVAE

El algoritmo CircuitVAE implica el entrenamiento de un modelo para incorporar circuitos en un espacio latente continuo y predecir métricas de calidad como el área y el retraso a partir de estas representaciones. Este modelo predictor de costos, instanciado con una red neuronal, permite la optimización del descenso de gradiente en el espacio latente, evitando los desafíos de la búsqueda combinatoria.

Capacitación y optimización

La pérdida de entrenamiento para CircuitVAE consiste en las pérdidas de reconstrucción y regularización de VAE estándar, junto con el error cuadrático medio entre el área verdadera y predicha y el retraso. Esta estructura de pérdida dual organiza el espacio latente según métricas de costo, lo que facilita la optimización basada en gradientes. El proceso de optimización implica seleccionar un vector latente utilizando un muestreo ponderado por costo y refinarlo mediante un descenso de gradiente para minimizar el costo estimado por el modelo predictor. Luego, el vector final se decodifica en un árbol de prefijos y se sintetiza para evaluar su costo real.

Resultados e impacto

NVIDIA probó CircuitVAE en circuitos con 32 y 64 entradas, utilizando la biblioteca de celdas de código abierto Nangate45 para la síntesis física. Los resultados, como se muestra en la Figura 4, indican que CircuitVAE logra sistemáticamente menores costos en comparación con los métodos de referencia, debido a su eficiente optimización basada en gradientes. En una tarea del mundo real que involucra una biblioteca de celdas patentada, CircuitVAE superó a las herramientas comerciales, demostrando una mejor frontera de Pareto de área y retardo.

Perspectivas futuras

CircuitVAE ilustra el potencial transformador de los modelos generativos en el diseño de circuitos al cambiar el proceso de optimización de un espacio discreto a uno continuo. Este enfoque reduce significativamente los costos computacionales y es prometedor para otras áreas de diseño de hardware, como el diseño de ubicación y ruta. A medida que los modelos generativos sigan evolucionando, se espera que desempeñen un papel cada vez más central en el diseño de hardware.

Para obtener más información sobre CircuitVAE, visita el blog técnico de NVIDIA.

Fuente de la imagen: Shutterstock


Share.
Leave A Reply