¡Es una envoltura! Clase magistral de Intel® oneAPI sobre Neural Compressor para acelerar la inferencia de aprendizaje profundo

Estás leyendo la publicación: ¡Es una envoltura! Clase magistral de Intel® oneAPI sobre Neural Compressor para acelerar la inferencia de aprendizaje profundo

Intel® concluyó su clase magistral oneAPI sobre Intel® Neural Compressor el 13 de mayo de 2022 a las 5:00 p. m. IST. La clase magistral fue testigo de cerca de 200+ participantes.

El taller cubrió varias iniciativas y proyectos lanzados por Intel®, además de profundizar en Intel® Optimization for TensorFlow para mejorar el rendimiento en las plataformas Intel. Intel® Optimization for TensorFlow es la distribución binaria de TensorFlow con primitivas de biblioteca Intel® oneAPI deep neural network (oneDNN).

Además de esto, la clase magistral brindó una descripción general del kit de herramientas de análisis de inteligencia artificial oneAPI, que contenía un conjunto básico de herramientas y bibliotecas para desarrollar aplicaciones de alto rendimiento en CPU, GPU y FPGA Intel®, además de arrojar luz sobre Intel®. biblioteca de rendimiento multiplataforma de código abierto oneDNN para aplicaciones de aprendizaje profundo.

La sesión también destacó la importancia de usar Intel Neural Compressor para impulsar la inferencia de aprendizaje profundo, además de brindar una demostración práctica, casos de uso, puntos de referencia y más. El taller fue dirigido por Kavita Aroor, líder de marketing para desarrolladores – Asia Pacífico y Japón en Intel; Aditya Sirvaiya, ingeniero de soluciones de software de inteligencia artificial de Intel; y Zhang Jianyu (Neo), ingeniero sénior de soluciones de software de IA (SSE) de SATG AIA en la República Popular China.

Intel® tuvo una demostración sobre los siguientes temas:

  • Descripción general del kit de herramientas de análisis de IA de oneAPI
  • Introducción a la optimización Intel® para Tensorflow
  • Optimizaciones de Intel para Tensorflow
  • Compresor neuronal Intel
  • Demostración práctica para mostrar el aumento del uso y el rendimiento en DevCloud
🔥 Recomendado:  Doja Cat se asocia con JBL para lanzar la colección NFT 'Fresh Fruit'

Vea la grabación de la sesión de clase magistral “Acelere la inferencia de aprendizaje profundo con Intel® Neural Compressor” aquí.

Puntos clave

Arrojando luz sobre varias iniciativas lanzadas por Intel® para mejorar el ecosistema de desarrolladores, Aroor de Intel se refirió al foro de proyectos DevMesh. Ella dijo que tienen alrededor de 2000-2500 proyectos en diversas tecnologías, que incluyen IA, desarrollo de juegos, IoT y HPC, seleccionados por desarrolladores de software de Intel y la comunidad de estudiantes embajadores.

Además, dijo que los desarrolladores podrían crear sus artículos de blog, donde pueden ampliar su trabajo, proyectos y más. También dijo que el programa de socios de tecnología oneAPI tiene un foro separado donde pueden asociarse con Intel para liberar el poder de oneAPI. “Hoy, tenemos entre 19 y 20 organizaciones de este tipo en diez países diferentes”, agregó Aroor. A continuación, habló sobre el programa de instructor certificado oneAPI, en el que los desarrolladores pueden convertirse en instructores certificados, convertirse en defensores de Intel® y trabajar muy de cerca con la empresa.

Haga clic aquí para descargar los kits de herramientas de Intel® oneAPI para comenzar.

Haga clic aquí para crear una cuenta Intel® DevCloud.

Después de esto, Aditya le dio a la audiencia una descripción general rápida del kit de herramientas de análisis de oneAPI, presentó Intel® Optimization para TensorFlow y luego un práctico, mostrando el aumento del uso y el rendimiento en DevCloud.

A esto le siguió la introducción de Intel Neural Compressor Hands-on con carga de trabajo de cuantificación. La demostración explicó una canalización integral para entrenar un modelo de TensorFlow con un pequeño conjunto de datos de clientes y acelerar el modelo en función de la cuantificación de Intel® Neural Compressor. Esto incluyó entrenar un modelo de Keras e Intel Optimization para Tensorflow, obtener un modelo INT8 de Intel® Neural Compressor, además de comparar el rendimiento de los modelos FP32 e INT8 con el mismo script.

🔥 Recomendado:  14 aplicaciones que pagan un bono de registro de $25 (o más)

(Fuente: Intel)

Haga clic aquí para descargar los kits de herramientas de Intel® oneAPI para comenzar.

Haga clic aquí para crear una cuenta Intel® DevCloud.

Durante el evento, la revista Analytics India también realizó un Lucky Draw, en el que los afortunados participantes ganaron un cupón de Amazon por valor de INR 2000/- cada uno al final del taller.

Los ganadores fueron seleccionados en base a su compromiso con Discord a lo largo del taller. <​​https://discord.gg/ycwqTP6>

  • Sahil Chachra
  • Raviteja Peri
  • Prateek Modi
  • ramachandrareddy gadi
  • Sreyashi Bhattacharjee
  • Aishwarya Gholse
  • Anirban Malla
  • Dhruv Kothiya
  • Chirumamilla pitchaia
  • Shivaraj Karki
  • priyanka patny
  • Akanksha Srivastava
  • maaz mohamed
  • Mani Shekhar Gupta

Vea la grabación de la sesión de clase magistral “Acelere la inferencia de aprendizaje profundo con Intel® Neural Compressor” aquí.