Estás leyendo la publicación: Investigadores de la Universidad de Columbia proponen la red neuronal de profundidad ilimitada (UDN): un modelo probabilístico infinitamente profundo que permite la autoadaptación a los datos de entrenamiento sin…
Si bien las redes neuronales profundas (DNN) actuales impulsan la revolución del aprendizaje profundo de la IA, determinar la complejidad adecuada de una DNN sigue siendo un desafío. Si un DNN es demasiado superficial, su desempeño predictivo se verá afectado; si es demasiado profundo, tenderá a sobreajustarse y su complejidad dará como resultado costos de cómputo prohibitivamente altos. Los investigadores proponen la nueva red neuronal de profundidad ilimitada (UDN), un modelo probabilístico infinitamente profundo que permite la autoadaptación a los datos de entrenamiento sin un límite superior, ahorrando a los investigadores y profesionales del aprendizaje profundo decisiones difíciles con respecto a la complejidad adecuada para sus arquitecturas DNN en el nuevo artículo Inferencia variacional para redes neuronales infinitamente profundas.
El UDN sugerido superó a los modelos finitos e infinitos existentes en rendimiento predictivo en su investigación empírica, obteniendo una precisión del 99 % en los pares de etiquetas más fáciles utilizando solo unas pocas capas y una precisión del 94 % utilizando todo el conjunto de datos. En la categorización de imágenes, la UDN también demostró que podía ajustar la profundidad a la complejidad de los datos desde unas pocas capas hasta aproximadamente cien capas. Mientras tanto, el enfoque de inferencia variacional dinámica propuesto mostró un truncamiento exitoso de la exploración espacial.
Según los científicos, el descubrimiento abre varias direcciones de investigación intrigantes. La UDN podría usarse para transformar topologías, y la familia variacional ilimitada podría usarse para la inferencia variacional de otras familias infinitas.
En resumen, presentan la red neuronal infinitamente profunda conocida como red neuronal de profundidad ilimitada, que es capaz de producir datos desde cualquiera de sus capas ocultas. Modifica su truncamiento en su parte posterior para ajustarse a las observaciones. Esto ofrece una familia variacional única y un método de inferencia variacional. Mantiene una colección finita pero en evolución de parámetros variacionales para explorar el espacio posterior ilimitado de los parámetros UDN. Luego, utilizando datos reales y sintéticos, probaron empíricamente la UDN. Hace un buen trabajo al ajustar su complejidad a los hechos disponibles. Funciona mejor que otros modelos finitos e infinitos en términos de predicción.
Este artículo está escrito como un artículo de resumen de investigación por el personal de Marktechpost basado en el trabajo de investigación ‘Inferencia variacional para redes neuronales infinitamente profundas‘. Todo el crédito de esta investigación es para los investigadores de este proyecto. Revisar la papel.
Por favor no olvides unirte Nuestro subreddit de ML
Echa un vistazo a https://aitoolsclub.com para encontrar 100 de Cool AI Tools