Investigadores de la Universidad Sun Yat-sen y UBTECH presentan Big Learning Framework, presentando un paradigma de aprendizaje universal para modelos de aprendizaje automático

Estás leyendo la publicación: Investigadores de la Universidad Sun Yat-sen y UBTECH presentan Big Learning Framework, presentando un paradigma de aprendizaje universal para modelos de aprendizaje automático

AI está pasando por un cambio de paradigma con la invención de modelos como BERT y GPT-3. Estos modelos se benefician enormemente de los grandes datos a escala y pueden demostrar diversas tareas posteriores, razón por la cual se están integrando en sistemas de IA del mundo real, por ejemplo, BERT en la Búsqueda de Google. A pesar de su utilidad en el mundo real, la ausencia de un marco teórico unificador que justifique el modelo fundacional impide las mejoras en este campo. Para abordar el problema mencionado anteriormente, es bueno saber qué hace que un modelo fundamental sea adecuado: Flexibilidad de datos y Flexibilidad de tareas. La flexibilidad de datos significa que los modelos no están restringidos con respecto a los datos con los que se están entrenando, lo que permite a los investigadores entrenarlos con datos mundiales precisos con mucha más diversidad con una intervención humana mínima. La flexibilidad de tareas permite que los modelos realicen una amplia gama de tareas, lo que les permite desempeñarse mejor y mejorar las generalizaciones y la adaptabilidad, lo que lleva a una brecha reducida en el conjunto de datos del tren de prueba y, en última instancia, a la menor cantidad de intervenciones humanas que los modelos usan para aprender. ellos mismos. Los modelos básicos en PNL han cambiado la IA con algunas de sus aplicaciones. Forex: BERT y GPT-3 han tenido un impacto significativo en el campo de la PNL. Basados ​​en el mecanismo de autoatención, los transformadores han sido las arquitecturas modelo de facto tanto en las áreas de NLP como de CV.

🔥 Recomendado:  SEO para la educación superior: 5 tácticas para impulsar la inscripción en 2023

La mejor parte del gran aprendizaje es que puede aprender de datos de entrenamiento incompletos o etiquetas incompletas. En el aprendizaje de datos significativos, hay dos tipos similares al aprendizaje automático: aprendizaje de big data no supervisado y supervisado, pero el aprendizaje considerable supervisado no puede funcionar con datos incompletos. Por lo tanto, el gran aprendizaje no supervisado se usa para crear modelos conjuntos que aún se pueden usar en datos preliminares. Gran conocimiento extensivo tiene una ponderación flexible de sus tareas a través de muchas implementaciones de muestra. Para los conjuntos de datos del mundo real, los conjuntos de datos están completos e incompletos, y el modelo los maneja sin intervención humana.

Beneficiándose de la flexibilidad de su modelo, los modelos básicos tienen la mayor parte del paradigma de IA como casos excepcionales, lo que significa que pueden realizar no solo estas tareas sino también tareas adicionales, lo que ayuda a facilitar la tarea de autoaprendizaje en Internet, lo que permite producir modelos enormes que tienen inteligencia general propia, debido al amplio alcance del aprendizaje significativo, a menudo es difícil poner a prueba su efectividad en las áreas disponibles, por lo que para probar el punto, el modelo recibió múltiples imágenes distorsionadas de una persona a partir de la cual crea una réplica perfecta de la primera imagen porque el modelo explota integralmente la información disponible dada que reside en los datos, el modelo controla integralmente los datos y ofrece todas las capacidades de datos conjuntos/condicionales/marginales, el aprendizaje significativo es capaz de brindar capacidades de finalización de datos.

En conclusión, Big Learning está equipado con una flexibilidad excepcional para entrenar y probar los datos, explota los datos de manera integral y ofrece todas las capacidades de datos conjuntos/condicionales/marginales, reduce la brecha en el conjunto de datos del tren de prueba, unifica la mayor parte del aprendizaje automático. paradigmas pero tiene la mayoría de los mismos pros y contras y no está completo, el gran aprendizaje necesita más de la comunidad debido a su potencial. Con todas las capacidades, es un tema emocionante para que los investigadores e ingenieros de IA ayuden y utilicen todo su potencial.

🔥 Recomendado:  Spotlight: GoodOnes lo ayuda a despejar el desorden de su rollo de cámara

Este artículo está escrito como un artículo de resumen de investigación por el personal de Marktechpost basado en el artículo de investigación ‘Big Learning: ¿un paradigma universal de aprendizaje automático?‘. Todo el crédito de esta investigación es para los investigadores de este proyecto. Revisar la papel y artículo de referencia.

Por favor no olvides unirte Nuestro subreddit de ML

Echa un vistazo a https://aitoolsclub.com para encontrar 100 de Cool AI Tools