Estás leyendo la publicación: DeepMind AI potencia la exposición de los cortos de YouTube mediante la generación automática de descripciones para millones de videos
DeepMind, en colaboración con YouTube, ha presentado un modelo de IA de última generación, Flamingo, diseñado para mejorar la capacidad de búsqueda de los videos de YouTube Shorts. Estos videoclips cortos, similares a la popular plataforma TikTok, a menudo necesitan un texto más descriptivo y títulos significativos, lo que facilita a los usuarios encontrar contenido específico. Sin embargo, con la introducción de Flamingo, los usuarios ahora tendrán una forma más sencilla de descubrir estos videos.
Flamingo emplea su modelo de lenguaje visual avanzado para generar texto explicativo mediante el análisis de los fotogramas iniciales de los videos cortos de YouTube. Por ejemplo, puede describir la escena como “un gato jugando con un ovillo de lana”. Este texto generado se almacena como metadatos, lo que permite una clasificación de video más eficiente y facilita la accesibilidad del motor de búsqueda.
El impacto de Flamingo ya se ha sentido, ya que cientos de miles de videos cortos recién subidos se han beneficiado de las descripciones generadas por IA. YouTube tiene la intención de implementar gradualmente esta tecnología en todos los videos de Shorts, para que los espectadores de todo el mundo puedan encontrarlos más fácilmente.
Flamingo representa la última colaboración entre DeepMind y YouTube, consolidando aún más la fusión de DeepMind y Google Brain en un grupo empresarial unificado de IA, como anunció Google en abril. Sus empresas conjuntas anteriores incluyen la utilización del modelo de IA de DeepMind, MuZero, para mejorar el códec VP9 de YouTube para transmisión comprimida. Además, DeepMind y YouTube se unieron en 2018 para educar a los creadores de videos sobre cómo maximizar los ingresos al alinear los anuncios con las políticas de YouTube. Esta asociación dio como resultado el desarrollo de un modelo de calidad de etiquetas (LQM), lo que garantiza un etiquetado de contenido más preciso para mejorar la precisión de la publicidad y fomentar la confianza entre los espectadores, creadores y anunciantes en la plataforma.
Continuando con su fructífera colaboración, DeepMind y YouTube trabajaron para mejorar la experiencia del usuario mediante la introducción de capítulos de video. Este desarrollo condujo a la creación de un sistema de IA capaz de procesar de forma autónoma transcripciones de contenido de audio y video, brindando sugerencias para la segmentación de capítulos y títulos. Esta función revolucionaria, conocida como AutoChapters, fue presentada por el CEO Sundar Pichai durante Google I/O 2022. Con AutoChapters, los usuarios ya no necesitan buscar minuciosamente videos extensos, ya que el sistema de inteligencia artificial identifica rápidamente las secciones clave. Esta función ya se emplea en 8 millones de videos y DeepMind planea expandir su implementación a 80 millones de videos el próximo año.
Respecto a Flamingo, el equipo de producción de YouTube Shorts ha aclarado que los metadatos generados por el modelo de IA no serán visibles para los creadores. El objetivo principal es mejorar significativamente la precisión de la búsqueda. Además, Google asegura que el texto producido por Flamingo se adhiere a sus estrictos estándares de responsabilidad, evitando cualquier representación negativa del contenido del video.
A medida que Flamingo comienza su viaje para revolucionar la capacidad de búsqueda de videos de YouTube Shorts, se observará de cerca la precisión de sus capacidades de etiquetado de IA. En esta era de avances en las tecnologías de IA, Flamingo es un testimonio de la colaboración entre DeepMind y YouTube. A través de sus esfuerzos conjuntos, continúan redefiniendo los límites de la innovación de la IA, fomentando un entorno más atractivo y accesible tanto para los creadores como para los espectadores.