El discreto encanto de CVPR

Estás leyendo la publicación: El discreto encanto de CVPR

La conferencia de reconocimiento de patrones y visión por computadora (CVPR) de este año ya comenzó el 19 de junio y continuará hasta el 24 de junio en Nueva Orleans, Luisiana, así como de manera virtual. Como todos los años, se espera atraer a más de 7500 asistentes y presentar oradores principales, presentaciones, tutoriales, una sesión de panel y talleres.

Todos los nombres importantes en tecnología están presentes en CVPR 2022 y realizarán talleres, presentarán sus documentos y discutirán las innovaciones en las que están trabajando.

Meta

Ven y únete a nosotros en el taller XAI4CV el lunes 20 de junio en #CVPR22 para conocer las últimas investigaciones en modelos explicables y transparentes. Tenemos un conjunto fantástico de oradores invitados, más de 30 carteles y un excelente panel de discusión, detalles: https://t.co/VVf7ZxyoWX

– Meta AI (@MetaAI) 19 de junio de 2022

Los modelos CV suelen ser de caja negra y no proporcionan explicaciones para sus predicciones. Esta falta de transparencia puede generar una falta de confianza entre los consumidores, lo que puede provocar una reacción violenta cuando los algoritmos cometen errores.

Este taller ayudará a construir una adaptación proactiva de la explicabilidad en los sistemas de visión artificial. La agenda será tener conversaciones que trabajarán en “construir sistemas de visión por computadora explicables de alto rendimiento”. Pondrá un mayor énfasis en proporcionar el razonamiento humano de “por qué” el modelo hizo esas predicciones.

Meta también hablará sobre Project Aria, Egocentric Perception, Self Supervised Learning Demos y Avatar Puppeteering Demo.

Algunas otras áreas de investigación que serán un tema de conversación de Meta incluyen

Para leer más sobre los planes de Meta para CVPR 2022, haga clic aquí.

Manzana

Algunos de los trabajos aceptados de Apple en CVPR 2022:

Regularizaciones críticas para la reconstrucción de superficies neuronales en la naturaleza: los investigadores presentan RegSDF, que muestra que “las supervisiones adecuadas de nubes de puntos y las regularizaciones de geometría son suficientes para producir resultados de reconstrucción sólidos y de alta calidad”.

Capacitación compatible con versiones posteriores para sistemas de recuperación de incrustaciones a gran escala: los investigadores presentan una capacitación compatible con versiones posteriores (FCT), un nuevo paradigma de aprendizaje para el aprendizaje de representación. Cuando se entrena el modelo anterior, los investigadores también se preparan para una futura versión desconocida del modelo. Proponen “aprender información secundaria, una característica auxiliar para cada muestra que facilita futuras actualizaciones del modelo”.

Robusta forma conjunta y optimización de poses para la reconstrucción de objetos de pocas vistas: los investigadores muestran FvOR, un método de reconstrucción de objetos basado en el aprendizaje que predice modelos 3D precisos, dadas algunas imágenes con poses de entrada ruidosas.

Estéreo multivista eficiente a través de circunvoluciones 2D impulsadas por la atención: los investigadores presentan MVS2D, un algoritmo estéreo multivista, que integra restricciones de vista múltiple en redes de vista única a través de un mecanismo de atención.

Apple mostrará una demostración de la tecnología RoomPlan que permite al usuario capturar una habitación y los objetos que la definen en un formato paramétrico en cuestión de minutos. Es compatible con cualquiera de los dispositivos Apple que están equipados con sensores LiDAR.

Para leer más sobre los planes de Apple para CVPR 2022, haga clic aquí.

Samsung

Samsung Research presentará alrededor de 20 trabajos de tesis en CVPR 2022. Dos de los trabajos presentados por el Centro de IA de Toronto de Samsung han sido seleccionados para presentaciones orales (una hazaña prestigiosa).

Waymo

El día de inicio, Waymo realizó una sesión tutorial sobre la generación de datos de cámaras sintéticas para la conducción autónoma en el taller de investigación LatinX in CV (LXCV). Al día siguiente, se realizó un taller sobre Conducción Autónoma. El equipo de Waymo Research también compartió los resultados de los Desafíos abiertos de conjuntos de datos de Waymo de este año.

El 22 de junio, un equipo de Waymo y Google Research presentará BlockNeRF. Es un método de reconstrucción de escenas a gran escala basado en imágenes de cámara. Waymo también presentará en qué están trabajando en una sesión de pósteres sobre un novedoso algoritmo de compresión de imágenes de rango basado en datos llamado RIDDLE (Range Image Deep Delta Encoding).

🔥 Recomendado:  Cómo hacer que su cuenta de TikTok sea pública o privada