Este boletín de IA es todo lo que necesita #13 – Hacia la IA

Estás leyendo la publicación: Este boletín de IA es todo lo que necesita #13 – Hacia la IA

Publicado originalmente en Hacia la IA, la empresa líder mundial en noticias y medios de IA y tecnología. Si está creando un producto o servicio relacionado con la IA, lo invitamos a considerar convertirse en patrocinador de la IA. En Hacia la IA, ayudamos a escalar las empresas emergentes de IA y tecnología. Permítanos ayudarlo a dar rienda suelta a su tecnología a las masas.

Lo que pasó esta semana en AI

Esta semana, mi atención estaba en Emad y el increíble trabajo que él y su equipo (Estabilidad.ai) han estado involucrados. Esta semana, Emad anunció OpenCLIPuna versión de código abierto de CLIP que supera los resultados de CLIP de última generación, mejorando el par de codificaciones de texto e imagen, lo que tiene un impacto dramático en la investigación actual, ya que miles de personas utilizarán este modelo de código abierto preentrenado. de los investigadores para crear aplicaciones y modelos sorprendentes con imágenes y texto.

Qué es Abrir CLIP ¿exactamente? OpenCLIP es una implementación de código abierto de CLIP de OpenAI (entrenamiento previo de imagen de lenguaje contrastivo). y que traen exactamente? ¿Por qué es esto tan genial? Es genial porque, como difusión estable, su objetivo es llevar CLIP a ti, el investigador habitual (en términos de recursos informáticos, no en términos de habilidades, ¡definitivamente eres mejor que un investigador habitual si estás leyendo esto! ?). Esto quiere decir que quieren posibilitar el entrenamiento/facilitar el estudio de modelos con supervisión contrastiva imagen-texto. Como mencionan, “nuestro punto de partida es una implementación de CLIP que coincida con la precisión de los modelos CLIP originales cuando se entrenan en el mismo conjunto de datos”. Esto significa que traen muchos nuevos modelos SOTA pre-entrenados que puede implementar gracias a implementaciones más eficientes y código de fuente abierta (ver más abajo). Verificar su repositorio para aprender más e implementar sus modelos!

Noticias más calientes

  1. Diffusion Bee, ¡una aplicación GUI de difusión estable para Mac M1!
    “Diffusion Bee es la forma más fácil de ejecutar Stable Diffusion localmente en su Mac M1. Viene con un instalador de un solo clic. No se necesitan dependencias ni conocimientos técnicos.”
  2. ¡Los investigadores del MIT han hecho que DALL-E sea más creativo!
    Como destaca el artículo, los investigadores desarrollaron un nuevo método que utiliza múltiples modelos para crear imágenes más complejas con una mejor comprensión. El método, denominado Composable-Diffusion, logra mejores resultados al generar una imagen utilizando un conjunto de modelos de difusión, cada uno de los cuales se encarga de modelar un componente específico de la misma.
  3. ¡Fui nominado en los Noonies 2022 por Hackernoon!
    ¡Me encantaría que pudieras apoyarme allí y votar por mi trabajo si te gusta! (tanto para YouTube de tecnología como para el boletín de ciencia de datos). ¡Gracias de antemano por esta increíble comunidad! ??
    YT: https://www.noonies.tech/2022/emerging-tech/2022-top-tech-youtuber
    Boletin informativo: https://www.noonies.tech/2022/emerging-tech/2022-best-data-science-newsletter
🔥 Recomendado:  Este documento de IA propone UPRISE: un enfoque liviano y versátil para mejorar el rendimiento de disparo cero de diferentes LLM de modelos de lenguaje grande en diversas tareas

Este problema se le presenta gracias a Delta Academy:

Los artículos más interesantes de la semana.

  1. im2nerf: imagen del campo de radiación neuronal en la naturaleza
    Un marco de aprendizaje que predice una representación de objetos neuronales continua dada una sola imagen de entrada en la naturaleza, supervisada solo por la salida de segmentación de los métodos de reconocimiento estándar.
  2. Ajuste rápido del tiempo de prueba para la generalización de tiro cero en modelos de visión-lenguaje
    Ajuste de avisos en tiempo de prueba (TPT): un método que puede aprender avisos adaptativos sobre la marcha con una sola muestra de prueba.
  3. StoryDALL-E: Adaptación de transformadores de texto a imagen preentrenados para la continuación de la historia
    “Primero proponemos la tarea de continuación de la historia, donde la historia visual generada se condiciona a una imagen de origen, lo que permite una mejor generalización a las narrativas con nuevos personajes. […] Nuestro trabajo demuestra que los modelos de síntesis de texto a imagen preentrenados se pueden adaptar para tareas complejas y de bajos recursos como la continuación de la historia”.

¡La sección Comunidad Learn AI Together!

Meme de la semana!

Oh, no…

EDA significa Análisis de datos exploratorios y es el proceso de investigar los datos que usará en un modelo de ML antes de pensar qué modelo aplicar.

Meme compartido por hígado frito#0614.

Publicación destacada de la comunidad de Discord

tan genial proyecto de deep2universe#6939 de la comunidad Learn AI. El algoritmo se ejecutará en cualquier video de YouTube y detectará la pose y el movimiento de las personas en el video. ¡Bastante fresco! Como menciona, el autor, desafortunadamente, tiene que detener el desarrollo de la extensión, pero abre el código para su uso posterior. Recomendamos encarecidamente a cualquiera que busque abordar un proyecto interesante que se comunique con deep2universe en discord para asumir su trabajo. Es un proyecto fantástico para las personas interesadas en la visión por computadora, especialmente en la detección de movimiento o pose.

🔥 Recomendado:  Conozca a los 100 líderes de IA más influyentes en India en MachineCon 2023 este junio en Bangalore

Vea más en el video de demostración:

Descargar la extensión de cromo.

Mira el código:

GitHub – deep2universe/YouTube-Motion-Tracking: extensión de IA de YouTube™ para seguimiento de movimiento

¡Encuesta de IA de la semana!

¿Qué opinas sobre trabajar los fines de semana, entre semana o ambos? Únete a la discusión en Discord.

Sección curada TAI

articulo de la semana

Diferencia entre normalización y estandarización por Chetan Ambi.
Uno de los procesos cruciales en la canalización del aprendizaje automático es el escalado de funciones. La normalización y la estandarización son los dos métodos comúnmente utilizados para escalar características. Pero, ¿cuál es la diferencia entre ellos y cuándo usarlos? Esta es una pregunta muy común entre las personas que acaban de comenzar su viaje de ciencia de datos. El autor explica maravillosamente la diferencia usando fórmulas, visualizaciones y código.

Nuestros artículos de lectura obligada

Mejore sus modelos de clasificación con ajuste de umbral por Eduardo Bianchi

Datos desequilibrados: ofertas en tiempo real por snehal nair

Si está interesado en publicar con Towards AI, consulte nuestras pautas y regístrese. Publicaremos su trabajo en nuestra red si cumple con nuestras políticas y estándares editoriales.

La postura ética de Lauren sobre cómo aumentar la creatividad de DALLE

Creo que es tan increíble que este modelo pueda adherirse a las indicaciones del lenguaje natural, ¡gracias a los investigadores del MIT! Sin embargo, no estoy del todo de acuerdo con la afirmación general de que esta habilidad aumenta la creatividad del modelo. Esta mejora parece estar más centrada en la precisión, con la que la creatividad como concepto no siempre se correlaciona. El arte a menudo requiere romper las reglas o trabajar con accidentes, y este “error” es parte del proceso creativo y, a menudo, hace que el arte sea tan asombroso como es. Aumentar la capacidad del modelo para colorear las líneas no sigue este principio. Del mismo modo, una mayor complejidad tampoco se correlaciona necesariamente con una mayor creatividad: las cosas increíblemente simples pueden ser increíblemente creativas.

🔥 Recomendado:  ¿Qué es el sistema de sobres de efectivo y cómo funciona?

Un contraargumento a mi primera postura podría ser que ejercitar habilidades dentro de las limitaciones del lenguaje natural ES en realidad más un ejercicio creativo que permitir que se salga del guión. Sin embargo, reafirmaré que romper parámetros puede ser más creativo que trabajar dentro de ellos. Parte de lo que hizo que la ola inicial de creaciones de DALLE fuera tan impactante fue esta falta de consideración por las nociones preconcebidas basadas en el lenguaje (¡aparte del entrenamiento, por supuesto!). Es posible que perdamos parte de esa impresión creativa al optimizar la precisión de esta manera. ¡Cualquiera que sea la dirección que elijamos, seguirá dando forma a cómo intentamos cultivar la creatividad y el futuro de las herramientas de arte digital de IA!

Ofertas de trabajo


Este boletín informativo de IA es todo lo que necesita #13 se publicó originalmente en Hacia la IA en Medium, donde las personas continúan la conversación destacando y respondiendo a esta historia.

Publicado a través de Hacia la IA

Tabla de Contenido