AGI-22 destaca el progreso en el desarrollo de la inteligencia artificial general

Estás leyendo la publicación: AGI-22 destaca el progreso en el desarrollo de la inteligencia artificial general

Hace poco asistí a la 15ª conferencia anual sobre Inteligencia Artificial en General (AGI-22) que se llevó a cabo en Seattle este agosto, en un intento de familiarizarme con los nuevos desarrollos que podrían llevar a la eventual creación de una Inteligencia General Artificial (AGI).

Un AGI es un tipo de IA avanzada que puede generalizarse en múltiples dominios y no tiene un alcance limitado. Los ejemplos de IA estrecha incluyen un vehículo autónomo, un chatbot, un bot de ajedrez o cualquier otra IA que esté diseñada para un solo propósito. En comparación, un AGI podría alternar de manera flexible entre cualquiera de los anteriores o cualquier otro campo de especialización. Consiste en un tipo especulativo de IA que aprovecharía los algoritmos incipientes, como el aprendizaje por transferencia y el aprendizaje evolutivo, al tiempo que explota algoritmos heredados, como el aprendizaje por refuerzo profundo.

Durante la sesión magistral de apertura, Ben Goertzel, investigador de IA, CEO y fundador de SingularityNETy líder de la Fundación OpenCog habló sobre el estado de la industria. Parecía entusiasmado con la dirección futura de AGI y afirmó que “estamos a años de distancia en lugar de décadas de distancia”. Esto colocaría el eventual lanzamiento de un AGI aproximadamente en 2029, el mismo año en que Ray Kurzweil uno de los principales inventores, pensadores y futuristas del mundo predijo el surgimiento de una IA que alcanza el nivel de inteligencia humana.

La teoría dice que una vez que se alcanza este tipo de inteligencia, la IA se automejora de forma inmediata y continua para superar rápidamente a la inteligencia humana en lo que se conoce como superinteligencia.

🔥 Recomendado:  La importancia de la inteligencia sobre ciberamenazas para las pequeñas y medianas empresas: desafíos y soluciones

Otro orador, Charles J. Simon, fundador y director ejecutivo de IA del futuro declaró en una sesión separada, “el surgimiento de AGI será gradual” y “AGI es inevitable y llegará antes de lo que la mayoría de la gente piensa, podría ser un par de años”.

Incluso con este sentimiento alcista, existen importantes obstáculos en el espacio. Ben Goertzel también reconoció que para lograr AGI, “necesitamos una infusión de nuevas ideas, no solo ampliar las redes neuronales”. Este es un sentimiento que ha sido compartido por Gary Marcus, quien es conocido por afirmar que “el aprendizaje profundo se ha topado con una pared”.

Algunos de los principales desafíos para crear un AGI incluyen descubrir un sistema de recompensas que pueda escalar la inteligencia de una manera informada al máximo. La paradoja de Moravec refleja el problema actual de lograr AGI con nuestra tecnología actual. Esta paradoja establece que las adaptaciones que son intuitivas para un niño de un año, como aprender a caminar y simular la realidad, son mucho más difíciles de programar en una IA que lo que los humanos perciben como difícil.

Para los humanos es el polo opuesto, dominar el ajedrez o ejecutar fórmulas matemáticas complejas puede requerir toda una vida para dominar, sin embargo, estas son dos tareas razonablemente fáciles para las IA estrechas.

Una de las soluciones a esta paradoja puede ser el aprendizaje evolutivo, también conocido como algoritmos evolutivos. Básicamente, esto permite que una IA busque soluciones complejas imitando el proceso de evolución biológica.

En una sesión de preguntas y respuestas separada, Ben Goertzel afirmó que “la AGI no es inevitable, pero es muy probable”. Esta es la misma conclusión a la que he llegado, pero la línea entre inevitabilidad y probabilidad se difumina.

🔥 Recomendado:  6 opciones de generador de bromas de IA: ¿Puede la inteligencia artificial hacerte reír?

Durante la conferencia hubo muchos documentos que se presentaron, uno de los documentos notables que se discutió fue Funtores polinómicos: una teoría general de la interacción por David Spivak del Instituto Topos en Berkeley, CA y Nelson Niu de la Universidad de Washington, en Seattle, WA. Este documento analiza una categoría matemática llamada Poly que puede influir en la dirección futura de la IA cuando se trata de relaciones íntimas con procesos dinámicos, toma de decisiones y almacenamiento y transformación de datos. Queda por ver cómo influirá esto en la investigación de AGI, pero podría ser uno de los componentes faltantes que nos podría llevar a AGI.

Por supuesto, había otros periódicos que eran más especulativos, como el Índice de Versatilidad-Eficiencia (VEI): Hacia una Definición Completa de IQ para Agentes AGI de Mohammadreza Alidoust. La idea es construir una forma alternativa para medir el nivel de inteligencia de los sistemas inteligentes, un tipo de prueba de coeficiente intelectual para medir agentes AGI de forma computacional.

Dos compañías notables que pueden lograr avances en esta tecnología subyacente son OpenAI y DeepMind, las cuales estuvieron notablemente ausentes. Puede ser por temor a que la comunidad de IA no tome en serio a AGI, pero son las dos empresas que tienen más probabilidades de lograr el primer avance en este campo. Esto es especialmente cierto ya que La misión declarada de OpenAI es llevar a cabo una investigación fundamental a largo plazo para la creación de un AGI seguro.

Si bien no hubo grandes avances revolucionarios para revelar en la conferencia, está claro que AGI está preocupando a muchos investigadores y es algo a lo que la comunidad de IA debería prestar más atención. Después de todo, un AGI podría ser la solución para resolver las múltiples amenazas existenciales de la humanidad.