La cantidad de inteligencia en el universo se duplicará cada 18 meses, dice Sam Altman

Estás leyendo la publicación: La cantidad de inteligencia en el universo se duplicará cada 18 meses, dice Sam Altman

El apocalipsis de la IA ha comenzado, cambiando el significado de la Ley de Moore. Ahora, la cantidad de inteligencia en el universo se duplicará cada 18 meses, según sam altman, CEO de OpenAI, la empresa detrás de ChatGPT. Hace solo siete años, Sam bromeó: “La IA probablemente conducirá al fin del mundo, pero antes de eso, habrá un gran negocio”. ahora la gente bromea no se separa de una “mochila nuclear” para poder detonar centros de datos de forma remota si GPT se sale de control.

La cantidad de inteligencia en el universo se duplicará cada 18 meses, dice Sam AltmanEsto significa que las capacidades de la tecnología continuarán expandiéndose rápidamente, lo que conducirá a un mundo en constante evolución.

Para entender mejor a qué se refiere Altman en su tuit, y para saber cómo no volverse loco durante el auge de la IA, recomendamos leer el artículo de Eric Hoel “Cómo navegar el apocalipsis de la IA como una persona cuerda.” Hoel es un neurocientífico y filósofo estadounidense de la Universidad de Tufts. Es una buena lectura, ya que Hoel es un gran escritor, por lo que definitivamente recomendamos revisar esta publicación.

Echemos un vistazo a uno de los puntos clave, ya que resume una comprensión profunda de lo que está sucediendo y el futuro cercano del apocalipsis que ya ha llegado. El principal argumento de los “tecno-optimistas racionales”, que creen que no sucedió nada extraordinario ni excesivamente arriesgado con la llegada de ChatGPT, es el siguiente:

  • A pesar de los excelentes resultados de la IA conversacional generativa (como ChatGPT, Bing, etc.), estos sistemas de IA no pueden considerarse inteligentes. No entienden el mundo y no tienen la motivación de un agente. No tienen una personalidad que se manifieste en sus intenciones y acciones, y su intelecto percibido no es más que un simulacro de intelecto. En esencia, este simulacro es solo un relleno automático para las siguientes palabras, reflejando en su espejo probabilístico el corpus colosal y sin filtrar de textos escritos por humanos de Internet.
  • Si es así, entonces no hay una perspectiva cercana de la aparición de una superinteligencia ni los riesgos asociados con ella (aunque, por supuesto, debe prepararse para esto, muy probablemente en el horizonte de décadas).
🔥 Recomendado:  Investigadores de IA de Google proponen un método basado en inteligencia artificial para aprender la generación de vistas perpetuas de escenas naturales únicamente a partir de fotos de una sola vista
  Es cierto que ChatGPT no tiene un sentido de conciencia, pero aún es capaz de tomar decisiones y realizar acciones que pueden verse como inteligentes.  Esto significa que puede actuar como agente, incluso si no es consciente. Es cierto que ChatGPT no tiene un sentido de conciencia, pero aún es capaz de tomar decisiones y realizar acciones que pueden verse como inteligentes. Esto significa que puede actuar como agente, incluso si no es consciente.

La respuesta de Hoel a esta argumentación es la siguiente:

  • El hecho de que ChatGPT, por ejemplo, sea simplemente un autocompletado de las siguientes palabras no implica que no pueda convertirse (o ya se haya convertido) en un agente inteligente. A diferencia de la conciencia, la inteligencia es un concepto completamente funcional: si algo actúa inteligentemente, es inteligente. Si actúa como agente, es un agente.
  • Aquí hay un ejemplo explicativo. Hay una cohorte influyente de científicos, Carl Friston (el neurocientífico más citado) y muchos otros nombres famosos, que afirman que el propósito de nuestro cerebro es minimizar la sorpresa. Esta “hipótesis del cerebro bayesiano” es una de las principales en la actualidad. La teoría establece que, a nivel global, minimizar la sorpresa es la función principal del cerebro. Y aunque esta es solo una de varias hipótesis principales sobre cómo funciona el cerebro, supongamos que es cierta. Imagine ahora que los extraterrestres encuentran un cerebro humano, lo miran y dicen: “¡Oh, esta cosa solo minimiza la sorpresa! No puede ser la base del intelecto y por lo tanto no puede ser peligroso para los verdaderos portadores de la mente. Piense: ¿”minimizar las sorpresas” es realmente un objetivo mucho más difícil que completar automáticamente el texto? ¿O es realmente muy similar?
  • Y si es así, es posible que la superinteligencia no humana ya esté cerca. Y los riesgos asociados ya son bastante reales. ¿Qué más hay para agregar? Quizás ChatGPT y otros ya son más versátiles en su inteligencia que cualquier ser humano. Es probable que ChatGPT y otros estén activos al mismo tiempo por las siguientes razones: razonable, poco confiable y no similar a la mente humana, incontrolable en cualquier sentido fundamental, excepto por algunas vallas diseñadas apresuradamente.
🔥 Recomendado:  Investigadores de Stanford y Microsoft propusieron un enfoque de inteligencia artificial (IA) que utiliza declaraciones declarativas como retroalimentación correctiva para modelos neuronales con errores

Y si todo esto es cierto, entonces el apocalipsis de la IA ya ha comenzado.

Leer más temas relacionados: