Estás leyendo la publicación: OpenAI genera alarma sobre la superinteligencia y el potencial de la IA para superar las capacidades humanas en la próxima década
OpenAI, el creador de ChatGPT, ha hecho un llamamiento a la reflexión para la regulación de la superinteligencia, estableciendo paralelismos con la regulación de la energía nuclear. En una reciente entrada en el blog, OpenAI destacó las implicaciones potenciales de los rápidos avances de la IA y enfatizó la necesidad apremiante de gobernanza en este panorama en evolución. La compañía declaró que los sistemas de inteligencia artificial superarían a los expertos y las corporaciones más grandes en productividad y habilidades dentro de diez años.
“También debemos mitigar los riesgos de la tecnología de inteligencia artificial actual, pero la superinteligencia requerirá un tratamiento y una coordinación especiales”, enfatizaron Sam Altman, Greg Brockman e Ilya Sutskever de OpenAI.
La superinteligencia describe una entidad que excede la inteligencia humana en general o algunos aspectos específicos de la inteligencia. Según los autores, la superinteligencia de la IA tendrá un nivel de poder sin precedentes, que abarcará aspectos tanto positivos como negativos.
El desarrollo y los riesgos de la superinteligencia inevitable
OpenAI ha identificado tres ideas importantes que juegan un papel fundamental en el desarrollo exitoso de la superinteligencia. Estos incluyen la coordinación entre los principales esfuerzos de desarrollo, el establecimiento de una autoridad internacional similar a la Agencia Internacional de Energía Atómica (OIEA) y el desarrollo de capacidades técnicas para la seguridad.
Si bien OpenAI reconoce que los sistemas de IA conllevan riesgos, estos riesgos son comparables a los asociados con otras tecnologías relacionadas con Internet. Altman, Brockman y Sutskever también expresan su confianza en que los enfoques actuales de la sociedad para gestionar estos riesgos son adecuados. Sin embargo, la principal preocupación es sobre los sistemas futuros que tendrán un poder sin precedentes.
“Por el contrario, los sistemas que nos preocupan tendrán un poder más allá de cualquier tecnología creada hasta ahora, y debemos tener cuidado de no diluir el enfoque en ellos aplicando estándares similares a la tecnología muy por debajo de esta barra”, se lee en la publicación del blog.
Los autores argumentan que los poderosos sistemas de IA necesitan supervisión pública y control democrático. También explican por qué están construyendo esta tecnología en OpenAI: para crear un mundo mejor y evitar los riesgos de detenerlo. La IA ayuda en varias áreas, incluida la educación, la creatividad y la productividad, así como el crecimiento económico general.
OpenAI cree que es difícil y arriesgado evitar que se cree una superinteligencia. La superinteligencia tiene beneficios considerables, se vuelve más barata cada año, más personas trabajan en ella y es parte del camino tecnológico de la empresa.
Ilman Shazhaevemprendedor tecnológico en IA y cofundador de Laboratorios Farcana, compartió algunos comentarios con respecto a la noticia. Las proyecciones indican que, si no se gestiona adecuadamente, la superinteligencia puede ser uno de los inventos humanos más destructivos de todos los tiempos. Sin embargo, las conversaciones sobre el despliegue de la tecnología siguen generando divisiones, ya que aún no se ha desarrollado. Presionar para detener el desarrollo basado en el miedo a las predicciones puede privar a la humanidad de las oportunidades que la nueva tecnología podría tener reservadas.
“El enfoque de gobierno descentralizado de OpenAI puede ayudar a mantener su amplia seguridad. Con las regulaciones adecuadas, el programa podría cerrarse en caso de que represente una amenaza. Si se implementan estas salvaguardas, entonces la superinteligencia puede ser una innovación que vale la pena explorar”, dijo Shazhaev.
Al discutir abiertamente sus puntos de vista sobre la superinteligencia de IA y las medidas regulatorias propuestas, OpenAI parece fomentar discusiones informadas e invitar a diversas perspectivas.
Sam Altman cree firmemente en la disponibilidad generalizada de IA para el público. Reconociendo que es imposible anticipar todos los problemas por adelantado, aboga por abordar los problemas en la etapa más temprana posible. Sin embargo, Altman también enfatiza la importancia de las auditorías independientes para sistemas como ChatGPT antes del lanzamiento. Además, reconoce la posibilidad de implementar medidas como limitar el ritmo de creación de nuevos modelos o establecer un comité para evaluar la seguridad de los modelos de IA antes del lanzamiento al mercado. En particular, Altman predice que la cantidad de inteligencia en el universo se duplicará cada 18 meses.
Leer más: