Estás leyendo la publicación: Alimentando la ansiedad artificial de los padres de la IA
Años antes de que ChatGPT empujara al mundo de la IA a un frenesí incontrolable, una entrevista de Elon Musk con Sam Altman estableció una ominosa advertencia sobre lo que la IA puede hacer. Musk habló sobre la necesidad de democratizar la tecnología de IA para evitar que el control de esta poderosa tecnología esté en manos de unos pocos, y enfatizó cómo la IA puede usarse de mala manera. Esto fue en 2016. Aquí estamos, siete años después, con los padres y científicos de IA haciendo sonar la misma alarma, solo que la tecnología de IA ahora es mucho más avanzada, y todos los expertos no están unidos por temor a los riesgos de IA que se avecinan.
Bebé llorando obtiene la leche
Muchos movimientos han surgido en los últimos meses con la esperanza de traer algún tipo de control antes de que las riendas se pierdan por completo. Una carta abierta para detener el desarrollo de modelos de IA más potentes que GPT-4 fue firmada por cerca de 30 000 personas en mayo, incluido el experto en IA Yoshua Bengio, Gary Marcus, Elon Musk, Steve Wozniak y otros. Una audiencia del Congreso sobre IA que tuvo lugar hace unas semanas fue probablemente el primer paso de cómo se están involucrando los organismos gubernamentales, donde Sam Altman y Gary Marcus plantearon la necesidad de regular la IA.
Hubo otra declaración conjunta que habló sobre los riesgos de la IA y la comparó con la guerra nuclear firmada por los padres de la IA Geoffrey Hinton, Yoshua Bengio, Demis Hassabis de Google DeepMind y otros. Sin embargo, los científicos y expertos en IA están en desacuerdo cuando se trata de encontrar un consenso sobre los riesgos de la IA.
Sin dormir en tierras de IA
Bengio expresó recientemente su preocupación por el posible mal uso de la IA que lo hizo sentirse perdido y cuestionar el trabajo de su vida. Uno de sus mayores temores es que los “malos actores” hagan un mal uso de la IA para causar daño. Las consecuencias serán desastrosas si cae en manos de militares, terroristas o cualquier persona equivocada que pueda ajustar estos sistemas para hacer cosas malas.
Fuente: Yoshua Bengio
En una publicación elaborada, Bengio explica su temor sobre cómo perder el control sobre los sistemas es lo que conduciría a una IA deshonesta. Con los sistemas cada vez más avanzados y autónomos, es posible que los humanos puedan perder el control sobre ellos y tener consecuencias catastróficas para la humanidad. La desalineación entre la IA y los valores humanos puede conducir a un escenario en el que los sistemas de IA toman decisiones de forma autónoma sin tener en cuenta el bienestar de un ser humano.
Bengio habla sobre la posibilidad de un escenario futuro en el que si le pedimos a la IA que arregle el cambio climático, probablemente diseñaría un virus que eliminaría a la población humana debido a la falta de instrucciones claras o por considerar a los humanos como el principal facilitador de la crisis climática.
El mes pasado, Hinton dejó Google para manifestar sus temores sobre la tecnología de inteligencia artificial. Uno de los mayores temores de Hinton es la amenaza a la humanidad. Él cree que si las personas persiguen obtener ganancias en el desarrollo de IA, puede conducir a un futuro en el que el contenido generado por IA superará a los creados por humanos, poniendo en peligro la propia existencia.
Dado que los modelos de IA tienen menos redes neuronales que los humanos pero pueden poseer 1000 veces el conocimiento y aprender y compartir conocimiento continuamente puede ser alarmante. También teme la propagación de información errónea con el auge de los chatbots. Los sesgos y las nociones prejuiciosas que se infiltran en los chatbots pueden ser perjudiciales para la sociedad.
Reunión en la encrucijada
Todo se reduce a la necesidad de implementar regulaciones de IA, algo que incluso Altman ha estado defendiendo regularmente en todos sus eventos como parte de su gira mundial, incluso esperando que China ayude a formular barandas de seguridad de IA.
En una entrevista reciente con Andrew Ng, Hinton se centró en la necesidad de llegar a un consenso sobre los asuntos para avanzar juntos. Al igual que los científicos del clima tienen un consenso aproximado sobre el cambio climático, los científicos de IA también deberían unirse para crear buenas políticas. También siente que si los científicos pudieran enumerar y tener una visión compartida sobre algunas de las cuestiones técnicas relacionadas con la IA, ayudaría a avanzar hacia un consenso sobre los riesgos de la IA. Si los investigadores de IA tuvieran todo tipo de opiniones, también sería más fácil elegir.
Bengio enfatizó que a medida que los sistemas de IA se vuelven súper inteligentes y autónomos, la necesidad de gobernanza y regulación para mitigar los riesgos de la IA se vuelve una necesidad. También habló de la necesidad de seguir adecuadamente el progreso de estos modelos. Los gobiernos deberían poder monitorearlos y auditarlos, de manera similar a como lo han hecho con cualquier otro sector, como los automóviles y los productos farmacéuticos. Similar a alguna forma de capacitación ética, la necesidad de tener una especie de certificación para las personas que trabajan en dichos sistemas también se convierte en una necesidad.
Los padres de la IA seguirán siendo alimentados por la ansiedad hasta que ocurra un movimiento sólido. Como mencionó Hinton, el consenso es probablemente el siguiente paso para trabajar para mitigar los riesgos de la IA.
Mientras que Marcus y Hinton luchan por la regulación para prevenir catástrofes de IA, el experto en IA Yann LeCun cree que los temores son injustificados. Él llama a los condenados y pesimistas de la IA a las personas que pueden imaginar escenarios catastróficos pero carecen de ideas para prevenirlos. Con el progreso de Meta en IA, la empresa está donde estaba OpenAI hace tres años con GPT 2. Probablemente por qué anticipar los riesgos de IA es un desafío para él.