Estás leyendo la publicación: Los investigadores de IA son los arquitectos de su propia destrucción
Tener miedo de algo que has construido es probablemente el peor de todos los miedos. Viene junto con la culpa y el resentimiento por lo que has hecho. Este es el caso de muchos investigadores pioneros de la IA, como Geoffrey Hinton y Yoshua Bengio, que hablan de abandonar el trabajo de sus vidas para advertir sobre los peligros de la IA.
Bengio le dijo al BBC que se siente “perdido” sobre el trabajo de su vida. Él es el segundo “padrino” de la IA en presentar temores y pedir la regulación de la IA. Hinton fue el primero en dejar Google para advertir al mundo sobre los problemas del ritmo de desarrollo de dicha tecnología de IA. Afirma que la IA es “un riesgo existencial”.
Sobrevender el miedo
La semana pasada, cientos de científicos e investigadores de IA se unieron para advertir que el futuro de la humanidad está en peligro. La Declaración sobre el riesgo de la IA, firmada por Hinton y Bengio, también incluyó a Sam Altman de OpenAI, Demis Hassabis de Google DeepMind y Emad Mostaque de Stability AI, entre otros.
“Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social como las pandemias y la guerra nuclear”, se lee en la carta. Esencialmente, la mayoría de las personas preocupadas por el desarrollo de tecnología están preocupadas por lo que sucede si la tecnología cae en manos de “malos actores”, que incluyen a las organizaciones militares y terroristas.
Cuando los propios expertos salen a señalar los riesgos de la tecnología, puede ser tentador y demasiado fácil caer en los miedos. Por otro lado, las personas que están floreciendo con la revolución de la IA ahora votan para aumentar los desarrollos en IA. Probablemente también se deba a que hacer modelos de IA como ChatGPT ahora se ha vuelto más fácil con modelos de código abierto. Tomemos, por ejemplo, el debate reciente sobre la necesidad de LLM sin censura que están superando a los modelos más grandes.
Esta también puede ser una de las razones por las que los expertos en IA ahora se están convirtiendo en agoreros de la IA. Cada vez tienen más miedo de dejar que la tecnología esté en manos de personas que no están tan familiarizadas con la posibilidad de que se vuelva deshonesto.
Pero, por el contrario, la reacción del tercer padrino de la IA, Yann LeCun, ante los investigadores de IA que profetizan el escenario del fin del mundo es palmear la cara. LeCun, el jefe de Meta AI, ha criticado bastante a las personas que sobrestiman las capacidades de los modelos de IA generativa en desarrollo, como ChatGPT y Bard.
Otro experto en IA que destaca a los expertos en IA que se han convertido en enemigos de la IA es Kyunghyun Cho, considerado uno de los pioneros de la traducción automática neuronal que condujo al desarrollo de Transformers por parte de Google. Cho dijo en una entrevista con los medios que glorificar a los “héroes científicos” es como tomar las palabras de las personas como la verdad del Evangelio sin racionalizar el significado detrás de ellas.
Expresó su frustración por el desarrollo del discurso sobre la IA y cómo la audiencia del Senado de los EE. UU. fue decepcionante, ya que no habló sobre los beneficios de la IA, sino solo sobre los problemas relacionados con ella. “Estoy decepcionado por gran parte de esta discusión sobre el riesgo existencial; ahora incluso lo llaman ‘extinción’ literal. Está succionando el aire de la habitación”, dijo.
Perdiendo Credibilidad
El punto es que una persona que nunca ha implementado un solo modelo de ML en su vida, es muy fácil para ellos convertirse en un doomer de IA. A menudo están influenciados por los cientos de películas realizadas sobre máquinas que se apoderan del mundo. Pero ahora, si los llamados expertos en IA se unen a la misma narrativa, con la misma explicación, parece que se trata simplemente de infundir miedo, y no de una razón real.
Tomemos, por ejemplo, a Elon Musk, el doomer de IA de mayor duración aún no se ha detenido. En una entrevista reciente con el Wall Street JournalMusk dijo: “No creo que la IA intente destruir a toda la humanidad, pero podría ponernos bajo controles estrictos”. Todavía piensa que hay una “posibilidad distinta de cero” de que la IA se llene terminador sobre la humanidad
Anteriormente, muchos investigadores de IA, incluidos Musk y Steve Wozniak, recibieron con beneplácito la petición de detener los experimentos gigantes de IA y no entrenar modelos más allá de GPT-4. Esta nueva petición se parece mucho a esa, solo que esta vez incluye a Altman. Esto sugiere muchas posibilidades además del miedo real a que la tecnología se apodere de la humanidad.
Altman le había pedido al gobierno que regulara el desarrollo de la IA. Al mismo tiempo, también opina que OpenAI debe evaluarse de manera diferente. Esto definitivamente cuestiona la motivación de la compañía para hacer cumplir las regulaciones gubernamentales sobre IA, ya que la regulación es un claro conflicto de intereses para Altman.
Todos sabemos que el miedo vende. “Desafortunadamente, las historias sensacionalistas leen más. La idea es que la IA nos matará a todos o la IA lo curará todo; ambas cosas son incorrectas”, explicó Cho.