IA y la lucha contra la tecnofobia

Estás leyendo la publicación: IA y la lucha contra la tecnofobia

Cuando se trata de IA generativa y modelos de lenguaje extenso, como ChatGPT. El entusiasmo de la IA se mezcla con la tecnofobia. Esto es natural para el público en general: les gustan las cosas nuevas y emocionantes, pero tienen miedo a lo desconocido. Lo nuevo es que varios científicos destacados se convirtieron en tecnoescépticos, si no tecnofóbicos. El caso de los científicos e industriales que piden una prohibición de seis meses de la investigación en IA, o el escepticismo del principal científico en IA, el Prof. A. Hinton, son ejemplos de ello. El único equivalente histórico relacionado que puedo recordar es la crítica de las bombas atómicas y nucleares por parte de una parte de la comunidad científica durante la guerra fría. Afortunadamente, la humanidad logró abordar estas preocupaciones de una manera bastante satisfactoria.

Por supuesto, todo el mundo tiene derecho a cuestionar el estado actual de la IA:

  • Nadie sabe por qué los modelos de lenguaje grande funcionan tan bien y si tienen un límite.
  • Muchos peligros de que los malos creen ‘bombas de IA’ acechan, particularmente si los estados permanecen como espectadores pasivos, en términos de regulaciones.

Estas son preocupaciones legítimas que alimentan el miedo a lo desconocido, incluso para científicos destacados. Después de todo, ellos mismos son humanos.

Sin embargo, ¿puede la investigación de IA detenerse aunque sea temporalmente? En mi opinión, no, ya que la IA es la respuesta de la humanidad a una sociedad global y un mundo físico de complejidad cada vez mayor. Dado que los procesos de aumento de la complejidad física y social son muy profundos y parecen implacables, la IA y la morfosis ciudadana son nuestra única esperanza para tener una transición sin problemas de la Sociedad de la Información actual a una Sociedad del Conocimiento. De lo contrario, podemos enfrentarnos a una implosión social catastrófica.

🔥 Recomendado:  La última investigación de visión por computadora de China propone un módulo de transformador de seguimiento de puntos (PTT) para tareas de seguimiento de un solo objeto 3D basadas en nubes de puntos

La solución es profundizar nuestra comprensión de los avances de la IA, acelerar su desarrollo, regular su uso para maximizar su impacto positivo y minimizar los efectos negativos ya evidentes y otros ocultos. La investigación en IA puede y debe volverse diferente: más abierta, democrática, científica y ética. Aquí hay una lista propuesta de puntos para este fin:

  • La primera palabra sobre temas importantes de investigación de IA que tienen un impacto social de gran alcance debe delegarse en los parlamentos y gobiernos electos, en lugar de corporaciones o científicos individuales.
  • Debe hacerse todo lo posible para facilitar la exploración de los aspectos positivos de la IA en el progreso social y financiero y minimizar sus aspectos negativos.
  • El impacto positivo de los sistemas de IA puede superar en gran medida sus aspectos negativos, si se toman las medidas reglamentarias adecuadas. La tecnofobia ni se justifica, ni es una solución.
  • En mi opinión, la mayor amenaza actual proviene del hecho de que tales sistemas de IA pueden engañar remotamente a demasiados plebeyos que tienen poca educación (o promedio) y/o poca capacidad de investigación. Esto puede ser extremadamente peligroso para la democracia y cualquier forma de progreso socioeconómico.
  • En un futuro cercano, deberíamos contrarrestar la gran amenaza proveniente del uso de LLM y/o CAN en actividades ilegales (hacer trampa en los exámenes universitarios es un uso bastante benigno en el espacio de las posibilidades criminales relacionadas).
  • Su impacto en el trabajo y los mercados será muy positivo, a medio-largo plazo.
  • En vista de lo anterior, los sistemas de IA deberían: a) estar obligados por el derecho internacional a registrarse en un ‘registro de sistemas de IA’, y b) notificar a sus usuarios que conversan o utilizan los resultados de un sistema de IA.
  • Dado que los sistemas de IA tienen un gran impacto social y para maximizar los beneficios y el progreso socioeconómico, las tecnologías avanzadas de sistemas clave de IA deberían estar abiertas.
  • Los datos relacionados con la IA deben democratizarse (al menos parcialmente), nuevamente para maximizar el beneficio y el progreso socioeconómico.
  • Se deben prever esquemas de compensación financiera sólidos y adecuados para que los campeones de la tecnología de IA compensen cualquier pérdida de ganancias, debido a la apertura antes mencionada y para garantizar fuertes inversiones futuras en I + D de IA (por ejemplo, a través de patentes de tecnología, esquemas de licencias obligatorias).
  • El equilibrio de la investigación de IA entre la academia y la industria debe repensarse para maximizar el resultado de la investigación, al mismo tiempo que se mantiene la competitividad y se otorgan recompensas por los riesgos de I+D asumidos.
  • Las prácticas educativas deben revisarse en todos los niveles educativos para maximizar el beneficio de las tecnologías de IA, mientras se crea una nueva generación de ciudadanos y científicos (IA) creativos y adaptables.
  • Deben crearse y reforzarse mecanismos adecuados de regulación/supervisión/financiación de la IA para garantizar lo anterior.
🔥 Recomendado:  Estudio de la industria de Analytics India 2023

Varios de estos puntos se tratan en detalle en mi reciente libro de volumen 4 sobre ‘AI Science and Society’, particularmente en los volúmenes A (reescrito en mayo de 2023 para cubrir LLM e Inteligencia General Artificial) y C.

Referencias de libros:

Inteligencia artificial Ciencia y sociedad Parte A: Introducción a la ciencia de la IA y la tecnología de la información

Ciencia y sociedad de la inteligencia artificial Parte C: Ciencia y sociedad de la IA