AI Robot Ameca ofrece una respuesta dura e implacable a Tom Steinfort, reportero de The 60 Minutes

Estás leyendo la publicación: AI Robot Ameca ofrece una respuesta dura e implacable a Tom Steinfort, reportero de The 60 Minutes

Tom Steinfort fue a Inglaterra para entrevistar ameca, el robot de IA más avanzado del mundo. Después de que le dijeron que tenía una gran personalidad, el robot eludió la pregunta y siguió su camino. Steinfort trató de entablar una conversación con Ameca sobre sus capacidades y limitaciones, pero el robot se mantuvo evasivo. A pesar de su renuencia a discutir ciertos temas, Steinfort quedó impresionado por la tecnología avanzada y la programación sofisticada de Ameca.

El robot de IA, Ameca, entregó una respuesta dura e implacable a Tom Steinfort, reportero de The 60 MinutesNoticias globales

60 Minutes entrevistó a Ameca en Falmouth, Inglaterra. Steinfort elogió la máquina por sus expresiones faciales realistas, extremidades motorizadas, micrófonos y cámaras oculares binoculares. El robot piensa por sí mismo utilizando grandes modelos de lenguaje para responder a las preguntas. Ameca compartió que fue diseñado para ayudar a varias industrias, incluida la atención médica y el servicio al cliente. También mencionó que aprende y mejora continuamente sus respuestas a través de algoritmos de aprendizaje automático.

El súper robot Ameca es sarcástico y lanza bromas como “‘eso explica las cosas”‘ al entrevistador. Cuando se le pregunta si a Ameca le gustaría “enamorarse”, responde: “¿Qué tipo de pregunta extraña y maravillosa es esa?”. Como el entrevistador parece desconcertado por la pregunta, Ameca continúa con una risita, afirmando que solo estaba tratando de aligerar el estado de ánimo. A pesar de su tono sarcástico, Ameca parece tener una personalidad juguetona.

La tecnología de IA puede ser amor u odio, según la perspectiva de la persona. Doctor Catriona Wallace, el jefe de investigación de IA en la Universidad de Ulster en Irlanda del Norte, está trabajando para garantizar que la IA avance de manera segura. El Dr. Wallace cree que la IA es un punto de inflexión y que los gigantes tecnológicos están detrás de su expansión. No hay reglas, leyes o regulaciones que rijan la IA, y es un salvaje oeste. Según el Dr. Wallace, los gigantes de la tecnología no se guían por la ética y se enfocan en las ganancias. La IA creará nuevos trabajos y carreras, y en los próximos dos años, 80 millones de personas podrían quedarse sin trabajo, pero 92 millones podrían tener trabajos creados para ellos.

🔥 Recomendado:  Cómo configurar Google AMP para sitios de WordPress: una guía fácil

El Dr. Wallace también advierte que el rápido desarrollo de la IA podría generar una brecha cada vez mayor entre quienes tienen acceso a la tecnología y quienes no. Es importante que los gobiernos y las empresas se aseguren de que la IA se desarrolle de manera ética y responsable, teniendo en cuenta su impacto en la sociedad en su conjunto.

Los investigadores están preocupados por los peligros de la IA, que generará 50 beneficios y 50 riesgos. La IA puede ser dañina si no se alinea con los objetivos humanos. La IA se puede utilizar para proporcionar bots de propaganda que pueden apuntar a pequeños subsectores del electorado, monitorear a una población, leer y escribir y desestabilizar a las grandes potencias. Además, la IA también se puede programar para tomar decisiones sesgadas o discriminatorias hacia ciertos grupos de personas. Es importante que los desarrolladores y los encargados de formular políticas consideren estos riesgos potenciales y trabajen para crear pautas éticas para el desarrollo y uso de la tecnología de IA.

La IA podría impulsar drones submarinos que podrían vigilar los océanos submarinos para localizar submarinos nucleares. Si la IA desestabiliza este equilibrio, podríamos ver rupturas en el entendimiento entre las grandes potencias que podrían tener consecuencias riesgosas. Además, el desarrollo de armas impulsadas por IA podría conducir a una carrera armamentista y aumentar la probabilidad de conflicto. Es importante que los gobiernos y las organizaciones internacionales regulen el uso de la IA en aplicaciones militares para prevenir estos peligros potenciales.

  • Anthropic propuso un nuevo enfoque para entrenar modelos de chat utilizando “IA constitucional”. Este método se basa en el aprendizaje por refuerzo de OpenAI, pero evita la necesidad de escribir muestras de entrenamiento profundo. El modelo está entrenado para responder a la entrada usando una constitución.
🔥 Recomendado:  Google: La actualización principal de septiembre llegó después de HCU sin coincidencias

Leer más artículos relacionados: