Estás leyendo la publicación: Twitter lanza una actualización de integridad en las notas de la comunidad para abordar la propagación viral de imágenes falsas
Después de algunos casos famosos de imágenes falsas que se viralizaron en la web, el pasado 30 de mayo, Twitter lanzó una nueva actualización en Community Notessu programa para estimular a los usuarios a colaborar a través de notas en los tweets, agregando información de integridad en las publicaciones compartidas y manteniendo a las personas bien informadas.
Antes, echemos un vistazo rápido a lo que está sucediendo en el entorno de la IA que ha causado preocupación en la comunidad tecnológica.
Imágenes falsas se vuelven virales en las redes sociales
Las imágenes generadas por IA circulan libremente todos los días en la web. A veces, como bromas inocentes entre personas que crean imágenes con aplicaciones de inteligencia artificial y luego las comparten en sus cuentas de redes sociales.
Por un lado, pueden generar diversión en la web, por otro lado, pueden ser utilizados para el mal, provocando pánico y condiciones inseguras.
Recientemente, una foto de una “explosión” cerca del Pentágono se volvió masivamente viral, incluso para muchas cuentas verificadas. De acuerdo a CNN, e incluso la principal organización de televisión india, Republic TV, informó de la supuesta explosión utilizando esa imagen falsa. Además, los informes del medio de noticias ruso RT se retiraron después de que se negara la información.
Papa Francisco, según Los New York Times es “la estrella de las fotos generadas por IA”. La de Francis supuestamente con una chaqueta blanca hinchada al estilo de la moda francesa obtuvo más vistas, me gusta y se compartió que la mayoría de las otras fotos famosas generadas por IA.
Donald Trump también fue blanco de noticias falsas con fotos generadas por IA que muestran su supuesto intento de fuga y más imágenes de “su captura” por parte de la policía estadounidense en la ciudad de Nueva York, en un momento en que realmente está siendo investigado como testigo de varias acciones criminales. .
Los gigantes tecnológicos y la IA se preocupan y hacen predicciones “apocalípticas”
Mientras tanto, representantes de renombre en AI reaccionan a los riesgos de AI. No es nuevo que se hayan venido produciendo algunas acciones encaminadas a alertar al mundo de sus peligros. Veamos algunos ejemplos recientes:
Pausa en proyectos de Big AI
Una carta abierta firmada por varios nombres de la comunidad tecnológica, incluidos representantes de los gigantes, como el propio Elon Musk. La carta abierta solicita una pausa de 6 meses en la investigación y el desarrollo de IA.
La carta dividió a los expertos de todo el mundo. Mientras unos apoyan la pausa por riesgos inminentes como la desinformación, otros no ven sentido en tomarse un respiro porque creen que la inteligencia artificial aún no es autosuficiente.
Advertencias de IA-Padrino
El mes pasado, el padrino de la IA, Geoffrey Hinton, renunció a Google para poder advertir al mundo sobre los riesgos a los que puede estar expuesta la humanidad. Hinton cree que las máquinas pueden volverse más inteligentes que los humanos pronto y advirtió sobre los chatbots de IA en lo que llamó manos de “malos actores”.
declaración de 22 palabras
La advertencia de alto perfil más reciente sobre el riesgo de la IA, cuyos signatarios incluyen al CEO de Google DeepMind, Demis Hassabis, y al CEO de OpenAI, Sam Altman, y también por dos de los ganadores del Premio Turing 2018, Yoshua Bengio, y el ex empleado de Google mencionado anteriormente, Geoffrey Hinton.
Literalmente tiene 22 palabras y dice
De acuerdo a el borde
Cómo la verificación de hechos de Twitter puede ser útil para combatir la desinformación
Las redes sociales de Elon Musk creen que las personas deben elegir lo que se puede mostrar en Twitter y la compañía ha estado desarrollando algunos recursos que cuentan con la ayuda de sus usuarios para alimentar su base de datos sobre posible desinformación.
Community Notes es un recurso que está disponible debajo de un tweet, donde los usuarios pueden agregar contexto útil relacionado con publicaciones compartidas, indicando posible información engañosa. Luego, los colaboradores podrán calificar la nota y solo si la consideran útil, permanecerá en el tuit.
Esto por sí solo no sería suficiente para bloquear imágenes virales falsas. Así, ahora con el “fact-checking”, será posible añadir notas directamente a los medios, lo que ayudará a evitar su difusión. Una vez que esté en la nota, será más fácil identificar las imágenes generadas por IA como se vio anteriormente en la plataforma.
Aun así, debido a la demora en el proceso de agregar y calificar una nota, esta puede no ser la solución más ágil para evitar el intercambio masivo que suele ocurrir en segundos, lo que significa que todavía nos queda un largo camino por recorrer hacia un mundo más seguro. , con la IA trabajando para lo mejor, como un gran socio de la humanidad y no como un enemigo.