in

El engaño de la bomba del Pentágono destaca el poder de la inteligencia artificial

Fuente de la imagen: Pixabay

Una foto falsa de una explosión en el Pentágono se ha vuelto viral en las plataformas de redes sociales, destacando el poder de la inteligencia artificial.

El lunes, una imagen generada por IA que mostraba humo saliendo del icónico edificio provocó ondas de choque en las plataformas de redes sociales, incluso provocando una liquidación momentánea en el mercado de valores de EE. UU.

Las noticias falsas también tuvieron un impacto en el mercado de criptomonedas, ya que Bitcoin experimentó una breve “caída repentina”, cayendo a alrededor de $26 500 antes de recuperar su precio actual de más de $27 300, según CoinGecko.

La imagen fue publicada inicialmente por la cuenta de Twitter verificada ahora suspendida “Bloomberg Feed”, que afirmaba que había una “gran explosión” cerca del Pentágono.

Varios medios de comunicación importantes, incluido el medio de comunicación controlado por el estado ruso Russia Today, así como algunas personas influyentes, recogieron la noticia, contribuyendo aún más a la distribución de noticias falsas.

Sin embargo, otros se apresuraron a detectar inconsistencias en la imagen y el hecho de que no había otras imágenes o informes de otros testigos.

“Confiado en que esta imagen que afirma mostrar una ‘explosión cerca del pentágono’ es generada por IA”, dijo el investigador digital Nick Waters. dicho.

“Echa un vistazo a la fachada del edificio y la forma en que la cerca se fusiona con las barreras de la multitud. Tampoco hay otras imágenes, videos o personas que publiquen como testigos de primera mano”.

De manera similar, el Departamento de Bomberos del Condado de Arlington refutó el reclamo. “NO hay ninguna explosión o incidente que ocurra en o cerca de la reserva del Pentágono”, tuitearon, y agregaron que “no hay peligro inmediato ni riesgos para el público”.

Imagen falsa de la explosión del Pentágono genera preocupación sobre la capacidad de la IA

El incidente generó preocupaciones sobre los peligros potenciales de las herramientas de inteligencia artificial, que podrían ser utilizadas por actores maliciosos en todo el mundo para difundir información errónea y causar caos en línea.

El engaño del Pentágono no es la primera instancia de imágenes virales generadas por IA que engañan al público.

Los ejemplos anteriores incluyen imágenes del Papa Francisco luciendo una chaqueta de Balenciaga, un arresto falso del expresidente de EE. UU. Donald Trump y falsificaciones profundas de celebridades que promueven estafas con criptomonedas.

Estos casos han llevado a los expertos en tecnología a pedir una suspensión de seis meses en el desarrollo de IA avanzada hasta que se establezcan las pautas de seguridad adecuadas.

A principios de este año, el Centro de Inteligencia Artificial y Política Digital, un grupo líder en ética tecnológica, también preguntó la FTC en una queja para detener los lanzamientos comerciales de GPT-4, citando preocupaciones de privacidad y seguridad pública.

En la denuncia, el grupo afirmó que GPT-4 es “parcial, engañoso y un riesgo para la privacidad y la seguridad pública”. También dijo que la herramienta ha causado angustia entre algunos usuarios con sus respuestas rápidas y similares a las consultas.

En abril, el presidente estadounidense Joe Biden también prevenido que la IA podría ser peligrosa, enfatizando que era responsabilidad de las empresas de tecnología garantizar que sus productos sean seguros para el uso público antes de lanzarlos.

Written by Ninja News

Me llamo Martin y escribo en actucrypto.info. Me apasionan las criptomonedas y Defi en particular. Me encanta aprender cosas nuevas sobre este tema y siempre estoy buscando la información más reciente al respecto. Empecé a invertir en criptomonedas hace unos años y me gusta la idea de poder invertir de forma fácil y barata en activos digitales. Por eso paso mucho tiempo aprendiendo sobre criptomonedas y escribiendo sobre ellas.