La amenaza de desinformación de la IA generativa es «abrumadora», dice un experto cibernético

4 min read

2024 será el año electoral mundial más importante de la historia. Coincide con el rápido aumento de los deepfakes sólo en Asia Pacífico. Los deepfakes aumentarán un 1.530% entre 2022 y 2023, según un informe de Sumsub Fotografielink | Istock | Los expertos en ciberseguridad temen que los contenidos generados por inteligencia artificial puedan distorsionar nuestra percepción de la realidad. Esta es una preocupación aún más preocupante en un año lleno de elecciones importantes. Pero un destacado experto va contra la corriente. Sugirió que la amenaza era muy falsa. La postura hacia la democracia puede ser «exagerada». Martin Lee, líder técnico del grupo de investigación de seguridad e inteligencia Talos de Cisco, dijo a CNBC que cree que los deepfakes, aunque son una tecnología poderosa por derecho propio, no lo son. Pero no tiene tanto impacto como las noticias falsas. Sin embargo, la nueva generación de herramientas de inteligencia artificial. «Amenaza con facilitar la creación de contenidos falsos», añadió. El contenido generado por IA a menudo incluye indicadores comúnmente identificables que sugieren que el contenido no fue creado por una persona real. En particular, el contenido de la imagen tiene Se ha demostrado que es vulnerable a errores. Por ejemplo, las imágenes generadas por IA pueden contener anomalías visuales, como personas con más de dos manos o extremidades mezclándose con el fondo de la imagen. La decodificación entre clips de audio de imágenes y voz sintética puede ser más difícil que la de personas reales, pero la IA sigue siendo tan buena como sus datos de entrenamiento. los expertos dicen «sin embargo «El contenido generado por máquinas a menudo es detectable como tal cuando se ve objetivamente. En cualquier caso, es poco probable que la generación de contenido limite a los atacantes», dijo Lee. Los expertos dijeron anteriormente a CNBC que esperaban que la desinformación impulsada por la IA fuera un riesgo importante. próximas elecciones en todo el mundo, dijo Matt Calkins, director ejecutivo de la empresa de tecnología empresarial Appian, que ayuda a las empresas Es más fácil crear aplicaciones con herramientas de software, dice la IA de «utilidad limitada». Muchas de las herramientas generales de IA actuales pueden ser «aburridas», añadió. “Cuando te conozca Puede pasar de milagroso a útil. [but] No puede cruzar esa línea ahora”. “Cuando estemos dispuestos a confiarle a la IA nuestro conocimiento sobre nosotros mismos, Será realmente increíble”, dijo Calkins a CNBC en una entrevista esta semana. Eso podría convertirlas en herramientas de desinformación aún más poderosas y peligrosas, advierte Calkins, en el futuro. Añadió que no estaba satisfecho con el progreso en el aprovechamiento de la tecnología que puede ser necesaria para producir cosas. Era «gravemente repulsivo» que la propuesta de Estados Unidos procediera, añadió. «Dennos un año, esperen hasta que la IA nos haga daño y entonces tal vez tomemos la decisión correcta», afirmó Calkins. No importa cuán avanzada sea la IA, Lee de Cisco dijo que existen algunas formas probadas de detectar información errónea, ya sea generada por máquinas o por humanos. Las personas deben saber dónde ocurren estos ataques y ser conscientes de las técnicas que pueden usarse. Cuando nos enfrentamos a contenido que despierta nuestras emociones, debemos detenernos, hacer una pausa y preguntarnos si la información es confiable, sugiere Lee: “¿El contenido es publicado por un medio de comunicación confiable? ¿Hay otros medios de comunicación acreditados informando la misma historia?, dijo. También podría tratarse de una campaña fraudulenta o de desinformación que debería ignorarse o denunciarse”.

You May Also Like

More From Author

+ There are no comments

Add yours