Esto se produce semanas después de que el expresidente Trump sobreviviera a un intento de asesinato en Butler. Pensilvania Ha estado circulando en las redes sociales un video que parece mostrar a la vicepresidenta Kamala Harris diciendo en un mitin que «Donald Trump no puede morir con ira digna». Pero fue un engaño; Harris nunca lo dijo. Las líneas se leyeron con una voz generada por IA que sonaba asombrosamente parecida a la de Harris. Y luego, al conectar eso con lo que Harris realmente dijo, muchos votantes vieron este tipo de acuerdo. Y existe una creciente preocupación por su impacto en las elecciones, según una nueva encuesta realizada a 2.000 adultos por la firma de investigación de mercado 3Gem. La encuesta, realizada por la empresa de ciberseguridad McAfee, encontró que el 63% de los entrevistados habían visto Deepfakes en los últimos 60 días. 15% expuesto a 10 o más La encuesta encontró que la exposición a la amplia variedad de deepfakes es relativamente uniforme en todo el país, siendo los deepfakes políticos el tipo más común, pero los deepfakes de temática política son especialmente frecuentes en Michigan, Pensilvania, Carolina del Norte, Nevada y Wisconsin, que son estados indecisos. cuyos votos podrían decidir la elección presidencial. en la mayoría de los casos Los encuestados afirman que los deepfakes son parodias y una minoría (40%) están diseñados para engañar. Pero incluso las parodias y los engaños que no son engañosos pueden afectar a los espectadores al confirmar prejuicios o reducir la confianza en los medios, dijo Ryan Culkin, director de consultoría de Thriveworks, un proveedor nacional de salud mental. “Agrega otra capa a un momento que ya es estresante”, dijo Culkin. La mayoría de las personas encuestadas por McAfee (91%) dijeron que estaban preocupadas por la interferencia de los deepfakes en las elecciones. Esto podría deberse a cambios en el sentimiento público hacia un candidato o a afectar el resultado de una elección. Casi el 40% se describió como muy preocupado. Quizás sea por la época del año. Preocupaciones sobre la influencia de los Deepfakes en las elecciones Despertando el interés público o socavar la confianza en los medios Todos han aumentado considerablemente con respecto a la encuesta de enero. Si bien disminuyeron las preocupaciones sobre el uso de deepfakes en ciberacoso, estafas y pornografía falsa, otros dos hallazgos fueron dignos de mención: siete de cada 10 encuestados dijeron que habían encontrado al menos parte del contenido una vez a la semana. Esto les hace preguntarse si es real o creado por IA. Seis de cada 10 personas dijeron que no estaban seguras de poder responder esa pregunta. En este momento, no existen leyes federales o de California que bloqueen el Deepfacing en los anuncios del gobernador Gavin. Newsom firmó un proyecto de ley el mes pasado que prohibiría el contenido de campaña engañoso y manipulado digitalmente dentro de los 120 días posteriores a una elección. Pero un juez federal lo bloqueó temporalmente basándose en la Primera Enmienda. Jeffrey Rosenthal, socio del bufete de abogados Blank Rome y experto en leyes de privacidad, dijo que la ley de California prohíbe la publicidad de campaña. «Concretamente abierto» dentro de los 60 días posteriores a las elecciones El aumento de las barreras estatales contra los deepfakes en los anuncios no se producirá hasta el próximo año Pero con las nuevas leyes que exigen que los anuncios políticos sean etiquetados si contienen contenido generado por IA, dijo, hay algo que se puede hacer al respecto. deepfakesMcAfee Es una de varias empresas que ofrecen herramientas de software que ayudan a detectar medios que contienen contenido generado por IA. Las otras dos son Hiya y BitMind, que ofrecen una extensión gratuita para el navegador Google Chrome que detecta deepfakes sospechosos de computadoras en lugar de humanos. Es un juego del gato y el ratón, dijo Noelke. Los estafadores encontrarán formas de evadir la detección. Y empresas como Hiya se adaptarán a ellas, afirmó Ken Jon Miyachi, cofundador de BitMind en Austin, Texas. En este momento, la tecnología de su empresa sólo funciona con imágenes estáticas, aunque habrá actualizaciones para detectar IA en vídeo y audio. archivos en los próximos meses Pero las herramientas para crear deepfakes son mucho más avanzadas que las herramientas para detectarlos en este momento, dijo, en parte porque «Ha habido mucha más inversión en el lado generativo». Esa es una de las razones por las que ayudó a sostener que el director técnico de McAfee, Grobman, expresó un profundo escepticismo sobre el contenido que se ve en línea. «Todos podemos ser sensibles» al deepfake, dijo, «especialmente cuando confirma nuestros prejuicios ya naturales». Además, tenga en cuenta que las imágenes y los sonidos creados por la inteligencia artificial pueden integrarse en contenido real. “Tomar cinco segundos de video y manipularlo puede cambiar el tono y el mensaje”, dice Grobman. “No es necesario hacer muchos cambios. Una frase insertada en el discurso en el momento adecuado realmente puede cambiar el significado”. El senador Josh Becker (demócrata por Menlo Park) señaló que hay al menos tres leyes estatales que entrarían en vigor el próximo año. Exigir una mayor divulgación del contenido generado por IA, incluidas las leyes de su autor Ley de transparencia de la IA de California A pesar de esas medidas El Estado todavía necesita que los ciudadanos desempeñen un papel activo en la detección y prevención de la desinformación. Dijo que hay cuatro cosas importantes que las personas pueden hacer para cuestionar el contenido que despierta emociones fuertes. Consulta la fuente de la información. Comparta información solo de fuentes confiables. e informar contenido sospechoso a los funcionarios electorales y a las plataformas donde se comparte. «Si algo realmente le preocupa», dice Becker, «tal vez valga la pena dar un paso atrás y pensar de dónde viene». En su sitio web, McAfee ofrece una serie de consejos para identificar posibles deepfakes y evitar estafas relacionadas con ellos. elecciones y no difundir medios falsos Estos incluyen: En el texto, busque repetición. razonamiento superficial y falta de hechos El sitio web recomienda: “La IA tiende a decir mucho sin decir mucho. Se esconde detrás de mucho vocabulario para conseguir información” en imágenes y sonido. Acérquese para buscar inconsistencias y movimientos extraños del hablante y escuche el sonido. No coincide con lo que ves Intente verificar el contenido con contenido de otros sitios acreditados. No des nada por sentado. Como una cuestión de hecho comprobar la fuente Y si el contenido es un extracto, intenta encontrar el medio original en contexto. por cualquier cosa que no puedes ver con tus propios ojos o a través de una fuente 100% confiable. «Digamos que podría ser una imagen de Photoshop», advierte Grobman. También advierte que es fácil para los estafadores copiar una ubicación oficial. Luego cambie algunos detalles, como la ubicación y el horario de atención del lugar de votación. Es por eso que sólo se debe confiar en los sitios web relacionados con la votación si la URL termina en .gov, dijo, y agregó que “Si no sabes por dónde empezar, Puede comenzar en Vote.gov”. Este sitio web ofrece información sobre elecciones y derechos de voto. Además de enlaces a los sitios web oficiales de las elecciones de cada estado. “La capacidad de tener una gran parte de nuestro mundo digital puede ser una falsificación y disminuir nuestra credibilidad”, dijo Grobman. Al mismo tiempo, dijo, “cuando hay evidencia legítima de irregularidades, delitos y comportamientos poco éticos, Es demasiado fácil afirmar que es falso. … Nuestra capacidad para responsabilizar a las personas cuando existen pruebas también se ve perjudicada por la prevalencia de las falsificaciones digitales”.
Cómo detectar una falsificación: los votantes ven y temen cada vez más su influencia.
Posted on by admin
7 min read
You May Also Like
More From Author
«Lo siento muchísimo», dice el presidente surcoreano
diciembre 7, 2024
Una cronología muy importante de la censura estadounidense.
diciembre 7, 2024
Acusarlos a todos Que Dios los saque.
diciembre 7, 2024
+ There are no comments
Add yours