<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>fraude financiero &#8211; Doble Llave</title>
	<atom:link href="https://doblellave.com/etiqueta/fraude-financiero/feed/" rel="self" type="application/rss+xml" />
	<link>https://doblellave.com</link>
	<description>Para estar más seguros</description>
	<lastBuildDate>Sat, 14 Mar 2026 14:00:16 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://doblellave.com/wp-content/uploads/2024/12/favicon.png</url>
	<title>fraude financiero &#8211; Doble Llave</title>
	<link>https://doblellave.com</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Amenaza creciente para las empresas, los deepfakes: Cómo reconocer las llamadas falsas con IA</title>
		<link>https://doblellave.com/amenaza-creciente-para-las-empresas-los-deepfakes-como-reconocer-las-llamadas-falsas-con-ia/</link>
		
		<dc:creator><![CDATA[German Febres]]></dc:creator>
		<pubDate>Sun, 15 Mar 2026 15:00:00 +0000</pubDate>
				<category><![CDATA[Destacadas]]></category>
		<category><![CDATA[Empresas y emprendimiento]]></category>
		<category><![CDATA[Innovación]]></category>
		<category><![CDATA[Sucesos]]></category>
		<category><![CDATA[ciberfraude]]></category>
		<category><![CDATA[Deepfakes]]></category>
		<category><![CDATA[detección proactiva de amenazas]]></category>
		<category><![CDATA[ESET]]></category>
		<category><![CDATA[ESET Ltinoamérica]]></category>
		<category><![CDATA[ESET Venezuela]]></category>
		<category><![CDATA[formación y concienciación de los empleados]]></category>
		<category><![CDATA[formas de detectar a un impostor]]></category>
		<category><![CDATA[fraude financiero]]></category>
		<category><![CDATA[herramientas]]></category>
		<category><![CDATA[inteligencia artificial generativa (GenAI)]]></category>
		<category><![CDATA[Jake Moore]]></category>
		<category><![CDATA[llamadas falsas]]></category>
		<category><![CDATA[Macio Micucci]]></category>
		<category><![CDATA[prevención]]></category>
		<category><![CDATA[resguardo]]></category>
		<category><![CDATA[secuestro de cuentas de ejecutivos]]></category>
		<category><![CDATA[transferencias bancarias]]></category>
		<category><![CDATA[“voz a voz”]]></category>
		<guid isPermaLink="false">https://doblellave.com/?p=352406</guid>

					<description><![CDATA[Desde ESET alertan que cada vez es más difícil distinguir lo real de lo generado por inteligencia artificial; la suplantación de voz ya se usa en estafas a empresarios ]]></description>
										<content:encoded><![CDATA[
<p><strong>DOBLE LLAVE</strong> &#8211; La <strong>inteligencia artificial generativa</strong> (GenAI) democratizó la <strong>creación de audio y vídeo falsos</strong>, hasta el punto de que generar un clip fabricado es<strong>tan fácil como pulsar un botón o dos</strong>. Las <strong><em>deepfakes</em></strong> pueden ser usadas de varias formas: desde <strong>eludir autenticaciones y controles, hasta infiltrarse en organizaciones creando un candidato falso y sintético para procesos de selección de personal</strong>. Sin embargo, podría decirse que <strong>la mayor amenaza que plantean es el fraude financiero/transferencias bancarias y el <a href="https://www.welivesecurity.com/en/cybercrime/the-grand-theft-of-jake-moores-voice-the-concept-of-a-virtual-kidnap/" target="_blank" rel="noreferrer noopener">secuestro de cuentas de ejecutivos</a></strong>. </p>



<p><a href="https://www.eset.com/latam/" target="_blank" rel="noreferrer noopener">ESET</a>, organización líder en detección proactiva de amenazas, acerca herramientas para poder identificar cuando una llamada es falsa.</p>



<p>El <a href="https://www.gov.uk/government/news/government-leads-global-fight-against-deepfake-threats" target="_blank" rel="noreferrer noopener">gobierno británico afirma</a> que el año pasado se compartieron hasta 8 millones de clips falsos, frente a los 500 mil que habían sido compartidos en 2023. La cifra real puede ser mucho mayor y, así las cosas, las organizaciones no obstante tienden a subestimar esta amenaza.</p>



<h4 class="wp-block-heading">Como ha demostrado&nbsp;<a href="https://www.welivesecurity.com/en/cybersecurity/your-voice-is-my-password/" target="_blank" rel="noreferrer noopener">un experimento</a>&nbsp;de Jake Moore, Global Security Advisor de ESET,&nbsp;nunca ha sido tan fácil lanzar un ataque de audio deepfake. Todo lo que se requiere es un clip corto de la víctima para ser suplantado y GenAI puede hacer el resto. Así es como podría proceder un ataque, según el equipo de ESET, especializado en prevención y detección proactiva de amenazas:</h4>



<ol class="wp-block-list">
<li>Un atacante selecciona a la persona que va a suplantar. Puede ser un CEO, un CFO o incluso un proveedor.</li>



<li>Encuentra una muestra de audio en Internet, lo que resulta bastante fácil para ejecutivos de alto nivel que hablan en público con regularidad. Puede proceder de una cuenta en las redes sociales, de una convocatoria de beneficios, de una entrevista en vídeo o televisión o de cualquier otra fuente. Unos segundos de grabación deberían bastar.</li>



<li>Seleccionan a la persona a la que van a llamar. Para ello, puede ser necesario realizar una investigación documental, normalmente en <strong>LinkedIn</strong>, en busca de personal del servicio de asistencia informática o miembros del equipo financiero.</li>



<li><strong>Pueden llamar directamente a la persona o enviar un correo electrónico por adelantado</strong>: por ejemplo, un director general que solicita una transferencia de dinero urgente, una solicitud de restablecimiento de contraseña o autenticación multifactor (MFA), o un proveedor que exige el pago de una factura vencida.</li>



<li>Llaman al objetivo preseleccionado, utilizando audio <em>deepfake</em> generado por GenAI para hacerse pasar por el CEO/proveedor. <strong>Dependiendo de la herramienta, pueden ceñirse a un discurso preestablecido o utilizar un método más sofisticado de «voz a voz»</strong> en el que la voz del atacante se traduce casi en tiempo real a la de su víctima.</li>
</ol>



<p><em>“Este tipo de ataque es cada vez más barato, sencillo y convincente. Algunas herramientas son capaces incluso de insertar ruido de fondo, pausas y tartamudeos para que la voz suplantada resulte más creíble. Cada vez imitan mejor los ritmos, las inflexiones y los tics verbales propios de cada orador. Y cuando un ataque se lanza por teléfono, los fallos relacionados con la IA pueden ser más difíciles de detectar para quien atiende”, </em>advierte <strong>Macio Micucci</strong>, <strong>Investigador</strong> de <strong>Seguridad Informática</strong> de <strong>ESET Latinoamérica</strong>.</p>



<p>Los atacantes también pueden utilizar tácticas de ingeniería social, como presionar a que la persona responda urgentemente a su petición, con el fin de lograr sus objetivos. Si a esto se le añade que a menudo se hacen pasar por un alto ejecutivo, es fácil ver por qué algunas víctimas son engañadas. Uno de los mayores errores se produjo en 2020, cuando se engañó a&nbsp;<a href="https://www.darkreading.com/cyberattacks-data-breaches/deepfake-audio-scores-35-million-in-corporate-heist" target="_blank" rel="noreferrer noopener">un empleado</a>&nbsp;de una empresa de los <strong>Emiratos Árabes Unidos</strong> haciéndole creer que su director había llamado para solicitar una transferencia de fondos de <strong>35 millones de dólares para una operación de fusión y adquisición</strong>.</p>



<h4 class="wp-block-heading">Dicho esto, hay formas de detectar a un impostor. Desde ESET sostienen que dependiendo de lo sofisticada que sea la GenAI que están utilizando, puede ser posible discernir:</h4>



<ul class="wp-block-list">
<li>Un ritmo antinatural en el discurso del orador</li>



<li>Un tono emocional antinaturalmente plano en la voz del orador</li>



<li>Respiración antinatural o incluso frases sin respiración</li>



<li>Un sonido inusualmente robótico (cuando se utilizan herramientas menos avanzadas)</li>



<li>Ruido de fondo extrañamente ausente o demasiado uniforme</li>
</ul>



<p>Además, en términos corporativos <strong>se recomienda empezar por la formación y concienciación de los empleados</strong>. Estos programas, según ESET, deben actualizarse para incluir simulaciones de audio <em>deepfake</em> que garanticen <strong>que el personal sepa qué esperar, qué está en juego y cómo actuar</strong>. Se les debe enseñar a detectar los signos reveladores de la ingeniería social y los escenarios típicos de <em>deepfake</em>. Deben realizarse ejercicios de red team para comprobar si los empleados asimilan bien <strong>el proceso correcto</strong>:</p>



<ul class="wp-block-list">
<li>Verificación fuera de banda de cualquier solicitud telefónica, es decir, utilizar cuentas de mensajería corporativas para comprobar con el remitente de forma independiente</li>



<li>Dos personas que firmen las transferencias financieras importantes o los cambios en los datos bancarios de los proveedores</li>



<li>Contraseñas o preguntas acordadas previamente que los ejecutivos deban responder para demostrar que son quienes dicen ser por teléfono</li>
</ul>



<p><em>“Las falsificaciones son sencillas y su producción cuesta poco. Dadas las enormes sumas que pueden obtener los estafadores, es poco probable que veamos pronto el final de las estafas de clonación de voz. Por lo tanto, la mejor opción que tiene una organización para mitigar el riesgo es un triple enfoque basado en las personas, los procesos y la tecnología. Para que se adapte a medida que avanza la innovación en IA, es importante que sea revisado periódicamente. El nuevo&nbsp;</em><a href="https://www.welivesecurity.com/en/cybersecurity/ai-driven-deception-new-face-corporate-fraud/" target="_blank" rel="noreferrer noopener"><em>panorama del <strong>ciberfraude</strong></em></a><em>&nbsp;exige una atención constante”, </em>concluye Micucci de ESET.</p>



<p>ESET invita a conocer más sobre seguridad informática visitando:&nbsp;<a href="https://www.welivesecurity.com/es/" target="_blank" rel="noreferrer noopener">https://www.welivesecurity.com/es/</a></p>



<p>Para obtener otros útiles datos preventivos está igualmente disponible en Venezuela:&nbsp;<a href="https://www.eset.com/ve/" target="_blank" rel="noreferrer noopener">https://www.eset.com/ve/</a>, y sus redes sociales @eset_ve. También&nbsp;<em>Instagram</em>&nbsp;(<a href="https://www.instagram.com/esetla/" target="_blank" rel="noreferrer noopener">@esetla</a>) y&nbsp;<em>Facebook</em>&nbsp;(<a href="https://www.facebook.com/ESETLA" target="_blank" rel="noreferrer noopener">ESET</a>).</p>



<p><em>Con información e imagen referencial suministradas por ESET y Comstat Rowland</em></p>



<p><strong>¡Sigue nuestras noticias en Google!</strong>&nbsp;<em>Para obtener información actual, interesante y precisa.</em>&nbsp;Haz&nbsp;<a href="https://www.google.com/search?q=site:doblellave.com&amp;tbm=nws&amp;tbs=sbd:1" target="_blank" rel="noreferrer noopener"><strong>clic aquí</strong></a>&nbsp;y conoce todos los contenidos de&nbsp;<strong>DOBLE LLAVE</strong>. Encuéntranos también en&nbsp;<a href="https://twitter.com/doblellave" target="_blank" rel="noreferrer noopener"><em><strong>X/Twitter</strong></em></a>&nbsp;e&nbsp;<a href="https://www.instagram.com/doblellave/?hl=es" target="_blank" rel="noreferrer noopener"><em><strong>Instagram</strong></em></a></p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
