<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Patrones de comportamiento &#8211; Doble Llave</title>
	<atom:link href="https://doblellave.com/etiqueta/patrones-de-comportamiento/feed/" rel="self" type="application/rss+xml" />
	<link>https://doblellave.com</link>
	<description>Para estar más seguros</description>
	<lastBuildDate>Sat, 16 Nov 2024 14:48:50 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://doblellave.com/wp-content/uploads/2024/12/favicon.png</url>
	<title>Patrones de comportamiento &#8211; Doble Llave</title>
	<link>https://doblellave.com</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>La IA que todo lo ve ¿Podrán las normas ISO proteger nuestra privacidad?</title>
		<link>https://doblellave.com/la-ia-que-todo-lo-ve-podran-las-normas-iso-proteger-nuestra-privacidad/</link>
		
		<dc:creator><![CDATA[German Febres]]></dc:creator>
		<pubDate>Sat, 16 Nov 2024 12:00:30 +0000</pubDate>
				<category><![CDATA[Destacadas]]></category>
		<category><![CDATA[Innovación]]></category>
		<category><![CDATA[Opinión experta]]></category>
		<category><![CDATA[Prevención]]></category>
		<category><![CDATA[Reportajes]]></category>
		<category><![CDATA[América Latina]]></category>
		<category><![CDATA[Análisis de multitudes]]></category>
		<category><![CDATA[Arabia Saudita]]></category>
		<category><![CDATA[Buenos Aires]]></category>
		<category><![CDATA[China]]></category>
		<category><![CDATA[Ciudad de México]]></category>
		<category><![CDATA[Dilema ético relevante]]></category>
		<category><![CDATA[Emiratos Árabes Unidos]]></category>
		<category><![CDATA[Entre regulación y libertad]]></category>
		<category><![CDATA[Estados Unidos]]></category>
		<category><![CDATA[Fernando Arrieta]]></category>
		<category><![CDATA[Freno a los excesos]]></category>
		<category><![CDATA[Futuro del control digital]]></category>
		<category><![CDATA[G-CERTI Global Certification]]></category>
		<category><![CDATA[Israel]]></category>
		<category><![CDATA[La IA todo lo ve]]></category>
		<category><![CDATA[Libertad individual]]></category>
		<category><![CDATA[normas ISO]]></category>
		<category><![CDATA[Patrones de comportamiento]]></category>
		<category><![CDATA[Predecir conductas]]></category>
		<category><![CDATA[privacidad]]></category>
		<category><![CDATA[responsabilidad social]]></category>
		<category><![CDATA[Rusia]]></category>
		<category><![CDATA[Seguridad de la Información]]></category>
		<category><![CDATA[Singapur]]></category>
		<category><![CDATA[Tecnología]]></category>
		<category><![CDATA[Unión Europea]]></category>
		<category><![CDATA[Uso ético de la IA]]></category>
		<category><![CDATA[uso responsable]]></category>
		<category><![CDATA[vigilancia]]></category>
		<guid isPermaLink="false">https://doblellave.com/?p=328247</guid>

					<description><![CDATA[Puede que en contextos donde la privacidad no es prioridad, la adopción de estas normas sea poco probable]]></description>
										<content:encoded><![CDATA[<p><strong>DOBLE LLAVE</strong> &#8211; El especialista <strong>Fernando Arrieta</strong>, Director Regional de <strong>G-CERTI Global Certification</strong>, amplía sobre un tema que por su actualidad e interés invitamos a leer, material informativo al cual damos el atributo y calificamos de <strong>«sin desperdicio»</strong>:</p>
<p>La inteligencia artificial (IA) ha transformado nuestra vida cotidiana, desde asistentes virtuales hasta sistemas avanzados de vigilancia que monitorean calles, comercios y espacios públicos. Sin embargo, este avance plantea <strong>preguntas profundas sobre privacidad</strong>: ¿Quién controla nuestra información? ¿Hasta dónde llega la vigilancia antes de que la privacidad y libertad individual estén en riesgo?</p>
<div id="attachment_328271" style="width: 1034px" class="wp-caption alignnone"><img fetchpriority="high" decoding="async" aria-describedby="caption-attachment-328271" class="size-large wp-image-328271" src="https://doblellave.com/wp-content/uploads/2024/11/claudio-schwarz-yA_49Lnay0-unsplash-1024x627.jpg" alt="" width="1024" height="627" /><p id="caption-attachment-328271" class="wp-caption-text">Fuente de esta imagen referencial: Claudio Schwarz en Unsplash</p></div>
<p>«Hoy en día, gobiernos de todo el mundo están implementando de forma masiva IA en sistemas de vigilancia. Un estudio de <em>Carnegie Endowment for International Peace</em> reveló que, de 176 países, 75 ya emplean tecnologías de IA para vigilancia, abarcando <strong>desde reconocimiento facial hasta análisis de datos en tiempo real</strong>. De estos, 74 países usan reconocimiento facial, y 56 han desarrollado sistemas de “ciudades seguras” que monitorean el entorno en busca de riesgos».</p>
<p><strong>China</strong> lidera este despliegue con 540 millones de cámaras de vigilancia, casi una por cada dos habitantes. Esta infraestructura de vigilancia sustenta el sistema de “crédito social” chino, que puntúa el comportamiento de los ciudadanos y afecta su acceso a beneficios. Empresas chinas como Huawei y ZTE han exportado esta tecnología a 63 países, consolidando la influencia de China en la vigilancia mundial, destaca Arrieta en su escrito.</p>
<div id="attachment_328278" style="width: 1034px" class="wp-caption alignnone"><img decoding="async" aria-describedby="caption-attachment-328278" class="size-large wp-image-328278" src="https://doblellave.com/wp-content/uploads/2024/11/chris-yang-1tnS_BVy9Jk-unsplash-1024x683.jpg" alt="" width="1024" height="683" /><p id="caption-attachment-328278" class="wp-caption-text">Fuente de esta imagen referencial: Chris Yang en Unsplash</p></div>
<p>Agregando que, incluso en democracias avanzadas, como <strong>Estados Unidos</strong> y la <strong>Unión Europea</strong>, el uso de IA en vigilancia ha crecido aceleradamente. En Estados Unidos, se estima que más del 50% de las agencias de seguridad locales usan reconocimiento facial. En Europa, la vigilancia se utiliza principalmente en aeropuertos y fronteras, donde gobiernos han adoptado tecnologías de <strong>“análisis de multitudes” que identifican patrones de comportamiento</strong>.</p>
<h2>La tecnología detrás de la vigilancia total</h2>
<p>Los sistemas de vigilancia actuales pueden identificar personas en multitudes, analizar patrones y hasta<strong> predecir conductas</strong>. Según <em>Global Market Insights</em>, el mercado global de IA en vigilancia crecerá a una tasa anual del 36,8% hasta 2030, alcanzando un valor superior al billón de dólares.</p>
<p>Sin embargo, esta tecnología plantea temores sobre una vigilancia masiva que recuerda la distopía de 1984 de George Orwell. En países como <strong>Israel</strong>, <strong>Singapur</strong> y <strong>Rusia</strong>, la IA ya se emplea para monitorear redes sociales y controlar reuniones públicas en busca de contenidos “peligrosos”. Además de China y Estados Unidos, el uso de IA en vigilancia se ha expandido a regiones donde el control social es prioritario. En el Golfo Pérsico, <strong>Emiratos Árabes Unidos</strong> y <strong>Arabia Saudita</strong> han invertido en IA para vigilancia. En <strong>América Latina</strong>, ciudades como <strong>Buenos Aires</strong> y <strong>Ciudad de México</strong> implementan sistemas de “ciudades seguras” con IA, aunque a menudo sin regulaciones que protejan la privacidad de los ciudadanos; prosigue <a href="https://www.instagram.com/fernandoarrietaok/?hl=es" target="_blank" rel="noopener">Fernando Arrieta</a>.</p>
<h3>Normas ISO: un posible freno a los excesos de la IA en vigilancia</h3>
<div id="attachment_328275" style="width: 1034px" class="wp-caption alignnone"><img decoding="async" aria-describedby="caption-attachment-328275" class="size-large wp-image-328275" src="https://doblellave.com/wp-content/uploads/2024/11/natasa-grabovac-y7cHrP9UPw4-unsplash-1024x681.jpg" alt="" width="1024" height="681" /><p id="caption-attachment-328275" class="wp-caption-text">Fuente de esta imagen referencial: Natasa Grabovac en Unsplash</p></div>
<p>«Aquí es donde las normas ISO, como ISO 27001 (<strong>seguridad de la información</strong>) e ISO 26000 (<strong>responsabilidad social</strong>), pueden jugar un papel crucial. La ISO 27001 establece estándares para la protección de datos sensibles, y aunque es común en banca y salud, aún no se aplica en muchos sistemas de vigilancia a nivel gubernamental. La ISO 26000, por su parte, orienta a las organizaciones hacia prácticas éticas, respetando la privacidad individual».</p>
<p>-La adopción de estas normas podría limitar el uso excesivo de la IA en vigilancia, balanceando seguridad y privacidad. Sin embargo, su implementación es voluntaria, lo que significa que depende de la voluntad política y una ciudadanía informada que exija protección de sus derechos. <strong>En contextos donde la privacidad no es prioridad, la adopción de estas normas es poco probable, mientras que gobiernos y empresas priorizan el control social</strong>.</p>
<h4><span style="color: #ff6600;"><em><strong>El futuro del control digital: entre regulación y libertad</strong></em></span></h4>
<p>La expansión de la IA en vigilancia es <strong>uno de los dilemas éticos más relevantes de nuestro tiempo</strong>. El mercado de la IA podría alcanzar los 1,35 billones de dólares para 2030, impulsado por su adopción en sectores públicos y privados.</p>
<p>Aunque los sistemas de IA pueden mejorar la seguridad, sin regulaciones claras podrían convertirse en herramientas de control que amenacen las <strong>libertades individuales</strong>.</p>
<p>Para mitigar este riesgo, se necesita una combinación de voluntad política, adopción de normas ISO y <strong>una ciudadanía que exija un uso responsable de la IA</strong>. Aunque las normas ISO no son una solución definitiva, pueden ser un primer paso hacia un uso ético de la inteligencia artificial en vigilancia, evitando que el “Gran Hermano” digital pase de ser una metáfora a convertirse en realidad; concluye.</p>
<div id="attachment_328265" style="width: 489px" class="wp-caption alignright"><img decoding="async" aria-describedby="caption-attachment-328265" class="wp-image-328265" src="https://doblellave.com/wp-content/uploads/2024/11/El-autor.jpeg" alt="Fernando Arrieta, Director Regional G-CERTI Global Certification" width="479" height="395" /><p id="caption-attachment-328265" class="wp-caption-text">Fernando Arrieta</p></div>
<p>Autor: <strong>Fernando Arrieta</strong>, Director Regional de <a href="https://gcerti.com.ar/" target="_blank" rel="noopener"><strong>G-CERTI Global Certification</strong></a></p>
<hr />
<p>DOBLE LLAVE</p>
<p>Fuente de imagen referencial principal: Igor Omilaev en Unsplash</p>
<p><em>Visita nuestro canal de noticias en </em><a href="https://news.google.com/publications/CAAqBwgKMPvuxAswnorcAw?hl=es-419&amp;amp;gl=VE&amp;amp;ceid=VE:es-419&amp;gl=US&amp;ceid=US:es-419" target="_blank" rel="noopener"><strong><em>Google News</em></strong></a><em> y síguenos para obtener información precisa, interesante y estar al día con todo</em></p>
<p><em>También en </em><a href="https://twitter.com/doblellave" target="_blank" rel="noopener"><strong><em>X/Twitter</em></strong></a><em> e </em><a href="https://www.instagram.com/doblellave/?hl=es" target="_blank" rel="noopener"><strong><em>Instagram</em></strong></a><em> puedes conocer diariamente nuestros contenidos</em></p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
