<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Número 13 - Revistas Uniandes | Multimedia</title>
	<atom:link href="https://openscience.uniandes.edu.co/category/dialogos/numero-13/feed/" rel="self" type="application/rss+xml" />
	<link>https://openscience.uniandes.edu.co</link>
	<description>Espacio dirigido a audiencias diversas: académicos, comunidades, docentes, estudiantes. La tipología de contenidos es amplia: entrevista, ponencia, artículo breve de reflexión, documento de trabajo, resultados parciales de una investigación, ensayo fotográfico,  entre otros.</description>
	<lastBuildDate>Tue, 25 Nov 2025 19:15:47 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>
	<item>
		<title>La revolución silenciosa: inteligencia artificial, justicia social y cambio comunitario</title>
		<link>https://openscience.uniandes.edu.co/la-revolucion-silenciosa-inteligencia-artificial-justicia-social-y-cambio-comunitario/</link>
		
		<dc:creator><![CDATA[naturalezaysociedad@uniandes.edu.co]]></dc:creator>
		<pubDate>Tue, 26 Aug 2025 20:09:41 +0000</pubDate>
				<category><![CDATA[Diálogos - Naturaleza y Sociedad. Desafíos Medioambientales]]></category>
		<category><![CDATA[Número 13]]></category>
		<guid isPermaLink="false">https://openscience.uniandes.edu.co/?p=3621</guid>

					<description><![CDATA[<p>Número 13 &#8211; Tema libre La revolución silenciosa: inteligencia artificial, justicia social y cambio comunitario https://doi.org/10.53010/nys.dia.09 Sara Duque Ruíz Escritora, investigadora y editora del artículo. Trabajadora Social de la Universidad de Antioquia. saraduqueruiz75@gmail.com. ORCID: https://orcid.org/0009-0003-4182-3986 “Las tecnologías no son inocentes: llevan las huellas dactilares de quienes detentan el poder”. —Ruha Benjamin (2019). Introducción La pregunta no [&#8230;]</p>
<p>The post <a href="https://openscience.uniandes.edu.co/la-revolucion-silenciosa-inteligencia-artificial-justicia-social-y-cambio-comunitario/">La revolución silenciosa: inteligencia artificial, justicia social y cambio comunitario</a> first appeared on <a href="https://openscience.uniandes.edu.co">Revistas Uniandes | Multimedia</a>.</p>]]></description>
										<content:encoded><![CDATA[<p><img decoding="async" src="https://naturalezaysociedad.blob.core.windows.net/dialogos/banner/nys_banner.jpg" alt=""></p>
<div><a href="https://revistas.uniandes.edu.co/index.php/nys/article/view/11669">Número 13 &#8211; Tema libre</a></div>
<h1>
<p><span>La revolución silenciosa: inteligencia artificial, justicia social y cambio comunitario</span></p>
</h1>
<div>
<p><a href="https://doi.org/10.53010/nys.dia.09">https://doi.org/10.53010/nys.dia.09</a></p>
</p>
</div>
<h3>Sara Duque Ruíz</h3>
<div>
<p>Escritora, investigadora y editora del artículo. Trabajadora Social de la Universidad de Antioquia. <a href="mailto:saraduqueruiz75@gmail.com">saraduqueruiz75@gmail.com</a>. ORCID: <a href="https://orcid.org/0009-0003-4182-3986">https://orcid.org/0009-0003-4182-3986</a></p>
</div>
<hr>
<div>
<p style="text-align: right;">“Las tecnologías no son inocentes: llevan las huellas dactilares de quienes detentan el poder”. <br />—Ruha Benjamin (2019).</p>
</div>
<div>
<h1>Introducción</h1>
<p>La pregunta no es si la IA transformará nuestras comunidades, sino en beneficio de quién. Por lo tanto, hablaremos de este fenómeno como una revolución silenciosa, pues el despliegue de sistemas algorítmicos no es notorio en un inicio: avanzan a través de protocolos, bases de datos y decisiones automatizadas que se infiltran en la vida cotidiana. Su “silencio” radica en que sus efectos se perciben como resultados “neutrales”, cuando en realidad reproducen o disputan relaciones históricas de poder.</p>
<p>Para desglosar estos conceptos, inicialmente delimitamos el marco teórico que articula justicia social, decolonialidad y ética algorítmica. Luego, se describe el caso de la auditoría ciudadana al Sisbén IV y se detallan las tensiones entre sesgo algorítmico y organización popular. Para dar paso a la discusión, se proponen cinco principios para una IA comunitaria y decolonial, para integrar hallazgos empíricos y debates teóricos. Finalmente, a modo de conclusión, se discuten las implicaciones de una IA en la que participen las comunidades y se cuestione la ética detrás de los procesos.</p>
<p>Metodológicamente, el análisis se aproxima a un enfoque hermenéutico (al interpretar cómo los discursos sobre la IA configuran sentidos de justicia y poder en América Latina) y crítico (al contrastar esos discursos con prácticas concretas mediante la auditoría al algoritmo del Sisbén IV entre 2021 y 2024). Se emplearon técnicas de análisis documental y análisis comparativo de datos públicos para identificar sesgos y evaluar respuestas institucionales. Esta triangulación permite evidenciar persistencias coloniales en los circuitos de datos y, a la vez, la posibilidad de reorientar la tecnología hacia el bien común mediante gobernanza participativa.</p>
</div>
<hr>
<div>
<h2><span>¿Por qué la IA no es neutral? Hacia una ética desde el Sur</span></h2>
<p>La seducción de la IA reside en su promesa de neutralidad. Sin embargo, las máquinas aprenden de datos anclados a estructuras de opresión (Benjamin, 2019; Noble, 2018). Por ejemplo, Buolamwini y Gebru (2018) ilustraron cómo los sistemas de reconocimiento facial fallan con mayor frecuencia en rostros racializados, fenómeno que Ruha Benjamin bautizó como <em>New Jim Code</em>. En América Latina, donde la brecha social es histórica, este <em>código</em> adquiere matices de colonialidad: los algoritmos no solo discriminan, sino que exportan criterios forjados lejos de los contextos que pretenden gobernar. La IA, por tanto, se convierte en el nuevo galeón de la extracción de valor cognitivo (Ricaurte, 2019).</p>
<p>Aceptar este diagnóstico implica repensar la ética. Los marcos globales, como los principios de la OCDE o las directrices de la Unesco, ofrecen referencias valiosas, pero a menudo parten de cosmologías eurocéntricas (Mignolo, 2011), es decir, visiones del mundo gestadas en la historia y la experiencia europea, que se presentan a sí mismas como universales. Desde el Sur Global se invoca otro prisma: la ética decolonial, que exige justicia cognitiva. Este concepto, acuñado por Boaventura de Sousa Santos (2014), parte de la convicción de que todos los pueblos poseen repertorios de conocimiento igualmente legítimos, desde la ciencia académica hasta la medicina tradicional o la jurisprudencia indígena, y que negar esa diversidad es una forma de injusticia. Por tanto, lograr justicia cognitiva implica redistribuir poder epistémico: cuestionar quién decide qué datos recopilar, cómo se interpretan y para qué fines se usan.</p>
</div>
<div>
<h2><span>Un ejemplo revelador: el algoritmo del Sisbén IV</span></h2>
<p>En 2021, Colombia puso en marcha el Sisbén IV<a href="#_ftn1" name="_ftnref1"><span>[1]</span></a>. El Sisbén combina una encuesta presencial que recoge datos sobre ingreso, condiciones de vivienda y acceso a servicios, con un modelo de puntaje que ordena a los hogares en grupos de menor a mayor vulnerabilidad. Ese puntaje determina la entrada a subsidios como salud, transferencias monetarias o becas educativas, de modo que el sistema se presenta como un mecanismo “técnico” para asignar recursos públicos con mayor precisión.</p>
<p>Sin embargo, una auditoría ciudadana liderada por colectivos afrodescendientes y organizaciones de derechos digitales reveló que el algoritmo de Sisbén IV penalizaba a familias de la región pacífica que carecían de recibos formales de servicios públicos, un requisito implícito en varias variables predictoras. La ausencia de esa documentación redujo su puntaje en promedio un 12 %, lo que limita su acceso a salud y educación (Smart, 2024).</p>
<p>Así, quedó demostrado que el sesgo no se encontraba solo en la programación, sino en la lógica de datos que invisibilizaba prácticas de economía informal (Smart, 2024). Al confrontar al Departamento Nacional de Planeación, los colectivos afrodescendientes y organizaciones de derechos digitales exigieron la apertura del código fuente, es decir, la publicación de las reglas de clasificación para permitir su auditoría externa y la reclasificación de variables desde una perspectiva intercultural (Colectivo EtniCidad, 2023). Tras varios meses de diálogo público, el Gobierno expidió la Resolución 1178 de 2023, que incorpora indicadores de pertenencia étnica y redes de cuidado comunitario en el Sisbén IV (DNP, 2023).</p>
<p>Este caso ilustra dos hallazgos clave. Primero, los algoritmos reproducen jerarquías cuando se alimentan con datos “colonizados”, es decir, basados en supuestos urbanos y formales que desatienden economías informales y modos de vida rurales. Y segundo, la movilización social puede reconfigurar la infraestructura de poder digital, y obliga a la aplicación de ajustes normativos y técnicos que amplían la justicia distributiva y epistémica (Benjamin, 2019).</p>
<p>La auditoría al Sisbén refleja un principio más amplio: sin soberanía de datos no hay justicia social en la era algorítmica. Dicha soberanía implica que las personas y colectivos tengan el derecho a gobernar todo el ciclo de vida de la información que les concierne, desde la recolección, almacenamiento, procesamiento y finalmente reutilización de sus datos, de acuerdo con sus valores, normas y prioridades (Kukutai y Taylor, 2016; Rainie <em>et al</em>., 2017). Este enfoque, originado en las luchas de los pueblos indígenas por controlar sus registros demográficos y territoriales, se ha ampliado para cuestionar que los datos de las comunidades queden cautivos en infraestructuras empresariales o estatales, que rara vez rinden cuentas a quienes generan esa información (Milan y Treré, 2019).</p>
<p>A esta reivindicación se suma la ciencia ciudadana, definida como la participación abierta del público en procesos científicos (Haklay, 2013). En la última década, han surgido plataformas donde las mismas comunidades entrenan modelos y curan bases de datos, lo que permite unificar el conocimiento local con técnicas de aprendizaje automático.</p>
<p>La relación entre soberanía de datos y ciencia ciudadana es sinérgica: la primera establece el marco ético-político, que garantiza que los datos permanezcan bajo control comunitario, mientras la segunda provee los métodos participativos que transforman esos datos en inteligencia colectiva. Esta sinergia promueve la participación ciudadana, en tanto convierte la IA en una herramienta de autodeterminación, capaz de redistribuir poder epistémico y disputar el monopolio de la predicción ambiental y social históricamente reservada a agencias estatales o corporativas.</p>
<p>Esta premisa lleva a pensar en la manera de poner la IA al servicio de la justicia social, mediante la convergencia de la soberanía de datos y la ciencia ciudadana. Para esto, es posible visibilizar la justicia en tres dimensiones, como propone Fraser (2000): distributiva, de reconocimiento y de representación.</p>
</div>
<p><img decoding="async" src="/wp-content/uploads/2025/08/Imagen_IA-1.png" alt="Dimensiones de justicia social aplicada a la IA"></p>
<div>
<p style="text-align: center;"><strong>Figura 1.</strong> Representación de las tres dimensiones de la justicia social —distributiva, de reconocimiento y de representación— propuestas por Fraser (2000) y su intersección en los sistemas de IA. Fuente: elaboración propia.</p>
</div>
<div>
<p>El uso de la IA transversaliza las tres a la vez:</p>
<ul>
<li><strong>Distributiva:</strong> ¿quién recibe beneficios o carga los costos de una decisión algorítmica?</li>
<li><strong>Reconocimiento:</strong> ¿qué identidades y saberes son validados en los datos?</li>
<li><strong>Representación:</strong> ¿quién participa en el diseño y la gobernanza del sistema?</li>
</ul>
<p>Otro caso que permite evaluar la magnitud del impacto de la inteligencia artificial es el proyecto comunitario Alerta de Mareas Rojas, en Cartagena (Colombia), producto de la iniciativa comunitaria. Revela cómo la tecnología puede apalancar la justicia social cuando se articula con saberes territoriales y procesos participativos. Este proyecto comunitario creado en 2022 por pescadores artesanales de Cartagena junto con la Universidad de Cartagena e INVEMAR<a href="#_ftn1" name="_ftnref1"><span>[2]</span></a>, integró sensores de bajo costo con redes neuronales para predecir floraciones algales (International Science Council, 2025). Gracias a estas alertas, las familias pesqueras evitan pérdidas de capturas, confirman sus saberes sobre el color y olor del agua, y participan en un comité que decide cada mejora que se implementa al sistema. Respecto a este caso de participación ciudadana a través de algoritmo, se pueden identificar las tres dimensiones de justicia:</p>
<ul>
<li><strong>Distributiva:</strong> las alertas tempranas protegen la pesca artesanal, principal sustento de los hogares, al evitar cierres imprevistos que solo beneficiarían a las grandes navieras<a href="#_ftn2" name="_ftnref2"><span>[3]</span></a>.</li>
<li><strong>Reconocimiento:</strong> el modelo incorpora indicadores cualitativos aportados por pescadores sobre cambios de color y olor del agua, para validad conocimiento local que no aparece en bases de datos oficiales.</li>
<li><strong>Representación:</strong> una mesa técnica comunitaria decide cómo y cuándo se recalibra el algoritmo, para garantizar que las comunidades costeras tengan voz y voto en la gobernanza de la plataforma.</li>
</ul>
<p>Si se compara el ejemplo anterior con el caso del Sisbén, la dimensión distributiva se hizo evidente en la asignación de subsidios. El reconocimiento falló al invisibilizar las situaciones sociales y económicas de las comunidades afro, y la representación comenzó a repararse cuando el colectivo ingresó a la mesa técnica. Estos hechos evidencian que la justicia algorítmica va más allá de eliminar sesgos aislados: exige articular la equidad distributiva, el reconocimiento intercultural y la participación democrática en el ciclo de vida de los datos. Por ello, se propone un enfoque comunitario y participativo que combine soberanía de datos, ciencia ciudadana y marcos de gobernanza ética para que la IA contribuya a la transformación social en lugar de reproducir desigualdades (Benjamin, 2019; Crawford, 2021).</p>
</div>
<div>
<h2><span>Principios para una IA decolonial y comunitaria</span></h2>
<p>A la luz de estas reflexiones, se proponen cinco principios concebidos como puntos de conversación que deben articularse en el uso de la IA en procesos sociales: participación vinculante, apertura deliberativa, cuidado ecosocial, redistribución de valor y educación crítica.</p>
<p>En primer lugar, la participación vinculante exige que todo sistema capaz de afectar derechos incorpore mesas comunitarias con poder de voto efectivo, derecho de veto y evaluación periódica. De este modo las comunidades son escuchadas para que puedan incidir materialmente en las decisiones, como la definición de objetivos, métricas y salvaguardas.</p>
<p>En segundo lugar, es necesario promover una apertura deliberativa, que hace referencia a la transparencia en los procesos, como ir más allá de la mera publicación del código, pues también implica liberar los datos y las métricas de desempeño, lo que asegura una rendición de cuentas completa y diferenciada.</p>
<p>Asimismo, el cuidado ecosocial procura alinear la IA con la mitigación climática y la protección de la vida humana y no humana. El término combina dos perspectivas: la ecológica, preservar los sistemas biofísicos que sostienen la vida; y la perspectiva social, que se ocupa de las relaciones de poder y la distribución de riesgos y beneficios (Benach y Muñoz, 2021; Krieger, 2012) para integrar parámetros ambientales y éticos en todo el ciclo de vida tecnológico.</p>
<p>Este enfoque se complementa con la redistribución de valor, que implica que las plataformas que se lucran de datos comunitarios deben constituir fondos que devuelvan beneficios económicos o sociales a las propias comunidades que generan dicha información.</p>
<p>Finalmente, estos principios solo serán sostenibles si se incorpora una educación crítica que, desde la escuela primaria, no solo enseñe alfabetización digital básica, sino también epistemología de datos, de manera que cualquier persona pueda interpelar un algoritmo con la misma solvencia con la que cuestiona un libro de texto, lo que podría garantizar una ciudadanía plenamente informada y empoderada frente a los sistemas sociotécnicos que configuran su vida cotidiana.</p>
<p>Estos principios están diseñados para las instituciones que inciden en las comunidades donde la IA se implementa; por ello, el Estado y los demás organismos públicos no pueden delegar la ética en simples “códigos de conducta” voluntarios. Se requieren marcos regulatorios, evaluaciones de impacto algorítmico <em>ex ante</em> y <em>ex post</em>, registros públicos de modelos y sanciones proporcionales. Actualmente, Brasil discute el Proyecto de Ley n.º 2338 de 2023<a href="#_ftn1" name="_ftnref1"><span>[4]</span></a>, que dota a la IA de un enfoque basado en derechos; la Unión Europea ha publicado el <em>Artificial Intelligence Act</em> en su Diario Oficial<a href="#_ftn2" name="_ftnref2"><span>[5]</span></a>; y Colombia, tras las controversias del Sisbén IV, abrió consultas sobre una Política Nacional de IA Ética que prevé un consejo ciudadano permanente<a href="#_ftn3" name="_ftnref3"><span>[6]</span></a>.</p>
<p>Estas experiencias demuestran que la regulación efectiva combina obligaciones jurídicas con participación social. Por esto al tratar el tema de la IA a espacios de conversación se sabe que el entusiasmo tecnológico o el rechazo visceral a la tecnología no bastan para plantearnos su uso e impacto. La IA puede amplificar las posibilidades cuando las comunidades son autoras de sus propios datos, pero también puede convertirse en una problemática si se desvincula de la participación social. Vale la pena recordar la advertencia realizada por Eubanks (2018): automatizar la desigualdad es más fácil que erradicarla.</p>
<p><a href="#_ftnref1" name="_ftn1"><span></span></a></p>
</div>
<hr>
<div>
<h1><span>Conclusiones</span></h1>
<p>La “revolución silenciosa” consiste en decidir, de manera consciente y colectiva, cómo se espera que la inteligencia artificial moldee las vidas de las personas, al pretender que pase desapercibida y tome decisiones por nosotros, o si habrá participación activa para un uso ético de las nuevas tecnologías. Dentro de la discusión se planteó el favorecimiento de la justicia social, y por ello se propusieron cinco principios enlazados entre sí que podrían aportar a la conversación: la participación vinculante, que otorga a las comunidades poder real de decisión sobre cualquier sistema que afecte sus derechos; la apertura deliberativa, que exige transparencia plena no solo del código, sino también de los datos y las métricas de desempeño; el cuidado ecosocial, que alinea los objetivos algorítmicos con la protección de la vida humana y no humana; la redistribución de valor, mediante la cual las plataformas que obtienen beneficios de los datos comunitarios devuelven parte de esos beneficios a quienes los generan; y, finalmente, la educación crítica, que forma a la ciudadanía para interpelar y moldear la tecnología desde temprana edad. Estos principios muestran que la IA no es inevitablemente justa ni injusta: su impacto depende de las reglas y de los pactos sociales que la acompañan.</p>
<p>Esta mirada convoca a pensar si la inteligencia artificial, lejos de ser una solución neutral, se despliega como un territorio donde se entrelazan disputas éticas, políticas y epistémicas. Al observar el caso del Sisbén IV, se advierte cómo los algoritmos pueden profundizar asimetrías históricas cuando se alimentan de datos sesgados, pero también cómo pueden reorientarse cuando las comunidades reclaman voz y soberanía sobre su información. Ese punto de partida nos lleva a dialogar con la ética decolonial, el cuidado ecosocial y los principios de participación democrática, con la esperanza de articularlos en un marco que acompañe los futuros desarrollos tecnológicos.</p>
<p>Si algo queda claro es que los algoritmos, por sí mismos, ni perpetúan ni corrigen injusticias: son las relaciones y ausencias de poder las que determinan su trayectoria. De ahí que el compromiso ético no pueda limitarse a lineamientos abstractos ni a apelaciones a la transparencia, sino que deba encarnarse en procesos de deliberación colectiva, marcos regulatorios y prácticas de ciencia ciudadana que devuelvan la agencia a quienes históricamente han sido objeto, y no sujeto, de la mirada estadística.</p>
<p>La invitación final es, por tanto, a mantener abierto este proceso: a cuestionar cada métrica, cada dato y cada decisión de diseño desde la pregunta por la justicia, la memoria y la pluralidad de saberes. Si la IA ha de servir para imaginar futuros más dignos, necesitará nutrirse de pactos sociales que la excedan, de políticas que la interroguen y de comunidades que la escuchen y la transformen.</p>
<p>Se extiende entonces una invitación a promover la discusión más allá de estas páginas. Que cada línea de código lleve impresa la huella de un pacto social donde la justicia no sea un subproducto, sino la razón de ser de la innovación. Porque, al final, la IA será tan justa como lo sea la comunidad que la sueña, la diseña y la modera.</p>
</div>
<div>
<h1>Referencias bibliográficas</h1>
<p>Benjamin, R. (2019). <em>Race after technology: Abolitionist tools for the New Jim Code</em>. Polity Press.</p>
<p>Buolamwini, J. y Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial gender classification. <em>Proceedings of Machine Learning Research</em>, <em>81</em>, 77-91. <a href="https://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf">https://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf</a></p>
<p>Castells, M. (2012). <em>Redes de indignación y esperanza: Movimientos sociales en la era de Internet</em>. Alianza Editorial.</p>
<p>Colectivo EtniCidad (2023, 22 de marzo). <em>Carta abierta al DNP sobre sesgos étnicos en el Sisbén IV</em>. <a href="https://colectivoetnicidad.org/sisben-iv">https://colectivoetnicidad.org/sisben-iv</a></p>
<p>Departamento Nacional de Planeación (2023). <em>Resolución 1178: Modificación de variables diferenciales en el Sisbén IV</em>.</p>
<p>de Sousa Santos, B. (2014). <em>Epistemologies of the South: Justice against epistemicide</em>. Routledge.</p>
<p>Dignum, V. (2019). <em>Responsible artificial intelligence: How to develop and use AI in a responsible way</em>. Springer. <a href="https://doi.org/10.1007/978-3-030-30371-6">https://doi.org/10.1007/978-3-030-30371-6</a></p>
<p>Eubanks, V. (2018). <em>Automating inequality: How high‑tech tools profile, police, and punish the poor</em>. St. Martin’s Press.</p>
<p>Floridi, L. (2023). <em>The ethics of artificial intelligence</em>. Oxford University Press. <a href="https://doi.org/10.1093/oso/9780198883098.001.0001">https://doi.org/10.1093/oso/9780198883098.001.0001</a>  </p>
<p>Fraser, N. (2000). Rethinking recognition. <em>New Left Review</em>, <em>3</em>, 107–120.</p>
<p>Haklay, M. (2013). Citizen science and volunteered geographic information: Overview and typology. En D. Sui, S. Elwood y M. Goodchild (Eds.), <em>Crowdsourcing geographic knowledge</em> (pp. 105–122). Springer. <a href="https://doi.org/10.1007/978-94-007-4587-2_7">https://doi.org/10.1007/978-94-007-4587-2_7</a></p>
<p>International Science Council (2025). <em>Artificial intelligence in Latin America: Case study Colombia</em>. International Science Council.</p>
<p>Kukutai, T. y Taylor, J. (Eds.) (2016). <em>Indigenous data sovereignty: Toward an agenda</em>. ANU Press. <a href="https://doi.org/10.22459/CAEPR38.11.2016">https://doi.org/10.22459/CAEPR38.11.2016</a></p>
<p>Milan, S. y  Treré, E. (2019). Big data from the South(s): Beyond data universalism. <em>Television &amp; New Media</em>, <em>20</em>(4), 319–335. <a href="https://doi.org/10.1177/1527476419837739">https://doi.org/10.1177/1527476419837739</a>  </p>
<p>Mignolo, W. D. (2011). <em>The darker side of Western modernity: Global futures, decolonial options</em>. Duke University Press.</p>
<p>Noble, S. U. (2018). <em>Algorithms of oppression: How search engines reinforce racism</em>. NYU Press. <a href="https://doi.org/10.2307/j.ctt1pwt9w5">https://doi.org/10.2307/j.ctt1pwt9w5</a> </p>
<p>Rainie, S. C., Schultz, J. L., Briggs, E., Riggs, P. y Palmanteer‑Holder, N. L. (2017). Data as strategic resource: Self‑determination and the data challenge for United States Indigenous nations. <em>International Indigenous Policy Journal</em>,<em> 8</em>(2), 1–29. <a href="https://doi.org/10.18584/iipj.2017.8.2.1">https://doi.org/10.18584/iipj.2017.8.2.1</a>  </p>
<p>Ricaurte, P. (2019). Data epistemologies, the coloniality of power, and resistance. <em>Television &amp; New Media</em>, <em>20</em>(4), 350–365. <a href="https://doi.org/10.1177/1527476419831640">https://doi.org/10.1177/1527476419831640</a></p>
<p>Smart, V. (2024). <em>Algorithmic discrimination in Latin American welfare states</em>. Carr Center Discussion Paper  24‑01. Harvard University. <a href="https://www.hks.harvard.edu/sites/default/files/2024-08/24_Smart_Final_01.pdf">https://www.hks.harvard.edu/sites/default/files/2024-08/24_Smart_Final_01.pdf</a></p>
<p>Stake, R. E. (1995). <em>The art of case study research</em>. Sage Publications.</p>
</div>
<div>
<h2><span>Notas al pie</span></h2>
<p><a href="https://openscience.uniandes.edu.co/la-revolucion-silenciosa-inteligencia-artificial-justicia-social-y-cambio-comunitario/#_ftnref1" name="_ftn1"><span>[1]</span></a><span> Sistema de Identificación y Clasificación de Potenciales Beneficiarios de Programas Sociales en Colombia, la cuarta actualización de un instrumento creado en 1994 y administrado por el Departamento Nacional de Planeación (DNP).</span></p>
<p><a href="https://openscience.uniandes.edu.co/la-revolucion-silenciosa-inteligencia-artificial-justicia-social-y-cambio-comunitario/#_ftnref1" name="_ftn1"><span>[2]</span></a><span> </span>Instituto de Investigaciones Marinas y Costeras, organización que administra los datos de investigación costera, vinculada al Ministerio de Ambiente de Colombia.</p>
<p><a href="https://openscience.uniandes.edu.co/la-revolucion-silenciosa-inteligencia-artificial-justicia-social-y-cambio-comunitario/#_ftnref2" name="_ftn2"><span>[3]</span></a><span> </span>Empresa que opera barcos para mover cargas o pasajeros por mar.</p>
<p><a href="https://openscience.uniandes.edu.co/la-revolucion-silenciosa-inteligencia-artificial-justicia-social-y-cambio-comunitario/#_ftnref1" name="_ftn1"><span>[4]</span></a><span> </span>Texto completo disponible en el portal del Senado Federal de Brasil: Projeto de Lei n.º 2338/2023 (Senado Federal, 2024).</p>
<p><a href="https://openscience.uniandes.edu.co/la-revolucion-silenciosa-inteligencia-artificial-justicia-social-y-cambio-comunitario/#_ftnref2" name="_ftn2"><span>[5]</span></a><span> </span>El<span> </span><em>Artificial Intelligence Act</em><span> </span>es el primer marco legal integral sobre IA del mundo, el cual es oficial y ha iniciado su calendario de aplicación obligatoria. Las organizaciones que desarrollen, comercialicen o utilicen IA en la UE —incluidas las construidas fuera de la UE que quieran operar en su mercado— deben empezar a evaluar sus sistemas bajo el enfoque de riesgo del AI Act y prepararse para demostrar cumplimiento dentro de los plazos señalados. Versión oficial del Regulation (EU) 2024/1689 —Artificial Intelligence Act— en el Diario Oficial de la Unión Europea (European Parliament &amp; Council, 2024).</p>
<p><a href="https://openscience.uniandes.edu.co/la-revolucion-silenciosa-inteligencia-artificial-justicia-social-y-cambio-comunitario/#_ftnref3" name="_ftn3"><span>[6]</span></a><span> </span>Documento CONPES 4144: Política Nacional de Inteligencia Artificial accesible en la página del Departamento Nacional de Planeación de Colombia (DNP, 2025).</p>
</div>
<div>
<blockquote>
<p><span>La invitación final es, por tanto, a mantener abierto este proceso: a cuestionar cada métrica, cada dato y cada decisión de diseño desde la pregunta por la justicia, la memoria y la pluralidad de saberes. Si la IA ha de servir para imaginar futuros más dignos, necesitará nutrirse de pactos sociales que la excedan, de políticas que la interroguen y de comunidades que la escuchen y la transformen.</span></p>
</blockquote>
</div>
<hr>
<p><a href="https://creativecommons.org/licenses/by-nc-nd/4.0/deed.es"><img decoding="async" src="/wp-content/uploads/2022/12/CC_BY-NC-ND_icon-88x31-1.png" alt=" CC_BY-NC-ND"></a></p>
<h6>Estos contenidos están bajo una Licencia Creative Commons Atribución-NoComercial-SinDerivar 4.0 Internacional</h6>
<p><span id="more-3621"></span><br />
<!-- {"type":"layout","children":[{"name":"Hero","type":"section","props":{"image_position":"center-center","padding_remove_top":true,"style":"default","title_breakpoint":"xl","title_position":"top-left","title_rotation":"left","vertical_align":"","width":""},"children":[{"type":"row","children":[{"type":"column","props":{"image_position":"center-center","position_sticky_breakpoint":"m","width_medium":"1-1"},"children":[{"type":"image","props":{"image":"https:\/\/naturalezaysociedad.blob.core.windows.net\/dialogos\/banner\/nys_banner.jpg","image_loading":true,"image_svg_color":"emphasis","image_width":"2560","margin":""}}]}]}]},{"name":"Terms","type":"section","props":{"image":"wp-content\/uploads\/2025\/08\/Adobe-Express-file-scaled.jpg","image_effect":"fixed","image_position":"center-center","image_size":"cover","media_background":"rgba(178, 112, 239, 0.86)","media_blend_mode":"multiply","media_overlay":"rgba(215, 186, 168, 0.34)","style":"default","text_color":"light","title_breakpoint":"xl","title_position":"top-left","title_rotation":"left","vertical_align":"","width":"small"},"children":[{"type":"row","children":[{"type":"column","props":{"image_position":"center-center","position_sticky_breakpoint":"m","width_medium":"1-1"},"children":[{"name":"Headline Decoration Line Center","type":"headline","props":{"block_align":"center","content":"","text_align":"center","title_decoration":"line","title_element":"h5"}},{"type":"headline","props":{"content":"N\u00famero 13 - Tema libre","link":"https:\/\/revistas.uniandes.edu.co\/index.php\/nys\/article\/view\/11669","margin_remove_bottom":true,"title_color":"emphasis","title_decoration":"line","title_element":"div","title_style":"h5"},"name":"Titulo revista"},{"name":"Art\u00edculo","type":"headline","props":{"blend":false,"content":"

<p><span>La revoluci\u00f3n silenciosa: inteligencia artificial, justicia social y cambio comunitario<\/span><\/p>","margin":"small","margin_remove_bottom":false,"margin_remove_top":false,"title_color":"secondary","title_element":"h1","title_style":"heading-small"}},{"type":"text","props":{"column_breakpoint":"m","content":"

<p><a href=\"https:\/\/doi.org\/10.53010\/nys.dia.09\">https:\/\/doi.org\/10.53010\/nys.dia.09<\/a><\/p>\n

<p><\/p>","margin":"default"},"name":"doi"},{"name":"Autor","type":"headline","props":{"block_align":"center","content":"Sara Duque Ru\u00edz","title_decoration":"bullet","title_element":"h3"}},{"type":"text","props":{"column_breakpoint":"m","content":"

<p>Escritora, investigadora y editora del art\u00edculo. Trabajadora Social de la Universidad de Antioquia. <a href=\"mailto:saraduqueruiz75@gmail.com\">saraduqueruiz75@gmail.com<\/a>. ORCID: <a href=\"https:\/\/orcid.org\/0009-0003-4182-3986\">https:\/\/orcid.org\/0009-0003-4182-3986<\/a><\/p>","margin":"default","text_color":"emphasis"},"name":"Biografia"},{"name":"Divider Style Default","type":"divider","props":{"divider_element":"hr"}}]}]},{"type":"row","props":{"margin":"large"},"children":[{"type":"column","props":{"image_position":"center-center","position_sticky_breakpoint":"m","width_medium":"1-1"},"children":[{"type":"text","props":{"column_breakpoint":"m","content":"

<p style=\"text-align: right;\">\u201cLas tecnolog\u00edas no son inocentes: llevan las huellas dactilares de quienes detentan el poder\u201d. <br \/>\u2014Ruha\u202fBenjamin (2019).<\/p>","margin":"default","text_style":"lead"}}]}]}]},{"type":"section","props":{"image_position":"center-center","style":"default","title_breakpoint":"xl","title_position":"top-left","title_rotation":"left","vertical_align":"","width":"default"},"children":[{"type":"row","props":{"width":"small"},"children":[{"type":"column","props":{"image_position":"center-center","position_sticky_breakpoint":"m"},"children":[{"type":"text","props":{"column_breakpoint":"m","column_divider":false,"content":"

<h1>Introducci\u00f3n<\/h1>\n

<p>La pregunta no es si la IA transformar\u00e1 nuestras comunidades, sino en beneficio de qui\u00e9n. Por lo tanto, hablaremos de este fen\u00f3meno como una revoluci\u00f3n silenciosa, pues el despliegue de sistemas algor\u00edtmicos no es notorio en un inicio: avanzan a trav\u00e9s de protocolos, bases de datos y decisiones automatizadas que se infiltran en la vida cotidiana. Su \u201csilencio\u201d radica en que sus efectos se perciben como resultados \u201cneutrales\u201d, cuando en realidad reproducen o disputan relaciones hist\u00f3ricas de poder.<\/p>\n

<p>Para desglosar estos conceptos, inicialmente delimitamos el marco te\u00f3rico que articula justicia social, decolonialidad y \u00e9tica algor\u00edtmica. Luego, se describe el caso de la auditor\u00eda ciudadana al Sisb\u00e9n\u202fIV y se detallan las tensiones entre sesgo algor\u00edtmico y organizaci\u00f3n popular. Para dar paso a la discusi\u00f3n, se proponen cinco principios para una IA comunitaria y decolonial, para integrar hallazgos emp\u00edricos y debates te\u00f3ricos. Finalmente, a modo de conclusi\u00f3n, se discuten las implicaciones de una IA en la que participen las comunidades y se cuestione la \u00e9tica detr\u00e1s de los procesos.<\/p>\n

<p>Metodol\u00f3gicamente, el an\u00e1lisis se aproxima a un enfoque hermen\u00e9utico (al interpretar c\u00f3mo los discursos sobre la IA configuran sentidos de justicia y poder en Am\u00e9rica Latina) y cr\u00edtico (al contrastar esos discursos con pr\u00e1cticas concretas mediante la auditor\u00eda al algoritmo del Sisb\u00e9n\u202fIV entre 2021 y 2024). Se emplearon t\u00e9cnicas de an\u00e1lisis documental y an\u00e1lisis comparativo de datos p\u00fablicos para identificar sesgos y evaluar respuestas institucionales. Esta triangulaci\u00f3n permite evidenciar persistencias coloniales en los circuitos de datos y, a la vez, la posibilidad de reorientar la tecnolog\u00eda hacia el bien com\u00fan mediante gobernanza participativa.<\/p>","margin":"default","text_color":"emphasis"}},{"type":"divider","props":{"divider_element":"hr"}},{"type":"text","props":{"column_breakpoint":"m","content":"

<h2><span>\u00bfPor qu\u00e9 la IA no es neutral? Hacia una \u00e9tica desde el Sur<\/span><\/h2>\n

<p>La seducci\u00f3n de la IA reside en su promesa de neutralidad. Sin embargo, las m\u00e1quinas aprenden de datos anclados a estructuras de opresi\u00f3n (Benjamin,\u202f2019; Noble,\u202f2018). Por ejemplo, Buolamwini y\u202fGebru (2018) ilustraron c\u00f3mo los sistemas de reconocimiento facial fallan con mayor frecuencia en rostros racializados, fen\u00f3meno que Ruha\u202fBenjamin bautiz\u00f3 como <em>New\u202fJim\u202fCode<\/em>. En Am\u00e9rica\u202fLatina, donde la brecha social es hist\u00f3rica, este <em>c\u00f3digo<\/em> adquiere matices de colonialidad: los algoritmos no solo discriminan, sino que exportan criterios forjados lejos de los contextos que pretenden gobernar. La IA, por tanto, se convierte en el nuevo gale\u00f3n de la extracci\u00f3n de valor cognitivo (Ricaurte,\u202f2019).<\/p>\n

<p>Aceptar este diagn\u00f3stico implica repensar la \u00e9tica. Los marcos globales, como los principios de la OCDE o las directrices de la Unesco, ofrecen referencias valiosas, pero a menudo parten de cosmolog\u00edas euroc\u00e9ntricas (Mignolo,\u202f2011), es decir, visiones del mundo gestadas en la historia y la experiencia europea, que se presentan a s\u00ed mismas como universales. Desde el Sur Global se invoca otro prisma: la \u00e9tica decolonial, que exige justicia cognitiva. Este concepto, acu\u00f1ado por Boaventura de\u202fSousa\u202fSantos (2014), parte de la convicci\u00f3n de que todos los pueblos poseen repertorios de conocimiento igualmente leg\u00edtimos, desde la ciencia acad\u00e9mica hasta la medicina tradicional o la jurisprudencia ind\u00edgena, y que negar esa diversidad es una forma de injusticia. Por tanto, lograr justicia cognitiva implica redistribuir poder epist\u00e9mico: cuestionar qui\u00e9n decide qu\u00e9 datos recopilar, c\u00f3mo se interpretan y para qu\u00e9 fines se usan.<\/p>","margin":"default","text_color":"emphasis"}},{"type":"text","props":{"column_breakpoint":"m","content":"

<h2><span>Un ejemplo revelador: el algoritmo del Sisb\u00e9n\u202fIV<\/span><\/h2>\n

<p>En 2021, Colombia puso en marcha el\u202fSisb\u00e9n\u202fIV<a href=\"#_ftn1\" name=\"_ftnref1\"><span>[1]<\/span><\/a>. El Sisb\u00e9n combina una encuesta presencial que recoge datos sobre ingreso, condiciones de vivienda y acceso a servicios, con un modelo de puntaje que ordena a los hogares en grupos de menor a mayor vulnerabilidad. Ese puntaje determina la entrada a subsidios como salud, transferencias monetarias o becas educativas, de modo que el sistema se presenta como un mecanismo \u201ct\u00e9cnico\u201d para asignar recursos p\u00fablicos con mayor precisi\u00f3n.<\/p>\n

<p>Sin embargo, una auditor\u00eda ciudadana liderada por colectivos afrodescendientes y organizaciones de derechos digitales revel\u00f3 que el algoritmo de Sisb\u00e9n\u202fIV penalizaba a familias de la regi\u00f3n pac\u00edfica que carec\u00edan de recibos formales de servicios p\u00fablicos, un requisito impl\u00edcito en varias variables predictoras. La ausencia de esa documentaci\u00f3n redujo su puntaje en promedio un\u202f12\u00a0%, lo que limita su acceso a salud y educaci\u00f3n (Smart,\u202f2024).<\/p>\n

<p>As\u00ed, qued\u00f3 demostrado que el sesgo no se encontraba solo en la programaci\u00f3n, sino en la l\u00f3gica de datos que invisibilizaba pr\u00e1cticas de econom\u00eda informal (Smart,\u202f2024). Al confrontar al Departamento Nacional de Planeaci\u00f3n, los colectivos afrodescendientes y organizaciones de derechos digitales exigieron la apertura del c\u00f3digo fuente, es decir, la publicaci\u00f3n de las reglas de clasificaci\u00f3n para permitir su auditor\u00eda externa y la reclasificaci\u00f3n de variables desde una perspectiva intercultural (Colectivo\u202fEtniCidad,\u202f2023). Tras varios meses de di\u00e1logo p\u00fablico, el Gobierno expidi\u00f3 la Resoluci\u00f3n\u202f1178\u202fde\u202f2023, que incorpora indicadores de pertenencia \u00e9tnica y redes de cuidado comunitario en el Sisb\u00e9n\u202fIV (DNP,\u202f2023).<\/p>\n

<p>Este caso ilustra dos hallazgos clave. Primero, los algoritmos reproducen jerarqu\u00edas cuando se alimentan con datos \u201ccolonizados\u201d, es decir, basados en supuestos urbanos y formales que desatienden econom\u00edas informales y modos de vida rurales. Y segundo, la movilizaci\u00f3n social puede reconfigurar la infraestructura de poder digital, y obliga a la aplicaci\u00f3n de ajustes normativos y t\u00e9cnicos que ampl\u00edan la justicia distributiva y epist\u00e9mica (Benjamin,\u202f2019).<\/p>\n

<p>La auditor\u00eda al Sisb\u00e9n refleja un principio m\u00e1s amplio: sin soberan\u00eda de datos no hay justicia social en la era algor\u00edtmica. Dicha soberan\u00eda implica que las personas y colectivos tengan el derecho a gobernar todo el ciclo de vida de la informaci\u00f3n que les concierne, desde la recolecci\u00f3n, almacenamiento, procesamiento y finalmente reutilizaci\u00f3n de sus datos, de acuerdo con sus valores, normas y prioridades (Kukutai y\u202fTaylor,\u202f2016; Rainie\u202f<em>et\u202fal<\/em>.,\u202f2017). Este enfoque, originado en las luchas de los pueblos ind\u00edgenas por controlar sus registros demogr\u00e1ficos y territoriales, se ha ampliado para cuestionar que los datos de las comunidades queden cautivos en infraestructuras empresariales o estatales, que rara vez rinden cuentas a quienes generan esa informaci\u00f3n (Milan y\u202fTrer\u00e9,\u202f2019).<\/p>\n

<p>A esta reivindicaci\u00f3n se suma la ciencia ciudadana, definida como la participaci\u00f3n abierta del p\u00fablico en procesos cient\u00edficos (Haklay,\u202f2013). En la \u00faltima d\u00e9cada, han surgido plataformas donde las mismas comunidades entrenan modelos y curan bases de datos, lo que permite unificar el conocimiento local con t\u00e9cnicas de aprendizaje autom\u00e1tico.<\/p>\n

<p>La relaci\u00f3n entre soberan\u00eda de datos y ciencia ciudadana es sin\u00e9rgica: la primera establece el marco \u00e9tico-pol\u00edtico, que garantiza que los datos permanezcan bajo control comunitario, mientras la segunda provee los m\u00e9todos participativos que transforman esos datos en inteligencia colectiva. Esta sinergia promueve la participaci\u00f3n ciudadana, en tanto convierte la IA en una herramienta de autodeterminaci\u00f3n, capaz de redistribuir poder epist\u00e9mico y disputar el monopolio de la predicci\u00f3n ambiental y social hist\u00f3ricamente reservada a agencias estatales o corporativas.<\/p>\n

<p>Esta premisa lleva a pensar en la manera de poner la IA al servicio de la justicia social, mediante la convergencia de la soberan\u00eda de datos y la ciencia ciudadana. Para esto, es posible visibilizar la justicia en tres dimensiones, como propone Fraser (2000): distributiva, de reconocimiento y de representaci\u00f3n.<\/p>","margin":"default","text_color":"emphasis"}},{"type":"image","props":{"image":"wp-content\/uploads\/2025\/08\/Imagen_IA-1.png","image_alt":"Dimensiones de justicia social aplicada a la IA","image_loading":false,"image_svg_color":"emphasis","margin":"default"}},{"type":"text","props":{"column_breakpoint":"m","content":"

<p style=\"text-align: center;\"><strong>Figura 1.<\/strong> Representaci\u00f3n de las tres dimensiones de la justicia social \u2014distributiva, de reconocimiento y de representaci\u00f3n\u2014 propuestas por Fraser\u202f(2000) y su intersecci\u00f3n en los sistemas de IA. Fuente: elaboraci\u00f3n propia.<\/p>","margin":"default"}},{"type":"text","props":{"column_breakpoint":"m","content":"

<p>El uso de la IA transversaliza las tres a la vez:<\/p>\n

<ul>\n

<li><strong>Distributiva:<\/strong> \u00bfqui\u00e9n recibe beneficios o carga los costos de una decisi\u00f3n algor\u00edtmica?<\/li>\n

<li><strong>Reconocimiento:<\/strong> \u00bfqu\u00e9 identidades y saberes son validados en los datos?<\/li>\n

<li><strong>Representaci\u00f3n:<\/strong> \u00bfqui\u00e9n participa en el dise\u00f1o y la gobernanza del sistema?<\/li>\n<\/ul>\n

<p><\/p>\n

<p>Otro caso que permite evaluar la magnitud del impacto de la inteligencia artificial es el proyecto comunitario Alerta de Mareas Rojas, en Cartagena (Colombia), producto de la iniciativa comunitaria. Revela c\u00f3mo la tecnolog\u00eda puede apalancar la justicia social cuando se articula con saberes territoriales y procesos participativos. Este proyecto comunitario creado en 2022 por pescadores artesanales de Cartagena junto con la Universidad de Cartagena e INVEMAR<a href=\"#_ftn1\" name=\"_ftnref1\"><span>[2]<\/span><\/a>, integr\u00f3 sensores de bajo costo con redes neuronales para predecir floraciones algales (International Science Council,\u00a02025). Gracias a estas alertas, las familias pesqueras evitan p\u00e9rdidas de capturas, confirman sus saberes sobre el color y olor del agua, y participan en un comit\u00e9 que decide cada mejora que se implementa al sistema. Respecto a este caso de participaci\u00f3n ciudadana a trav\u00e9s de algoritmo, se pueden identificar las tres dimensiones de justicia:<\/p>\n

<ul>\n

<li><strong>Distributiva:<\/strong> las alertas tempranas protegen la pesca artesanal, principal sustento de los hogares, al evitar cierres imprevistos que solo beneficiar\u00edan a las grandes navieras<a href=\"#_ftn2\" name=\"_ftnref2\"><span>[3]<\/span><\/a>.<\/li>\n

<li><strong>Reconocimiento:<\/strong> el modelo incorpora indicadores cualitativos aportados por pescadores sobre cambios de color y olor del agua, para validad conocimiento local que no aparece en bases de datos oficiales.<\/li>\n

<li><strong>Representaci\u00f3n:<\/strong> una mesa t\u00e9cnica comunitaria decide c\u00f3mo y cu\u00e1ndo se recalibra el algoritmo, para garantizar que las comunidades costeras tengan voz y voto en la gobernanza de la plataforma.<\/li>\n<\/ul>\n

<p>Si se compara el ejemplo anterior con el caso del\u00a0Sisb\u00e9n, la dimensi\u00f3n distributiva se hizo evidente en la asignaci\u00f3n de subsidios. El reconocimiento fall\u00f3 al invisibilizar las situaciones sociales y econ\u00f3micas de las comunidades afro, y la representaci\u00f3n comenz\u00f3 a repararse cuando el colectivo ingres\u00f3 a la mesa t\u00e9cnica. Estos hechos evidencian que la justicia algor\u00edtmica va m\u00e1s all\u00e1 de eliminar sesgos aislados: exige articular la equidad distributiva, el reconocimiento intercultural y la participaci\u00f3n democr\u00e1tica en el ciclo de vida de los datos. Por ello, se propone un enfoque comunitario y participativo que combine soberan\u00eda de datos, ciencia ciudadana y marcos de gobernanza \u00e9tica para que la IA contribuya a la transformaci\u00f3n social en lugar de reproducir desigualdades (Benjamin,\u00a02019; Crawford,\u00a02021).<\/p>","margin":"default","text_color":"emphasis"}},{"type":"text","props":{"column_breakpoint":"m","content":"

<h2><span>Principios para una IA decolonial y comunitaria<\/span><\/h2>\n

<p>A la luz de estas reflexiones, se proponen cinco principios concebidos como puntos de conversaci\u00f3n que deben articularse en el uso de la IA en procesos sociales: participaci\u00f3n vinculante, apertura deliberativa, cuidado ecosocial, redistribuci\u00f3n de valor y educaci\u00f3n cr\u00edtica.<\/p>\n

<p>En primer lugar, la participaci\u00f3n vinculante exige que todo sistema capaz de afectar derechos incorpore mesas comunitarias con poder de voto efectivo, derecho de veto y evaluaci\u00f3n peri\u00f3dica. De este modo las comunidades son escuchadas para que puedan incidir materialmente en las decisiones, como la definici\u00f3n de objetivos, m\u00e9tricas y salvaguardas.<\/p>\n

<p>En segundo lugar, es necesario promover una apertura deliberativa, que hace referencia a la transparencia en los procesos, como ir m\u00e1s all\u00e1 de la mera publicaci\u00f3n del c\u00f3digo, pues tambi\u00e9n implica liberar los datos y las m\u00e9tricas de desempe\u00f1o, lo que asegura una rendici\u00f3n de cuentas completa y diferenciada.<\/p>\n

<p>Asimismo, el cuidado ecosocial procura alinear la IA con la mitigaci\u00f3n clim\u00e1tica y la protecci\u00f3n de la vida humana y no humana. El t\u00e9rmino combina dos perspectivas: la ecol\u00f3gica, preservar los sistemas biof\u00edsicos que sostienen la vida; y la perspectiva social, que se ocupa de las relaciones de poder y la distribuci\u00f3n de riesgos y beneficios (Benach\u202fy\u202fMu\u00f1oz,\u202f2021; Krieger,\u202f2012) para integrar par\u00e1metros ambientales y \u00e9ticos en todo el ciclo de vida tecnol\u00f3gico.<\/p>\n

<p>Este enfoque se complementa con la redistribuci\u00f3n de valor, que implica que las plataformas que se lucran de datos comunitarios deben constituir fondos que devuelvan beneficios econ\u00f3micos o sociales a las propias comunidades que generan dicha informaci\u00f3n.<\/p>\n

<p>Finalmente, estos principios solo ser\u00e1n sostenibles si se incorpora una educaci\u00f3n cr\u00edtica que, desde la escuela primaria, no solo ense\u00f1e alfabetizaci\u00f3n digital b\u00e1sica, sino tambi\u00e9n epistemolog\u00eda de datos, de manera que cualquier persona pueda interpelar un algoritmo con la misma solvencia con la que cuestiona un libro de texto, lo que podr\u00eda garantizar una ciudadan\u00eda plenamente informada y empoderada frente a los sistemas sociot\u00e9cnicos que configuran su vida cotidiana.<\/p>\n

<p>Estos principios est\u00e1n dise\u00f1ados para las instituciones que inciden en las comunidades donde la IA se implementa; por ello, el\u00a0Estado y los dem\u00e1s organismos p\u00fablicos no pueden delegar la \u00e9tica en simples \u201cc\u00f3digos de conducta\u201d voluntarios. Se requieren marcos regulatorios, evaluaciones de impacto algor\u00edtmico <em>ex\u00a0ante<\/em> y <em>ex\u00a0post<\/em>, registros p\u00fablicos de modelos y sanciones proporcionales. Actualmente, Brasil discute el Proyecto de Ley\u00a0n.\u00ba\u00a02338 de 2023<a href=\"#_ftn1\" name=\"_ftnref1\"><span>[4]<\/span><\/a>, que dota a la IA de un enfoque basado en derechos; la Uni\u00f3n\u00a0Europea ha publicado el <em>Artificial Intelligence Act<\/em> en su Diario Oficial<a href=\"#_ftn2\" name=\"_ftnref2\"><span>[5]<\/span><\/a>; y Colombia, tras las controversias del Sisb\u00e9n\u00a0IV, abri\u00f3 consultas sobre una Pol\u00edtica Nacional de IA \u00c9tica que prev\u00e9 un consejo ciudadano permanente<a href=\"#_ftn3\" name=\"_ftnref3\"><span>[6]<\/span><\/a>.<\/p>\n

<p>Estas experiencias demuestran que la regulaci\u00f3n efectiva combina obligaciones jur\u00eddicas con participaci\u00f3n social. Por esto al tratar el tema de la IA a espacios de conversaci\u00f3n se sabe que el entusiasmo tecnol\u00f3gico o el rechazo visceral a la tecnolog\u00eda no bastan para plantearnos su uso e impacto. La IA puede amplificar las posibilidades cuando las comunidades son autoras de sus propios datos, pero tambi\u00e9n puede convertirse en una problem\u00e1tica si se desvincula de la participaci\u00f3n social. Vale la pena recordar la advertencia realizada por Eubanks (2018): automatizar la desigualdad es m\u00e1s f\u00e1cil que erradicarla.<\/p>\n

<p><a href=\"#_ftnref1\" name=\"_ftn1\"><span><\/span><\/a><\/p>","margin":"default","text_color":"emphasis"}},{"type":"divider","props":{"divider_element":"hr"}},{"type":"text","props":{"column_breakpoint":"m","content":"

<h1><span>Conclusiones<\/span><\/h1>\n

<p>La \u201crevoluci\u00f3n silenciosa\u201d consiste en decidir, de manera consciente y colectiva, c\u00f3mo se espera que la inteligencia artificial moldee las vidas de las personas, al pretender que pase desapercibida y tome decisiones por nosotros, o si habr\u00e1 participaci\u00f3n activa para un uso \u00e9tico de las nuevas tecnolog\u00edas. Dentro de la discusi\u00f3n se plante\u00f3 el favorecimiento de la justicia social, y por ello se propusieron cinco principios enlazados entre s\u00ed que podr\u00edan aportar a la conversaci\u00f3n: la participaci\u00f3n vinculante, que otorga a las comunidades poder real de decisi\u00f3n sobre cualquier sistema que afecte sus derechos; la apertura deliberativa, que exige transparencia plena no solo del c\u00f3digo, sino tambi\u00e9n de los datos y las m\u00e9tricas de desempe\u00f1o; el cuidado ecosocial, que alinea los objetivos algor\u00edtmicos con la protecci\u00f3n de la vida humana y no humana; la redistribuci\u00f3n de valor, mediante la cual las plataformas que obtienen beneficios de los datos comunitarios devuelven parte de esos beneficios a quienes los generan; y, finalmente, la educaci\u00f3n cr\u00edtica, que forma a la ciudadan\u00eda para interpelar y moldear la tecnolog\u00eda desde temprana edad. Estos principios muestran que la IA no es inevitablemente justa ni injusta: su impacto depende de las reglas y de los pactos sociales que la acompa\u00f1an.<\/p>\n

<p>Esta mirada convoca a pensar si la inteligencia artificial, lejos de ser una soluci\u00f3n neutral, se despliega como un territorio donde se entrelazan disputas \u00e9ticas, pol\u00edticas y epist\u00e9micas. Al observar el caso del Sisb\u00e9n\u202fIV, se advierte c\u00f3mo los algoritmos pueden profundizar asimetr\u00edas hist\u00f3ricas cuando se alimentan de datos sesgados, pero tambi\u00e9n c\u00f3mo pueden reorientarse cuando las comunidades reclaman voz y soberan\u00eda sobre su informaci\u00f3n. Ese punto de partida nos lleva a dialogar con la \u00e9tica decolonial, el cuidado ecosocial y los principios de participaci\u00f3n democr\u00e1tica, con la esperanza de articularlos en un marco que acompa\u00f1e los futuros desarrollos tecnol\u00f3gicos.<\/p>\n

<p>Si algo queda claro es que los algoritmos, por s\u00ed mismos, ni perpet\u00faan ni corrigen injusticias: son las relaciones y ausencias de poder las que determinan su trayectoria. De ah\u00ed que el compromiso \u00e9tico no pueda limitarse a lineamientos abstractos ni a apelaciones a la transparencia, sino que deba encarnarse en procesos de deliberaci\u00f3n colectiva, marcos regulatorios y pr\u00e1cticas de ciencia ciudadana que devuelvan la agencia a quienes hist\u00f3ricamente han sido objeto, y no sujeto, de la mirada estad\u00edstica.<\/p>\n

<p>La invitaci\u00f3n final es, por tanto, a mantener abierto este proceso: a cuestionar cada m\u00e9trica, cada dato y cada decisi\u00f3n de dise\u00f1o desde la pregunta por la justicia, la memoria y la pluralidad de saberes. Si la IA ha de servir para imaginar futuros m\u00e1s dignos, necesitar\u00e1 nutrirse de pactos sociales que la excedan, de pol\u00edticas que la interroguen y de comunidades que la escuchen y la transformen.<\/p>\n

<p>Se extiende entonces una invitaci\u00f3n a promover la discusi\u00f3n m\u00e1s all\u00e1 de estas p\u00e1ginas. Que cada l\u00ednea de c\u00f3digo lleve impresa la huella de un pacto social donde la justicia no sea un subproducto, sino la raz\u00f3n de ser de la innovaci\u00f3n. Porque, al final, la IA ser\u00e1 tan justa como lo sea la comunidad que la sue\u00f1a, la dise\u00f1a y la modera.<\/p>","margin":"default","text_color":"emphasis"}},{"type":"text","props":{"column_breakpoint":"m","content":"

<h1>Referencias bibliogr\u00e1ficas<\/h1>\n

<p>Benjamin,\u202fR.\u202f(2019). <em>Race after technology: Abolitionist tools for the New\u202fJim\u202fCode<\/em>. Polity Press.<\/p>\n

<p>Buolamwini,\u202fJ. y Gebru,\u202fT.\u202f(2018). Gender shades: Intersectional accuracy disparities in commercial gender classification. <em>Proceedings of Machine Learning Research<\/em>,\u202f<em>81<\/em>,\u202f77-91. <a href=\"https:\/\/proceedings.mlr.press\/v81\/buolamwini18a\/buolamwini18a.pdf\">https:\/\/proceedings.mlr.press\/v81\/buolamwini18a\/buolamwini18a.pdf<\/a><\/p>\n

<p>Castells,\u202fM.\u202f(2012). <em>Redes de indignaci\u00f3n y esperanza: Movimientos sociales en la era de Internet<\/em>. Alianza Editorial.<\/p>\n

<p>Colectivo\u202fEtniCidad\u202f(2023, 22\u202fde marzo). <em>Carta abierta al DNP sobre sesgos \u00e9tnicos en el Sisb\u00e9n\u202fIV<\/em>. <a href=\"https:\/\/colectivoetnicidad.org\/sisben-iv\">https:\/\/colectivoetnicidad.org\/sisben-iv<\/a><\/p>\n

<p>Departamento Nacional de Planeaci\u00f3n\u202f(2023). <em>Resoluci\u00f3n\u202f1178: Modificaci\u00f3n de variables diferenciales en el Sisb\u00e9n\u202fIV<\/em>.<\/p>\n

<p>de\u00a0Sousa\u00a0Santos,\u00a0B.\u00a0(2014). <em>Epistemologies of the South: Justice against epistemicide<\/em>. Routledge.<\/p>\n

<p>Dignum,\u202fV.\u202f(2019). <em>Responsible artificial intelligence: How to develop and use AI in a responsible way<\/em>. Springer. <a href=\"https:\/\/doi.org\/10.1007\/978-3-030-30371-6\">https:\/\/doi.org\/10.1007\/978-3-030-30371-6<\/a><\/p>\n

<p>Eubanks,\u202fV.\u202f(2018). <em>Automating inequality: How high\u2011tech tools profile, police, and punish the poor<\/em>. St.\u202fMartin\u2019s Press.<\/p>\n

<p>Floridi,\u202fL.\u202f(2023). <em>The ethics of artificial intelligence<\/em>. Oxford University Press. <a href=\"https:\/\/doi.org\/10.1093\/oso\/9780198883098.001.0001\">https:\/\/doi.org\/10.1093\/oso\/9780198883098.001.0001<\/a> \u00a0<\/p>\n

<p>Fraser,\u202fN.\u202f(2000). Rethinking recognition. <em>New Left Review<\/em>,\u202f<em>3<\/em>,\u202f107\u2013120.<\/p>\n

<p>Haklay,\u202fM.\u202f(2013). Citizen science and volunteered geographic information: Overview and typology. En D.\u202fSui, S.\u202fElwood y\u202fM.\u202fGoodchild (Eds.), <em>Crowdsourcing geographic knowledge<\/em> (pp.\u202f105\u2013122). Springer. <a href=\"https:\/\/doi.org\/10.1007\/978-94-007-4587-2_7\">https:\/\/doi.org\/10.1007\/978-94-007-4587-2_7<\/a><\/p>\n

<p>International Science Council\u202f(2025). <em>Artificial intelligence in Latin America: Case study Colombia<\/em>. International Science Council.<\/p>\n

<p>Kukutai,\u202fT. y Taylor,\u202fJ.\u202f(Eds.)\u202f(2016). <em>Indigenous data sovereignty: Toward an agenda<\/em>. ANU\u202fPress. <a href=\"https:\/\/doi.org\/10.22459\/CAEPR38.11.2016\">https:\/\/doi.org\/10.22459\/CAEPR38.11.2016<\/a><\/p>\n

<p>Milan,\u202fS. y \u202fTrer\u00e9,\u202fE.\u202f(2019). Big data from the South(s): Beyond data universalism. <em>Television &amp; New Media<\/em>,\u202f<em>20<\/em>(4),\u202f319\u2013335. <a href=\"https:\/\/doi.org\/10.1177\/1527476419837739\">https:\/\/doi.org\/10.1177\/1527476419837739<\/a> \u00a0<\/p>\n

<p>Mignolo,\u202fW.\u202fD.\u202f(2011). <em>The darker side of Western modernity: Global futures, decolonial options<\/em>. Duke University Press.<\/p>\n

<p>Noble,\u202fS.\u202fU.\u202f(2018). <em>Algorithms of oppression: How search engines reinforce racism<\/em>. NYU Press. <a href=\"https:\/\/doi.org\/10.2307\/j.ctt1pwt9w5\">https:\/\/doi.org\/10.2307\/j.ctt1pwt9w5<\/a>\u00a0<\/p>\n

<p>Rainie,\u202fS.\u202fC., Schultz,\u202fJ.\u202fL., Briggs,\u202fE., Riggs,\u202fP. y Palmanteer\u2011Holder,\u202fN.\u202fL.\u202f(2017). Data as strategic resource: Self\u2011determination and the data challenge for United States Indigenous nations. <em>International Indigenous Policy Journal<\/em>,<em>\u202f8<\/em>(2),\u202f1\u201329. <a href=\"https:\/\/doi.org\/10.18584\/iipj.2017.8.2.1\">https:\/\/doi.org\/10.18584\/iipj.2017.8.2.1<\/a> \u00a0<\/p>\n

<p>Ricaurte,\u202fP.\u202f(2019). Data epistemologies, the coloniality of power, and resistance. <em>Television &amp; New Media<\/em>,\u202f<em>20<\/em>(4),\u202f350\u2013365. <a href=\"https:\/\/doi.org\/10.1177\/1527476419831640\">https:\/\/doi.org\/10.1177\/1527476419831640<\/a><\/p>\n

<p>Smart,\u202fV.\u202f(2024). <em>Algorithmic discrimination in Latin American welfare states<\/em>. Carr\u202fCenter Discussion Paper\u202f 24\u201101. Harvard University. <a href=\"https:\/\/www.hks.harvard.edu\/sites\/default\/files\/2024-08\/24_Smart_Final_01.pdf\">https:\/\/www.hks.harvard.edu\/sites\/default\/files\/2024-08\/24_Smart_Final_01.pdf<\/a><\/p>\n

<p>Stake,\u202fR.\u202fE.\u202f(1995). <em>The art of case study research<\/em>. Sage Publications.<\/p>","margin":"default","text_color":"emphasis"}},{"type":"text","props":{"column_breakpoint":"m","content":"

<h2><span>Notas al pie<\/span><\/h2>\n

<p><a href=\"https:\/\/openscience.uniandes.edu.co\/la-revolucion-silenciosa-inteligencia-artificial-justicia-social-y-cambio-comunitario\/#_ftnref1\" name=\"_ftn1\"><span>[1]<\/span><\/a><span>\u00a0Sistema de Identificaci\u00f3n y Clasificaci\u00f3n de Potenciales Beneficiarios de Programas Sociales en Colombia, la cuarta actualizaci\u00f3n de un instrumento creado en\u202f1994 y administrado por el Departamento Nacional de Planeaci\u00f3n (DNP).<\/span><\/p>\n

<p><a href=\"https:\/\/openscience.uniandes.edu.co\/la-revolucion-silenciosa-inteligencia-artificial-justicia-social-y-cambio-comunitario\/#_ftnref1\" name=\"_ftn1\"><span>[2]<\/span><\/a><span>\u00a0<\/span>Instituto de Investigaciones Marinas y Costeras, organizaci\u00f3n que administra los datos de investigaci\u00f3n costera, vinculada al Ministerio de Ambiente de Colombia.<\/p>\n

<p><a href=\"https:\/\/openscience.uniandes.edu.co\/la-revolucion-silenciosa-inteligencia-artificial-justicia-social-y-cambio-comunitario\/#_ftnref2\" name=\"_ftn2\"><span>[3]<\/span><\/a><span>\u00a0<\/span>Empresa que opera barcos para mover cargas o pasajeros por mar.<\/p>\n

<p><a href=\"https:\/\/openscience.uniandes.edu.co\/la-revolucion-silenciosa-inteligencia-artificial-justicia-social-y-cambio-comunitario\/#_ftnref1\" name=\"_ftn1\"><span>[4]<\/span><\/a><span>\u00a0<\/span>Texto completo disponible en el portal del Senado Federal de Brasil: Projeto de Lei\u202fn.\u00ba\u202f2338\/2023 (Senado Federal, 2024).<\/p>\n

<p><a href=\"https:\/\/openscience.uniandes.edu.co\/la-revolucion-silenciosa-inteligencia-artificial-justicia-social-y-cambio-comunitario\/#_ftnref2\" name=\"_ftn2\"><span>[5]<\/span><\/a><span>\u00a0<\/span>El<span>\u00a0<\/span><em>Artificial Intelligence Act<\/em><span>\u00a0<\/span>es el primer marco legal integral sobre IA del mundo, el cual es oficial y ha iniciado su calendario de aplicaci\u00f3n obligatoria. Las organizaciones que desarrollen, comercialicen o utilicen IA en la UE \u2014incluidas las construidas fuera de la UE que quieran operar en su mercado\u2014 deben empezar a evaluar sus sistemas bajo el enfoque de riesgo del AI Act y prepararse para demostrar cumplimiento dentro de los plazos se\u00f1alados. Versi\u00f3n oficial del Regulation\u202f(EU)\u202f2024\/1689 \u2014Artificial Intelligence Act\u2014 en el Diario Oficial de la Uni\u00f3n Europea (European Parliament &amp; Council, 2024).<\/p>\n

<p><a href=\"https:\/\/openscience.uniandes.edu.co\/la-revolucion-silenciosa-inteligencia-artificial-justicia-social-y-cambio-comunitario\/#_ftnref3\" name=\"_ftn3\"><span>[6]<\/span><\/a><span>\u00a0<\/span>Documento CONPES\u202f4144: Pol\u00edtica Nacional de Inteligencia Artificial accesible en la p\u00e1gina del Departamento Nacional de Planeaci\u00f3n de Colombia (DNP, 2025).<\/p>","margin":"default","text_color":"emphasis"}}]}]}]},{"type":"section","props":{"image":"wp-content\/uploads\/2025\/08\/Adobe-Express-file-1.jpg","image_position":"center-center","image_size":"cover","media_blend_mode":"darken","media_overlay":"rgba(17, 24, 124, 0.73)","sticky":"reveal","style":"default","text_color":"light","title_breakpoint":"xl","title_position":"top-left","title_rotation":"left","vertical_align":"","width":"expand"},"children":[{"type":"row","children":[{"type":"column","props":{"image_position":"center-center","position_sticky_breakpoint":"m"},"children":[{"type":"text","props":{"column_breakpoint":"m","content":"

<blockquote>\n

<p><span>La invitaci\u00f3n final es, por tanto, a mantener abierto este proceso: a cuestionar cada m\u00e9trica, cada dato y cada decisi\u00f3n de dise\u00f1o desde la pregunta por la justicia, la memoria y la pluralidad de saberes. Si la IA ha de servir para imaginar futuros m\u00e1s dignos, necesitar\u00e1 nutrirse de pactos sociales que la excedan, de pol\u00edticas que la interroguen y de comunidades que la escuchen y la transformen.<\/span><\/p>\n<\/blockquote>\n

<p><\/p>","margin":"default"}}]}],"props":{"width":"small"}}]},{"type":"section","props":{"image_position":"center-center","style":"default","title_breakpoint":"xl","title_position":"top-left","title_rotation":"left","vertical_align":"","width":"default"},"children":[{"type":"row","children":[{"type":"column","props":{"image_position":"center-center","position_sticky_breakpoint":"m"},"children":[{"type":"divider","props":{"divider_element":"hr","margin":"xlarge","margin_remove_bottom":true}},{"type":"image","props":{"image":"wp-content\/uploads\/2022\/12\/CC_BY-NC-ND_icon-88x31-1.png","image_alt":" CC_BY-NC-ND","image_svg_color":"emphasis","link":"https:\/\/creativecommons.org\/licenses\/by-nc-nd\/4.0\/deed.es","margin":"medium","margin_remove_bottom":true,"text_align":"center"}},{"type":"headline","props":{"content":"Estos contenidos est\u00e1n bajo una Licencia Creative Commons Atribuci\u00f3n-NoComercial-SinDerivar 4.0 Internacional","margin":"small","margin_remove_top":false,"text_align":"center","title_element":"h6"}}]}]}],"name":"Creative-commons"}],"version":"4.5.4"} --></p><p>The post <a href="https://openscience.uniandes.edu.co/la-revolucion-silenciosa-inteligencia-artificial-justicia-social-y-cambio-comunitario/">La revolución silenciosa: inteligencia artificial, justicia social y cambio comunitario</a> first appeared on <a href="https://openscience.uniandes.edu.co">Revistas Uniandes | Multimedia</a>.</p>]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
