Poco después de que el candidato presidencial colombiano Miguel Uribe Turbay fuera baleado en un mitin político en junio, cientos de videos del ataque inundaron las redes sociales. Algunos resultaron ser deepfakes creados con inteligencia artificial, lo que obligó a la policía y a la fiscalía a pasar horas revisándolos y desmintiéndolos durante la investigación. Un adolescente fue finalmente acusado .

La creciente adopción de la IA está transformando el sistema judicial de América Latina, ayudando a reducir la acumulación de casos y a mejorar el acceso a la justicia para las víctimas. Sin embargo, también está exponiendo profundas vulnerabilidades debido a su uso indebido generalizado, sesgo y escasa supervisión, mientras los reguladores luchan por mantenerse al día con el ritmo de la innovación.

Las fuerzas del orden aún no tienen la capacidad de analizar estos asuntos judiciales más allá de simplemente preguntar si una prueba es real o no, declaró a Rest of World Lucía Camacho, coordinadora de políticas públicas de Derechos Digitales, un grupo de derechos digitales. Esto podría impedir que las víctimas accedan a marcos legales sólidos y jueces con conocimiento de la tecnología, añadió.

Los sistemas judiciales de todo el mundo luchan por abordar los daños causados por las deepfakes, que se utilizan cada vez más para estafas financieras, en elecciones y para difundir imágenes sexuales no consensuadas. Actualmente existen más de 1300 iniciativas en 80 países y organizaciones internacionales para regular la IA, pero no todas son leyes ni abarcan las deepfakes, según la Organización para la Cooperación y el Desarrollo Económicos.

Los videos deepfake aumentaron un 550% entre 2019 y 2023 a nivel mundial, según un informe de Security Hero, una plataforma independiente que investiga la protección de datos y la seguridad digital. Menos del 1% de los deepfakes se crean en Latinoamérica, en comparación con más del 70% en Asia, pero países como México, Chile, Brasil y Colombia han experimentado algunas de las tasas de crecimiento más altas, según otro estudio .

Algunos países han tomado medidas. Corea del Sur y Australia penalizan abusos específicos de deepfakes, y Estados Unidos aprobó recientemente la » Ley de Eliminación de Contenidos» (Take It Down Act ), que penaliza la creación y distribución de deepfakes sin consentimiento. En Latinoamérica, Brasil prohibió el uso de deepfakes en campañas electorales el año pasado, mientras que Perú y Colombia aprobaron este año leyes de IA que consideran los deepfakes como un factor agravante de un delito. Argentina propuso recientemente un proyecto de ley que penaliza el contenido generado por IA con penas de hasta seis años de prisión.

Sin embargo, si bien algunos países de América Latina han utilizado el marco de la Unión Europea como modelo, las iteraciones locales no son tan sólidas, declaró Franco Giandana, analista de políticas para América Latina y el Caribe de Access Now, un grupo de derechos digitales, a Rest of World . A menudo, «el lenguaje es demasiado abstracto y aún se comprenden poco los desafíos nacionales y regionales, no solo para regular la IA, sino también para construir una estrategia de desarrollo coherente y adaptada a nuestro contexto», afirmó.

85% Porcentaje de jueces en Colombia que utilizan versiones gratuitas de ChatGPT o Microsoft Copilot

En los últimos meses, los fiscales de Chile, Argentina y México —donde los deepfakes aún no están regulados— han tenido dificultades para conseguir condenas en casos que involucran a estudiantes de secundaria que crearon y distribuyeron imágenes deepfakes explícitas de compañeras de clase sin su consentimiento.

En diciembre, un juez en México —que penaliza la distribución de contenido sexual sin consentimiento— absolvió a un hombre de 20 años acusado de usar inteligencia artificial para crear imágenes sexuales de más de 1,000 mujeres y menores, por falta de pruebas suficientes para demostrar su participación. El equipo legal de las víctimas apeló el fallo y el caso sigue abierto. El hombre fue condenado por separado a cinco años de prisión por la Fiscalía de la Ciudad de México por posesión de material de abuso sexual infantil.

El año pasado en Argentina, un joven de 18 años fue acusado de crear y publicar videos pornográficos deepfake de al menos 16 compañeras de clase en sitios web pornográficos, con sus nombres reales. Dado que esto no constituye un delito, José M. D’Antona, abogado defensor de las víctimas, basó su caso en la legislación sobre delitos digitales y el daño psicológico infligido a sus clientes.

Si bien la fiscalía ordenó la desindexación de las imágenes de los sitios web, los nombres de las víctimas aún se pueden encontrar en algunos sitios pornográficos, declaró D’Antona a Rest of World . «El daño persiste», afirmó.

El uso no regulado de la IA ha causado otros daños. En toda la región, la policía utiliza sistemas de reconocimiento facial basados en IA para rastrear a delincuentes y, sin querer, ha perjudicado a ciudadanos inocentes.

El año pasado, João Antônio Trindade Bastos estaba viendo un partido de fútbol en Aracaju, Brasil, cuando la policía militar lo sacó a rastras del estadio frente a 10.000 aficionados. Una cámara de vigilancia lo había identificado erróneamente como un fugitivo buscado. Semanas antes, una mujer fue arrestada durante las celebraciones de carnaval por un delito ajeno. Ambos fueron liberados tras determinarse que no eran los individuos en cuestión.

Estos casos son inevitables. La mayoría de los sistemas de IA se entrenan principalmente con datos de poblaciones blancas, lo que genera «falsos positivos» al escanear rostros de indígenas, afrodescendientes y mujeres, según declaró Dilmar Villena, directora ejecutiva de Hiperderecho, una organización peruana de derechos digitales, a Rest of World . De igual manera, el Sistema de Predicción Criminal Urbana de Chile ha sido criticado por basarse en lo que los expertos denominan «datos sucios»: registros policiales plagados de discriminación racial y aplicación selectiva de la ley.

La Policía Nacional de Chile y el Subministerio de Seguridad Pública no respondieron a una solicitud de comentarios de Rest of World .

Este uso del reconocimiento facial y otras herramientas de IA «debería estar estrictamente regulado porque estamos hablando del uso de armas por parte del Estado contra sus propios ciudadanos», dijo a Rest of World Felipe Rocha, coordinador digital de Lapin, una organización brasileña de investigación en tecnología judicial. En junio, el Ministerio de Justicia y Seguridad Pública de Brasil emitió una resolución que permite a las agencias de seguridad pública utilizar IA en investigaciones criminales y prohíbe el uso de identificación biométrica remota en espacios públicos, excepto cuando se buscan personas desaparecidas o cuando existe una amenaza inminente para la vida.

Mientras los reguladores luchan por mantenerse al día, los tribunales de América Latina recurren cada vez más a la IA para clasificar casos y automatizar tareas repetitivas.

La autorregulación es el único camino eficiente. Ningún marco legal podrá jamás seguir el ritmo de la IA.

En 2023, el juez colombiano Juan Manuel Padilla eligió un caso sencillo en su expediente para probar la aplicación de la IA: redactó un fallo sobre un niño autista que necesitaba tratamiento médico financiado por el Estado con la ayuda de ChatGPT .

El caso sentó un precedente en el uso de IA en decisiones judiciales en el país. Poco después, Colombia estableció directrices para el uso de IA en tribunales, permitiendo la realización de tareas rutinarias con IA, a la vez que exigía la supervisión humana. Alrededor del 85 % de los jueces del país utilizan versiones gratuitas de ChatGPT o Microsoft Copilot, según un estudio de 2025 de la Universidad de los Andes. Sin embargo, la mayoría de los jueces reciben una formación mínima en IA, lo que les permite integrar algoritmos en las tradiciones jurídicas de forma independiente.

En otras partes de la región, Brasil utiliza SAJ Digital, una herramienta de IA, para agilizar los casos y optimizar la carga de trabajo de los magistrados. En Argentina, Prometea ha reducido el procesamiento de dictámenes legales de 190 días a una hora. La Corte Constitucional de Colombia ha implementado PretorIA, una herramienta de IA basada en tecnología argentina. Esta herramienta procesa diariamente más de 2700 acciones de tutela (solicitudes legales de ciudadanos colombianos para la protección de sus derechos fundamentales).

Padilla, el juez colombiano, confía en herramientas de inteligencia artificial para agilizar la documentación de los casos, pero una regulación estricta por sí sola no será suficiente para enfrentar el problema de los deepfakes dentro del sistema de justicia, dijo a Rest of World .

“La autorregulación es el único camino eficiente”, afirmó. “Ningún marco legal podrá jamás seguir el ritmo de la IA”.

Por Juliana Bedoya periodista basada en Cartagena, Colombia para RestOfWorld

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *