La Corte Suprema de Colombia rechaza un recurso por IA, pero su propia sentencia es 93% artificial
La Corte Suprema de Justicia de Colombia rechazó un recurso de casación basándose en que una herramienta de detección de inteligencia artificial identificó solo un 7% de contenido humano en el documento presentado. Sin embargo, la ironía del caso estalla cuando se aplica la misma herramienta al fallo judicial mismo: el texto de la Auto AP760/2026 arrojó un 93% de texto generado por IA. Este escenario expone una falla metodológica crítica que trasciende las fronteras colombianas y afecta directamente la confianza en la regulación digital en América Latina.
El abogado Emmanuel Alessio Velasquez sometió el texto de la sentencia de la corte al software Winston AI y obtuvo el resultado contradictorio. Mientras el recurso original fue desestimado por considerarse mayoritariamente automatizado, la decisión que lo desechó fue clasificada casi en su totalidad como producto de una máquina. Velasquez argumentó que si el fallo que condena el uso de la IA contiene un 93% de texto generado, la fragilidad de utilizar estos detectores como soporte argumentativo se vuelve evidente por sí misma.
Las pruebas no se detuvieron allí. Al utilizar la herramienta GPTZero, los resultados oscilaron drásticamente según el fragmento analizado: escanear solo las palabras iniciales devolvió un 100% de resultados de IA, mientras que procesar una versión más larga que incluía el contexto fáctico invirtió el resultado a un 100% de contenido humano. Esta inconsistencia técnica sugiere que la fiabilidad de estos algoritmos es altamente dependiente de la longitud del texto y el contexto, no de la autoría real.
El sesgo sistémico contra hablantes no nativos y académicos
El problema no es un error aislado, sino un patrón documentado de falsos positivos que afecta desproporcionadamente a hablantes no nativos de inglés y a académicos. En un caso de 2019, un escrito judicial presentado por Andrés F. Arango G fue marcado como un 95% generado por IA, años antes de que los modelos de lenguaje masivos existieran. De igual manera, la tesis de pregrado de 2020 de Nicolás Buelvas sobre el principio de confianza en el derecho penal fue señalada como un 100% producto de IA.
La evidencia estadística respalda la sospecha de un sesgo algorítmico. Un estudio de 2023 publicado en la revista Patterns encontró que más del 61% de los ensayos de TOEFL escritos por hablantes no nativos de inglés fueron incorrectamente marcados como generados por IA. Además, una revisión sistemática concluyó que ninguna herramienta disponible es precisa o confiable para definir el porcentaje de uso de IA.
La industria educativa en Estados Unidos ya ha reaccionado ante estos fallos. Vanderbilt deshabilitó el detector de IA de Turnitin en 2023 tras estimar 3,000 falsos positivos anuales. La Universidad de Arizona eliminó las funciones de detección después de que un estudiante perdiera el 20% de su calificación debido a un error de detección. En 2024, un caso en la Universidad de California, Davis, marcó a 17 estudiantes de lingüística, de los cuales 15 eran hablantes no nativos de inglés.
Implicaciones para el inversor latinoamericano
Para el inversor en la región, este caso es una señal de alerta sobre la infraestructura regulatoria digital. La Corte Suprema de Colombia utiliza herramientas que, según sus propios datos, fallan en más del 90% de los casos de falsos positivos en contextos específicos. Si los sistemas judiciales y educativos de la región dependen de algoritmos no verificables para tomar decisiones de alto impacto, el riesgo operativo y legal aumenta significativamente.
El mercado de divisas en la región, como el peso mexicano (1 USD = 17.65 MXN) o el peso colombiano (1 USD = 3763 COP), no reaccionará directamente a este fallo técnico, pero la inestabilidad en los marcos regulatorios de tecnología y justicia puede afectar la confianza de los inversores institucionales a largo plazo. La volatilidad en los mercados bursátiles, con el S&P 500 cayendo un 0.9% y el DAX un 3.4%, muestra que los inversores buscan certezas; depender de algoritmos que no pueden distinguir entre un abogado humano y una máquina es un riesgo que las instituciones financieras no pueden asumir sin auditorías rigurosas.
Expertos señalan que ninguna herramienta de acceso público puede definir con precisión el porcentaje de uso de IA, y el código fuente detrás de estas plataformas no es verificable públicamente. Los detectores miden patrones estadísticos como la longitud de las oraciones y la predecibilidad del vocabulario, no la intención humana. Mientras la tecnología no supere estas barreras, cualquier decisión basada en estos porcentajes debe considerarse provisional y sujeta a revisión humana rigurosa.
Fuente: Decrypt | Análisis por Rumour Team