Blog Financiero N°3 | Ley de Inteligencia Artificial: Hacia una regulación ética e innovadora
Clúster Financiero
10 dic 2025
En un momento clave para el desarrollo tecnológico del país, Ecuador discute el proyecto de Ley de Inteligencia Artificial: una normativa que busca regular el uso de la IA en múltiples sectores, desde el financiero hasta el educativo, abordando temas como transparencia algorítmica, autonomía tecnológica, protección de derechos y competitividad digital.
Sin embargo, el enfoque actual ha abierto un debate: ¿Se están creando las condiciones para aprovechar el potencial transformador de la IA, o se está frenando la innovación en el sector?
En esta tercera edición del Blog Financiero reunimos el análisis de dos expertos que examinan estos desafíos y oportunidades desde ángulos complementarios:
🔹 Andrés Terán (HEKA) plantea la necesidad de una regulación neutral tecnológicamente, que no se quede obsoleta, y propone un marco transversal basado en riesgos e impactos, no en etiquetas técnicas, alineado con estándares internacionales como OCDE, UNESCO y G7.
🔹 Andrés Vega (CITEC) alerta sobre la falta de articulación institucional, y propone fortalecer la autonomía tecnológica nacional con capacidades, incentivos reales e instrumentos existentes, en lugar de más trámites y registros.
Este blog busca aportar a la conversación: cómo regular con inteligencia, proteger derechos y acelerar el desarrollo de un ecosistema tecnológico competitivo y sostenible.
¡Te invitamos a leer, compartir y reflexionar sobre el futuro de la IA en Ecuador!
Artículo escrito por:
Andrés Terán, Socio de HEKA y Experto en Regulación Tecnológica e IA.
Neutralidad tecnológica: el principio que debe guiar la Ley de IA en Ecuador
La Inteligencia Artificial es, ante todo, una tecnología, no un sector independiente ni un fenómeno aislado. Por eso, el debate nacional no debería preguntarse únicamente cómo regular la IA, sino cómo regular cualquier tecnología de manera transversal, sin importar su nombre, arquitectura o soporte.
Este enfoque no solo es lógico: está respaldado por las principales discusiones internacionales sobre gobernanza tecnológica.
1. La neutralidad tecnológica como estándar global
El principio de neutralidad tecnológica sostiene que la regulación debe enfocarse en los efectos y riesgos, no en la tecnología específica que los produce.
Este enfoque aparece de forma explícita en los Principios de IA de la OCDE (2019), que recomiendan regular según impactos y contextos de uso, no según tipos de tecnología, o la Recomendación sobre Ética de IA de la UNESCO (2021), que exige que la normativa sea “tecnológicamente neutral y adaptable” para evitar obsolescencia. En estos dos instrumentos y otros aparece la misma idea: la tecnología cambia más rápido que la ley, por lo que la regla debe centrarse en efectos, no en etiquetas tecnológicas.
2. ¿Regular IA o regular la tecnología transversalmente?
En países adoptantes como Ecuador (que no entrenan modelos fundacionales ni producen infraestructura de IA a escala global) la regulación debe evitar la fragmentación temática y centrarse en un marco transversal aplicable a cualquier tecnología automatizada.
Este enfoque coincide con el AI Risk Management Framework del NIST (2023), que define lineamientos aplicables a cualquier sistema basado en computación estadística o algorítmica, sin distinguir si es o no “IA” y las directrices del G7 Hiroshima AI Process (2023), que enfatizan que el foco debe estar en “riesgos sistémicos independientemente de la arquitectura tecnológica”. Bajo este criterio, lo relevante no es si algo es “IA generativa”, “machine learning” o “un modelo de inferencia”. Lo relevante es si puede discriminar, vulnerar derechos o afectar procesos decisionales, porque eso es lo que el derecho tiene que prevenir.
3. Las leyes basadas en casos de uso se vuelven obsoletas
Regular listas de tecnologías como deepfakes, chatbots, biometría, modelos generativos, implica reformar la ley cada vez que aparece una novedad. La UNESCO ya ha advertido sobre este riesgo y la evidencia nacional e internacional lo confirma. Mientras se debate regular la IA en entornos tradicionales, ya existen proyectos de centros de datos orbitales para procesamiento de IA (NVIDIA + LuxSpace, 2024). Si imaginan que la ley intentara anticipar cada arquitectura, tendría que actualizarse constantemente para cubrir cómputo espacial, infraestructuras subacuáticas, plataformas flotantes, y sistemas distribuidos aún inexistentes.
Precisamente por eso, entidades internacionales insisten que la regulación debe ser agnóstica a la tecnología.
4. Los derechos fundamentales no han cambiando. Basta entenderlos en otros contextos.
La neutralidad tecnológica también permite reconocer que muchos riesgos de la IA ya están cubiertos por normas existentes, como señalan tanto la OCDE como la Comisión Interamericana de Derechos Humanos. La discriminación algorítmica puede sancionarse bajo las reglas de igualdad y no discriminación, la manipulación de contenidos se aborda mediante estándares de transparencia y protección al consumidor, el tratamiento indebido de datos se rige por leyes de protección de datos personales. Es decir, no se necesita legislar “deepfakes” o “chatbots”, lo que se necesita es reforzar la aplicación de un marco ya existente a los nuevos contextos tecnológicos.
5. La técnica no debe estar en la ley, sino en la normativa secundaria.
Los organismos y estándares internacionales coinciden en algo más, los detalles técnicos deben definirse fuera de la ley (ISO/IEC 42001 (Sistema de Gestión de IA, 2023), Directrices del IEEE sobre transparencia y robustez, Marcos de auditoría algorítmica de la OCDE). Esto, debido a que las leyes son lentas en modificar y por lo tanto quedarían obsoletas muy rápido. Un reglamento debería poder cambiarse con bastante agilidad.
Por ello, la legislación debería limitarse a enunciar obligaciones generales (trazabilidad, mitigación de riesgos, supervisión humana proporcional) y dejar a reglamentos y normas técnicas la definición concreta de cómo cumplirlas.
6. ¿Debemos regular la IA por su nombre, o regular de manera transversal cualquier tecnología según sus riesgos e impactos?
Para Ecuador, un país adoptante, la mejor aproximación es una ley breve, habilitante, transversal y plenamente neutral tecnológicamente, acompañada de reglamentos dinámicos y estándares actualizables. Norma secundaría que podría estar asemejada a la regulación y riesgos sectoriales que puedan identificarse. Si comenzamos a regular cada tecnología que de ahora en adelante vaya saliendo, terminaremos desvirtuando y tergiversando la intención de la norma y el deber del estado.
👉 Conecta con Andrés Terán en LinkedIn.
Artículo escrito por:
Andrés Vega, Director Legal y de Asuntos Regulatorios en la Cámara de Innovación y Tecnología Ecuatoriana (CITEC).
1. ¿Qué ajustes institucionales debería contemplar la Ley de IA para evitar duplicidades entre MINTEL y la Superintendencia de Datos y garantizar seguridad jurídica?
Desde CITEC hemos solicitado el archivo del proyecto porque creemos que parte de un diagnóstico equivocado. El país ya tiene un marco institucional claro: MINTEL es rector de la transformación digital por la Ley Orgánica para la Transformación Digital, y la Superintendencia de Protección de Datos Personales (SPDP) ya posee competencia exclusiva sobre datos personales vía LOPDP. No se contraponen; el reto no es crear nuevas capas regulatorias, sino articular mejor estos roles.
Hoy vemos una SPDP con una aproximación extremadamente restrictiva a la IA y un MINTEL un poco más promotor. La ley, en vez de corregir esa brecha de visión y coordinación, la congela y amplifica, aumentando la incertidumbre regulatoria para el sistema financiero y el ecosistema tech.
2. ¿Cómo puede la ley equilibrar regulación y competitividad para que startups y desarrolladores usen IA sin enfrentar cargas excesivas?
Antes que otra ley, Ecuador necesita capacidades, no más trámites. Con una LOPDP moderna y exigente, la prioridad debería ser política pública: alfabetización digital, formación en IA para pymes, sector financiero y Estado, creación de talento y conexión entre oferta y demanda tecnológica.
Si aun así se quiere legislar, la norma debería limitarse a principios de uso ético ya consensuados (OCDE, UNESCO, Hiroshima), debemos recordad que regulación no es sinónimo de desarrollo y un marco sobrerregulado puede desalentar a startups y desarrolladores, que terminan viendo la IA como un riesgo legal y no como una palanca de competitividad e inclusión financiera.
3. ¿Qué instrumentos concretos debería incluir la ley para fortalecer autonomía tecnológica y el crecimiento del sector tech ecuatoriano?
Si el objetivo real es impulsar al sector tech ecuatoriano, la ley debería partir de los instrumentos ya vigentes y subutilizados. Por ejemplo, hacer operativa la valoración de activos intangibles (software, algoritmos, bases de datos) como garantía efectiva para créditos a startups digitales; aplicar de forma masiva reducciones de impuesto a la renta cuando las empresas inviertan en tecnología, I+D e implementación de IA; y alinear compras públicas para priorizar soluciones locales competitivas.
El proyecto, en su versión actual, se concentra en nuevas obligaciones y registros, pero casi no ofrece incentivos reales para la digitalización.
👉 Conecta con Andrés Vega en LinkedIn.
Este análisis busca aportar claridad al debate sobre la Ley de Inteligencia Artificial, ofreciendo criterios técnicos para entender sus implicaciones en competitividad, seguridad y desarrollo tecnológico.
La reflexión de ambos autores invita a mirar la IA desde un marco neutral, proporcional y articulado, capaz de impulsar innovación sin generar incertidumbre regulatoria.
Para quienes lideran transformación digital, políticas públicas o desarrollo tecnológico, este blog ofrece un punto de referencia para evaluar riesgos, identificar oportunidades y proyectar un ecosistema más sólido y preparado.
Te invitamos a seguir la conversación y profundizar en los temas que definirán el futuro tecnológico y financiero del país.
