Tres agencias HTA. Ninguna regla sobre IA. Y los dossiers ya están llegando con IA adentro.


CONITEC, IETS y CENETEC son las tres agencias HTA más influyentes de América Latina. Ninguna tiene hoy una posición pública sobre inteligencia artificial en evidencia farmacéutica. Esto es lo que eso significa para los equipos de market access en la región.
En abril de 2024, el ISPOR HTA Roundtable realizó una encuesta informal con 18 miembros de agencias HTA de América del Norte, América Latina, Australasia y Europa para medir el uso interno de IA generativa en esas organizaciones. El resultado fue revelador: al momento de ese análisis, solo NICE había emitido una posición pública sobre el uso de IA en generación de evidencia [1].
Ninguna de las agencias latinoamericanas tenía, ni tiene hoy, un marco claro sobre cómo evaluarán la evidencia construida con inteligencia artificial. Y sin embargo, la industria farmacéutica ya está comenzando a usar herramientas de IA generativa en partes de sus procesos de dossier [2].
El terreno donde se juega la credibilidad
Esa brecha entre lo que la industria está haciendo y lo que las agencias han definido no es un detalle administrativo. Es el terreno donde se va a jugar la credibilidad de la evidencia farmacéutica en LATAM en los próximos dos a tres años.
1. CONITEC, IETS y CENETEC: perfiles y estado actual frente a la IA
CONITEC (Brasil): la agencia más exigente de la región
CONITEC es la referencia metodológica HTA más sólida de América Latina. Creada en 2011 mediante la Ley Federal 12.401, cuenta con más de 100 profesionales multidisciplinarios y evalúa tecnologías para el SUS, el sistema público de salud que cubre a más de 200 millones de brasileros [3]. Sus directrices metodológicas para evaluaciones económicas son detalladas, con criterios explícitos sobre revisiones sistemáticas, modelos de costo-efectividad e impacto presupuestal.
CONITEC no tiene a la fecha ninguna posición pública sobre IA en la generación de evidencia. Brasil aprobó en diciembre de 2024 el Proyecto de Ley 2.338/2023 de regulación general de IA en el Senado, actualmente en revisión por la Cámara de Diputados [4]. Ese marco establece principios de transparencia y clasificación por riesgo inspirados en el AI Act europeo, pero no aborda específicamente los procesos HTA ni la evidencia farmacéutica.
IETS (Colombia): rigor metodológico creciente
El Instituto de Evaluación Tecnológica en Salud juega un rol central en coberturas del sistema de salud colombiano, precios de referencia y guías de práctica clínica. Sus métodos se basan en estándares de ISPOR y EUnetHTA, y su equipo técnico participa activamente en redes internacionales de HTA.
Al igual que CONITEC, IETS no tiene posición pública sobre IA en evidencia. Colombia presentó en julio de 2025 el Proyecto de Ley 043/2025 de regulación de IA, con mensaje de urgencia del Gobierno en septiembre de 2025 [5]. El proyecto sigue un enfoque basado en riesgo similar al AI Act europeo e incorpora principios de la OCDE, pero sin aplicación directa a los procesos de evaluación de tecnologías sanitarias.
CENETEC (México): un rol en expansión
El Centro Nacional de Excelencia Tecnológica en Salud fue creado en 2004 con foco inicial en equipos médicos, y ha expandido progresivamente su rol hacia la evaluación de medicamentos para las listas públicas del sistema de salud mexicano [6]. Opera como asesor técnico de la Secretaría de Salud y del Consejo General de Salud en cobertura y priorización de tecnologías.
México tampoco tiene una posición específica de CENETEC sobre IA en HTA. Entre 2021 y 2024 se presentaron iniciativas legislativas para regular la IA en el país, pero ninguna ha sido aprobada y CENETEC ha publicado únicamente lineamientos de carácter no vinculante sobre salud digital [7].
2. Lo que el HTAi Global Policy Forum 2025 dijo sobre el futuro
En 2025, el Health Technology Assessment international (HTAi) reunió a representantes de agencias HTA, industria farmacéutica, pagadores y pacientes en su Global Policy Forum para discutir el uso de IA en actividades HTA. Las conclusiones son directamente relevantes para LATAM [2].
El foro confirmó que la industria de ciencias de la vida ya está explorando activamente herramientas de IA generativa para generación de evidencia clínica y está comenzando a usarlas en el proceso de submissions HTA, incluida la construcción y adaptación de dossiers.
La posición del foro sobre cómo deben avanzar las agencias HTA fue clara:
- La implementación de IA en actividades HTA debe ser gradual, empezando por tareas pequeñas, menos complejas y repetitivas antes de expandirse a aplicaciones de mayor riesgo.
- Las agencias deben crear entornos tipo sandbox para aprender, ajustar y construir confianza en el uso de herramientas de IA de manera proactiva.
- El consenso del foro fue unánime: el momento de actuar es ahora. Esperar a tener certeza total antes de desarrollar marcos implica quedarse atrás frente a una industria que ya está avanzando.
Para CONITEC, IETS y CENETEC, ese mensaje tiene implicación directa: las agencias que no definan su posición sobre IA en evidencia pronto, se encontrarán evaluando dossiers construidos con herramientas que sus evaluadores no están entrenados para identificar ni cuestionar.
3. El único referente global disponible hoy: qué estableció NICE
En agosto de 2024, NICE publicó su Position Statement sobre uso de IA en generación de evidencia (ECD11) [8]. Fue el primer documento de este tipo emitido por una agencia HTA de primer nivel global, y rápidamente se convirtió en referencia para la industria y otras agencias.
Los cinco principios centrales del marco de NICE son:
- Transparencia obligatoria: documentar qué herramientas de IA se usaron, cómo, y bajo qué supuestos.
- Validación exigida: los métodos de IA deben contrastarse con métodos alternativos cuando sea posible.
- Supervisión humana no negociable: la IA aumenta el juicio experto, no lo reemplaza.
- Uso justificado: la IA solo debe emplearse cuando agrega valor claro frente a métodos establecidos.
- Alto riesgo reconocido para estimación de efectos comparativos: requiere análisis de sensibilidad y triangulación con evidencia clínica disponible.
Canada's Drug Agency siguió los lineamientos de NICE con su propio Position Statement en 2025. EMA tiene un plan de trabajo IA 2023-2028. FDA publicó en 2025 su draft guidance para IA en decisiones regulatorias. El patrón global es inequívoco: las agencias de referencia están construyendo marcos. LATAM aún no.
4. Por qué el silencio no es neutral: el riesgo para la industria
La ausencia de posiciones formales en CONITEC, IETS y CENETEC no protege a quien usa IA sin rigor. Los evaluadores de estas agencias son profesionales entrenados en metodología HEOR, con acceso a los mismos estándares internacionales que sus pares europeos. Un dossier con evidencia generada con IA sin documentación del proceso, sin validación y sin transparencia expone toda la estrategia de evidencia a cuestionamientos de integridad metodológica.
El reporte de Putnam Associates (2025) lo documenta con precisión: a pesar de que varios laboratorios ya tienen iniciativas internas para explorar IA en HEOR, rara vez la usan en dossiers reales por miedo a la no aceptación por parte de las agencias [9]. El uso de IA en evidencia sigue siendo poco común y frecuentemente no se declara.
Dos consecuencias opuestas, igualmente problemáticas
Los equipos que usan IA sin declararla se exponen a cuestionamientos de integridad si el proceso sale a la luz durante la evaluación. Los equipos que no usan IA por miedo compiten con desventaja creciente de tiempo y costo frente a quienes sí la integran con rigor.
La salida no es esperar a que las agencias publiquen sus posiciones. Es prepararse hoy con los estándares que ya existen.
5. Lo que los equipos de market access en LATAM deben hacer ahora
Adoptar los estándares NICE como piso mínimo
Los lineamientos de NICE ECD11 son el estándar más completo disponible para el uso de IA en evidencia HTA. Construir procesos que cumplan con sus criterios, transparencia, validación, supervisión humana, justificación del uso, es la mejor preparación posible para cuando CONITEC, IETS y CENETEC definan sus propias posiciones, que seguirán ese mismo modelo.
Documentar el proceso con tanta rigurosidad como el resultado
El cambio más importante que la IA introduce no es el output final, es la trazabilidad del proceso. Un dossier que documente cómo se usó IA, con qué herramientas, qué validaciones se hicieron y cómo se mantuvo la supervisión experta, puede defenderse ante cualquier evaluador hoy y cuando las reglas lleguen.
Capacitar a los equipos antes de que sea obligatorio
El HTAi Global Policy Forum fue explícito: el momento de actuar es ahora. Las organizaciones que esperan a que las reglas estén publicadas para empezar a capacitar a sus equipos llegarán tarde. Los evaluadores de CONITEC, IETS y CENETEC ya participan en ISPOR y conocen los estándares internacionales. Los equipos de market access deben conocerlos igualmente.
El vacío se va a cerrar. La pregunta es si tu equipo estará listo.
CONITEC, IETS y CENETEC estarán bajo presión creciente para definir su posición sobre IA. La demanda de evaluaciones crece, los recursos son limitados y las herramientas de IA para acelerar procesos son cada vez más accesibles. Cuando las posiciones lleguen, seguirán el modelo que ya estableció NICE: IA permitida, bajo condiciones estrictas.
Las empresas farmacéuticas que hoy están construyendo esa capacidad metodológica, no solo usando IA, sino usándola bien, con rigor y trazabilidad, serán las que lleguen preparadas a ese momento.
Cómo te acompañamos
En Quantus apoyamos a equipos de market access y HEOR a construir procesos de evidencia rigurosos y alineados con los estándares internacionales que ya existen. Si quieres saber cómo preparar a tu equipo para lo que viene en LATAM, escríbenos.
Referencias
[1] Fleurence R, et al. Generative Artificial Intelligence for Health Technology Assessment: Opportunities, Challenges, and Policy Considerations. Value in Health. 2025;28(2):175-183. doi:10.1016/j.jval.2024.10.3846
[2] HTAi Global Policy Forum. Advancing the use of artificial intelligence in health technology assessment activities. Int J Technol Assess Health Care. 2026. doi:10.1017/S0266462324001983
[3] CONITEC/INAHTA. National Committee for Technology Incorporation. Disponible en: inahta.org/members/conitec
[4] Library of Congress. Brazil: Senate Advances Discussions on Bill to Regulate AI Use. Mayo 2025. Disponible en: loc.gov/global-legal-monitor
[5] AmCham Colombia. Proyecto de ley sobre inteligencia artificial: elementos clave de la regulación en Colombia. Agosto 2025. Disponible en: amchamcolombia.co
[6] Caetano R, et al. A Perspective on the use of Health Technology Assessment in Brazil and Mexico. Value in Health. 2015. doi:10.1016/j.jval.2015.09.2936
[7] Chambers and Partners. Digital Healthcare 2025, Mexico: Trends and Developments. Disponible en: practiceguides.chambers.com
[8] NICE. Use of AI in evidence generation: NICE position statement (ECD11). Agosto 2024. Disponible en: nice.org.uk/corporate/ecd11
[9] Putnam Associates. Acceptance of Artificial Intelligence in Evidence and Dossier Developments by HTA bodies: Challenges and Opportunities. 2025. Disponible en: putassoc.com