CONITEC e IETS están redefiniendo qué evidencia es suficiente. ¿Tu equipo lo sabe?


Las dos agencias HTA más influyentes de América Latina no tienen todavía reglas claras sobre inteligencia artificial. Eso no significa que estén esperando. Significa que el terreno se está moviendo bajo los pies de los equipos de market access.
Hay una pregunta que los equipos de market access en LATAM todavía no se están haciendo con suficiente seriedad: ¿qué pasará cuando CONITEC en Brasil e IETS en Colombia empiecen a recibir dossiers construidos con inteligencia artificial, y no tengan criterios claros para evaluarlos?
La respuesta corta es: ya está pasando. Los laboratorios farmacéuticos ya están usando IA generativa en partes de sus procesos de evidencia. Las revisiones sistemáticas se aceleran con herramientas de screening automático. Los modelos económicos se construyen con asistencia de LLMs. Y ninguna de las principales agencias HTA de América Latina tiene hoy una posición pública sobre cómo va a evaluar esa evidencia.
El vacío no es neutro
Es una oportunidad y un riesgo. Las empresas que documenten bien su uso de IA se convertirán en referencia ante los evaluadores. Las que no, se exponen a cuestionamientos de integridad metodológica.
1. El estado actual: CONITEC, IETS y el silencio sobre IA
CONITEC (Brasil)
CONITEC es la agencia HTA más rigurosa de América Latina. Creada en 2011 mediante la Ley Federal 12.401, tiene más de 100 profesionales multidisciplinarios y ha evaluado cientos de tecnologías sanitarias para el SUS. Sus directrices metodológicas para evaluaciones económicas son detalladas, exigentes y ampliamente referenciadas en la región [1].
Sin embargo, CONITEC no tiene a la fecha una posición pública sobre el uso de inteligencia artificial en la generación de evidencia ni en la construcción de dossiers. Los criterios que aplica para evaluar revisiones sistemáticas, modelos de costo-efectividad e impacto presupuestal no distinguen si el proceso fue asistido por IA o realizado íntegramente de manera manual.
Paralelamente, Brasil aprobó en el Senado en diciembre de 2024 el Proyecto de Ley 2.338/2023 de regulación general de IA, actualmente en revisión por la Cámara de Diputados, que establece un enfoque basado en riesgo similar al AI Act europeo [2]. Pero ese marco regulatorio es genérico: no aborda específicamente la evidencia farmacéutica ni los procesos HTA.
IETS (Colombia)
El Instituto de Evaluación Tecnológica en Salud de Colombia tiene un rol central en la definición de coberturas, precios de referencia y guías de práctica clínica para el sistema de salud colombiano. Sus metodologías están basadas en estándares internacionales de ISPOR y EUnetHTA.
Al igual que CONITEC, IETS no tiene una posición pública específica sobre IA en evidencia. Colombia presentó en julio de 2025 un nuevo proyecto de ley de regulación de IA, el PL 043/2025, con mensaje de urgencia del Gobierno en septiembre de 2025, que incorpora principios de transparencia, supervisión humana y clasificación por riesgo inspirados en la OCDE y el AI Act europeo [3]. Pero tampoco tiene aplicación directa a los procesos de HTA.
El resultado en ambos países es el mismo: los laboratorios están usando o explorando herramientas de IA en sus procesos de evidencia, y las agencias HTA no tienen criterios establecidos para evaluarlas.
2. Lo que sí está pasando en el mundo: NICE lideró, los demás observan
Para entender adónde va LATAM, hay que mirar adónde ya llegó Europa.
En agosto de 2024, NICE, la agencia HTA del Reino Unido y referencia metodológica global, publicó su Position Statement sobre el uso de IA en generación de evidencia (ECD11) [4]. Fue el primer documento de su tipo emitido por una agencia HTA de primer nivel. Su mensaje central: la IA puede usarse en submissions de evidencia, pero bajo condiciones estrictas.
Las principales condiciones que NICE establece son:
- Transparencia obligatoria: las organizaciones deben documentar con claridad qué métodos de IA usaron, por qué, y qué supuestos aplicaron.
- Validación exigida: los métodos de IA deben ser validados y, cuando sea posible, contrastados con métodos alternativos.
- Supervisión humana no negociable: la IA debe aumentar, no reemplazar, el juicio experto humano en el proceso de evidencia.
- Uso justificado: la IA solo debe emplearse cuando agrega valor claro. No debe usarse como atajo si existen alternativas metodológicas establecidas.
- Riesgo de sesgo reconocido: los métodos de IA para estimación de efectos comparativos son considerados de alto riesgo y requieren análisis de sensibilidad y triangulación con evidencia clínica disponible.
Canada's Drug Agency (CDA-AMC) publicó en 2025 su propia Position Statement basada en los lineamientos de NICE [5]. EMA tiene un plan de trabajo de IA 2023-2028 que incluye orientación para la evidencia en el ciclo de vida de los medicamentos. FDA publicó en 2025 su draft guidance sobre uso de IA en decisiones regulatorias [6].
El patrón es claro: las agencias del mundo desarrollado están construyendo marcos. LATAM todavía no.
3. Por qué ese vacío es simultáneamente una oportunidad y un riesgo
La oportunidad
Cuando una agencia no tiene reglas establecidas, el estándar lo definen los primeros actores que lo establecen en la práctica. Las empresas farmacéuticas que hoy construyen procesos de evidencia con IA bien documentados, transparentes y metodológicamente rigurosos, siguiendo las mejores prácticas de NICE, ISPOR y los marcos emergentes, están posicionándose como referencia ante los evaluadores.
CONITEC e IETS, cuando desarrollen sus propias posiciones sobre IA, y lo harán, porque la presión del volumen de dossiers y la influencia de las agencias globales lo exigirá, mirarán los precedentes que ya existan. Las empresas que hayan documentado bien cómo usan IA en su evidencia tendrán una ventaja real.
Además, los evaluadores de CONITEC e IETS ya conocen los estándares internacionales. Participan en ISPOR, colaboran con RedETSA, publican en revistas indexadas. La calidad metodológica de un dossier, con o sin IA, es visible para ellos.
El riesgo
La ausencia de reglas no protege a quien usa IA sin rigor. Un evaluador de CONITEC que reciba un dossier con una revisión sistemática asistida por IA, sin documentación del proceso, sin validación de los resultados y sin transparencia sobre los métodos, tiene motivos para desconfiar de toda la evidencia presentada.
El reporte de Putnam Associates (2025) es claro al respecto: a pesar de que varios laboratorios ya tienen iniciativas internas para probar herramientas de IA en HEOR, rara vez las usan en dossiers reales por miedo a la no aceptación de esas metodologías por parte de las agencias HTA [7]. El uso de IA en generación de evidencia sigue siendo poco común y frecuentemente no se declara.
El doble riesgo del silencio
Los equipos que no declaran el uso de IA se exponen a cuestionamientos de integridad metodológica si el proceso sale a la luz. Los que no usan IA por miedo compiten con creciente desventaja de tiempo y costo frente a quienes sí la están integrando con rigor.
4. Lo que los equipos de LATAM deben hacer mientras las reglas llegan
La estrategia no es esperar a que CONITEC e IETS publiquen sus posiciones sobre IA. La estrategia es prepararse hoy con los estándares que ya existen, para que cuando las posiciones se publiquen, el equipo ya esté alineado.
Adoptar los estándares de NICE como referencia
Los lineamientos de NICE ECD11 son el estándar más completo disponible hoy para el uso de IA en evidencia HTA. Aunque no son vinculantes en LATAM, representan el nivel de rigor que las agencias más avanzadas ya exigen. Construir procesos de evidencia que cumplan con esos criterios, transparencia, validación, supervisión humana, justificación del uso, es la mejor preparación posible para lo que viene.
Documentar el proceso, no solo el resultado
El cambio más importante que la IA introduce en los procesos de evidencia no es el resultado, es la trazabilidad del proceso. Un dossier que documente cómo se usó IA, qué herramientas, qué validaciones se realizaron y cómo se mantuvo la supervisión humana, es un dossier que puede defenderse ante cualquier evaluador, hoy o cuando las reglas lleguen.
Capacitar a los equipos en metodología IA-HEOR
El ISPOR Working Group sobre IA generativa en HEOR es explícito: las organizaciones deben adoptar herramientas de IA con controles y balances robustos, y los profesionales de HEOR necesitan comprender las herramientas que están usando [8]. Un equipo que usa IA sin entender sus limitaciones metodológicas es un equipo que no puede defender su evidencia ante un evaluador entrenado.
El vacío no va a durar
CONITEC e IETS estarán bajo presión creciente para definir su posición sobre IA en evidencia. La demanda de evaluaciones crece, los recursos son limitados y las herramientas de IA para acelerar los procesos son cada vez más accesibles. Cuando las posiciones lleguen, lo más probable es que sigan el modelo de NICE: IA permitida, bajo condiciones estrictas de transparencia, validación y supervisión humana.
Las empresas farmacéuticas que hoy están construyendo esa capacidad metodológica, no solo usando IA, sino usándola bien, serán las que lleguen preparadas a ese momento.
Cómo te acompañamos
En Quantus apoyamos a equipos de market access y HEOR en LATAM a construir procesos de evidencia rigurosos, defendibles y alineados con los estándares internacionales que ya existen. Si quieres entender cómo preparar tu equipo para lo que viene, escríbenos.
Referencias
[1] CONITEC. Diretrizes Metodológicas: Elaboração de Estudos para Avaliação Econômica em Saúde. Ministério da Saúde, Brasil. Disponible en: conitec.gov.br
[2] Library of Congress. Brazil: Senate Advances Discussions on Bill to Regulate AI Use. Mayo 2025. Disponible en: loc.gov/global-legal-monitor
[3] AmCham Colombia. Proyecto de ley sobre inteligencia artificial: elementos clave de la regulación en Colombia. Agosto 2025. Disponible en: amchamcolombia.co
[4] NICE. Use of AI in evidence generation: NICE position statement (ECD11). Agosto 2024. Disponible en: nice.org.uk/corporate/ecd11
[5] Canada's Drug Agency (CDA-AMC). Position Statement on the Use of AI in the Generation and Reporting of Evidence. 2025. Disponible en: cda-amc.ca
[6] FDA. Draft Guidance: Considerations for the Use of Artificial Intelligence To Support Regulatory Decision-Making for Drug and Biological Products. 2025. Disponible en: fda.gov
[7] Putnam Associates. Acceptance of Artificial Intelligence in Evidence and Dossier Developments by HTA bodies: Challenges and Opportunities. 2025. Disponible en: putassoc.com
[8] Fleurence R, et al. Generative Artificial Intelligence for Health Technology Assessment: Opportunities, Challenges, and Policy Considerations. Value in Health. 2025;28(2):175-183.