HTA Strategy

CONITEC e IETS estão redefinindo qual evidência é suficiente. Sua equipe sabe?

Pier Lasalvia, MD
Pier Lasalvia, MDCo-founder, CTO & Co-CEO
Camilo Castañeda, MD
Camilo Castañeda, MDCo-founder, COO
April 15, 2026 8 min read

As duas agências HTA mais influentes da América Latina ainda não têm regras claras sobre inteligência artificial. Isso não significa que estão esperando. Significa que o terreno está se movendo sob os pés das equipes de market access.

Há uma pergunta que as equipes de market access na América Latina ainda não estão fazendo com seriedade suficiente: o que acontecerá quando a CONITEC no Brasil e o IETS na Colômbia começarem a receber dossiês construídos com inteligência artificial, e não tiverem critérios claros para avaliá-los?

A resposta curta: já está acontecendo. Os laboratórios farmacêuticos já estão usando IA generativa em partes de seus processos de evidência. As revisões sistemáticas são aceleradas com ferramentas de triagem automática. Os modelos econômicos são construídos com assistência de LLMs. E nenhuma das principais agências HTA da América Latina tem hoje uma posição pública sobre como avaliará essa evidência.

O vazio não é neutro

É uma oportunidade e um risco. As empresas que documentarem bem seu uso de IA se tornarão referência para os avaliadores. As que não fizerem isso se expõem a questionamentos de integridade metodológica.

1. O estado atual: CONITEC, IETS e o silêncio sobre IA

CONITEC (Brasil)

A CONITEC é a agência HTA mais rigorosa da América Latina. Criada em 2011 pela Lei Federal 12.401, conta com mais de 100 profissionais multidisciplinares e avaliou centenas de tecnologias sanitárias para o SUS. Suas diretrizes metodológicas para avaliações econômicas são detalhadas, exigentes e amplamente referenciadas na região [1].

No entanto, a CONITEC não tem até o momento uma posição pública sobre o uso de inteligência artificial na geração de evidência nem na construção de dossiês. Os critérios que aplica para avaliar revisões sistemáticas, modelos de custo-efetividade e impacto orçamentário não distinguem se o processo foi assistido por IA ou realizado integralmente de forma manual.

Paralelamente, o Brasil aprovou no Senado em dezembro de 2024 o Projeto de Lei 2.338/2023 de regulação geral de IA, atualmente em revisão na Câmara dos Deputados, que estabelece uma abordagem baseada em risco semelhante ao AI Act europeu [2]. Mas esse marco regulatório é genérico: não aborda especificamente a evidência farmacêutica nem os processos de HTA.

IETS (Colômbia)

O Instituto de Avaliação Tecnológica em Saúde da Colômbia tem um papel central na definição de coberturas, preços de referência e diretrizes de prática clínica para o sistema de saúde colombiano. Suas metodologias baseiam-se em padrões internacionais da ISPOR e da EUnetHTA.

Assim como a CONITEC, o IETS não tem uma posição pública específica sobre IA em evidência. A Colômbia apresentou em julho de 2025 um novo projeto de lei de regulação de IA, o PL 043/2025, com mensagem de urgência do Governo em setembro de 2025, que incorpora princípios de transparência, supervisão humana e classificação por risco inspirados na OCDE e no AI Act europeu [3]. Mas também não tem aplicação direta aos processos de HTA.

O resultado em ambos os países é o mesmo: os laboratórios estão usando ou explorando ferramentas de IA em seus processos de evidência, e as agências HTA não têm critérios estabelecidos para avaliá-las.

2. O que está acontecendo no mundo: NICE liderou, os demais observam

Para entender para onde vai a América Latina, é preciso olhar para onde a Europa já chegou.

Em agosto de 2024, a NICE, agência HTA do Reino Unido e referência metodológica global, publicou seu Position Statement sobre o uso de IA na geração de evidência (ECD11) [4]. Foi o primeiro documento desse tipo emitido por uma agência HTA de primeiro nível. Sua mensagem central: a IA pode ser usada em submissões de evidência, mas sob condições estritas.

As principais condições que a NICE estabelece são:

  • Transparência obrigatória: as organizações devem documentar claramente quais métodos de IA usaram, por quê e quais premissas aplicaram.
  • Validação exigida: os métodos de IA devem ser validados e, quando possível, contrastados com métodos alternativos.
  • Supervisão humana não negociável: a IA deve aumentar, não substituir, o julgamento humano especializado no processo de evidência.
  • Uso justificado: a IA só deve ser empregada quando agrega valor claro. Não deve ser usada como atalho se existirem alternativas metodológicas estabelecidas.
  • Risco de viés reconhecido: os métodos de IA para estimativa de efeitos comparativos são considerados de alto risco e requerem análise de sensibilidade e triangulação com evidência clínica disponível.

A Canada's Drug Agency (CDA-AMC) publicou em 2025 sua própria Position Statement baseada nas diretrizes da NICE [5]. A EMA tem um plano de trabalho de IA 2023-2028 que inclui orientações para a evidência no ciclo de vida dos medicamentos. A FDA publicou em 2025 seu draft guidance sobre uso de IA em decisões regulatórias [6].

O padrão é claro: as agências do mundo desenvolvido estão construindo marcos. A América Latina ainda não.

3. Por que esse vazio é simultaneamente uma oportunidade e um risco

A oportunidade

Quando uma agência não tem regras estabelecidas, o padrão é definido pelos primeiros atores que o estabelecem na prática. As empresas farmacêuticas que hoje constroem processos de evidência com IA bem documentados, transparentes e metodologicamente rigorosos, seguindo as melhores práticas da NICE, ISPOR e marcos emergentes, estão se posicionando como referência diante dos avaliadores.

A CONITEC e o IETS, quando desenvolverem suas próprias posições sobre IA, e o farão, porque a pressão do volume de dossiês e a influência das agências globais exigirão, olharão para os precedentes que já existam. As empresas que tiverem documentado bem como usam IA em sua evidência terão uma vantagem real.

Além disso, os avaliadores da CONITEC e do IETS já conhecem os padrões internacionais. Participam da ISPOR, colaboram com a RedETSA, publicam em revistas indexadas. A qualidade metodológica de um dossiê, com ou sem IA, é visível para eles.

O risco

A ausência de regras não protege quem usa IA sem rigor. Um avaliador da CONITEC que receba um dossiê com uma revisão sistemática assistida por IA, sem documentação do processo, sem validação dos resultados e sem transparência sobre os métodos, tem motivos para desconfiar de toda a evidência apresentada.

O relatório da Putnam Associates (2025) é claro a esse respeito: embora vários laboratórios já tenham iniciativas internas para testar ferramentas de IA em HEOR, raramente as usam em dossiês reais por medo da não aceitação dessas metodologias pelas agências HTA [7]. O uso de IA na geração de evidência continua sendo pouco comum e frequentemente não declarado.

O duplo risco do silêncio

As equipes que não declaram o uso de IA se expõem a questionamentos de integridade metodológica se o processo vier à tona. As que não usam IA por medo competem com crescente desvantagem de tempo e custo frente às que a integram com rigor.

4. O que as equipes da América Latina devem fazer enquanto as regras chegam

A estratégia não é esperar que a CONITEC e o IETS publiquem suas posições sobre IA. A estratégia é preparar-se hoje com os padrões que já existem, para que, quando as posições forem publicadas, a equipe já esteja alinhada.

Adotar os padrões da NICE como referência

As diretrizes da NICE ECD11 são o padrão mais completo disponível hoje para o uso de IA em evidência HTA. Embora não sejam vinculantes na América Latina, representam o nível de rigor que as agências mais avançadas já exigem. Construir processos de evidência que cumpram esses critérios, transparência, validação, supervisão humana, justificativa do uso, é a melhor preparação possível para o que vem.

Documentar o processo, não apenas o resultado

A mudança mais importante que a IA introduz nos processos de evidência não é o resultado, é a rastreabilidade do processo. Um dossiê que documente como a IA foi usada, quais ferramentas, quais validações foram realizadas e como foi mantida a supervisão humana, é um dossiê que pode ser defendido diante de qualquer avaliador, hoje ou quando as regras chegarem.

Capacitar as equipes em metodologia IA-HEOR

O ISPOR Working Group sobre IA generativa em HEOR é explícito: as organizações devem adotar ferramentas de IA com controles e balanços robustos, e os profissionais de HEOR precisam compreender as ferramentas que estão usando [8]. Uma equipe que usa IA sem entender suas limitações metodológicas é uma equipe que não pode defender sua evidência diante de um avaliador treinado.

O vazio não vai durar

A CONITEC e o IETS estarão sob pressão crescente para definir sua posição sobre IA em evidência. A demanda por avaliações cresce, os recursos são limitados e as ferramentas de IA para acelerar os processos são cada vez mais acessíveis. Quando as posições chegarem, o mais provável é que sigam o modelo da NICE: IA permitida, sob condições estritas de transparência, validação e supervisão humana.

As empresas farmacêuticas que hoje estão construindo essa capacidade metodológica, não apenas usando IA, mas usando-a bem, serão as que chegarão preparadas a esse momento.

Como ajudamos

Na Quantus apoiamos equipes de market access e HEOR na América Latina a construir processos de evidência rigorosos, defensáveis e alinhados com os padrões internacionais que já existem. Se você quer entender como preparar sua equipe para o que vem, escreva para nós.

Referências

[1] CONITEC. Diretrizes Metodológicas: Elaboração de Estudos para Avaliação Econômica em Saúde. Ministério da Saúde, Brasil. Disponível em: conitec.gov.br

[2] Library of Congress. Brazil: Senate Advances Discussions on Bill to Regulate AI Use. Maio 2025. Disponível em: loc.gov/global-legal-monitor

[3] AmCham Colombia. Proyecto de ley sobre inteligencia artificial: elementos clave de la regulación en Colombia. Agosto 2025. Disponível em: amchamcolombia.co

[4] NICE. Use of AI in evidence generation: NICE position statement (ECD11). Agosto 2024. Disponível em: nice.org.uk/corporate/ecd11

[5] Canada's Drug Agency (CDA-AMC). Position Statement on the Use of AI in the Generation and Reporting of Evidence. 2025. Disponível em: cda-amc.ca

[6] FDA. Draft Guidance: Considerations for the Use of Artificial Intelligence To Support Regulatory Decision-Making for Drug and Biological Products. 2025. Disponível em: fda.gov

[7] Putnam Associates. Acceptance of Artificial Intelligence in Evidence and Dossier Developments by HTA bodies: Challenges and Opportunities. 2025. Disponível em: putassoc.com

[8] Fleurence R, et al. Generative Artificial Intelligence for Health Technology Assessment: Opportunities, Challenges, and Policy Considerations. Value in Health. 2025;28(2):175-183.