Três agências HTA. Nenhuma regra sobre IA. E os dossiês já estão chegando com IA dentro.


CONITEC, IETS e CENETEC são as três agências HTA mais influentes da América Latina. Nenhuma tem hoje uma posição pública sobre inteligência artificial em evidência farmacêutica. Isso é o que significa para as equipes de market access na região.
Em abril de 2024, o ISPOR HTA Roundtable realizou uma pesquisa informal com 18 membros de agências HTA da América do Norte, América Latina, Australásia e Europa para medir o uso interno de IA generativa nessas organizações. O resultado foi revelador: no momento dessa análise, apenas a NICE havia emitido uma posição pública sobre o uso de IA na geração de evidência [1].
Nenhuma das agências latino-americanas tinha, nem tem hoje, um marco claro sobre como avaliarão a evidência construída com inteligência artificial. E, no entanto, a indústria farmacêutica já está começando a usar ferramentas de IA generativa em partes de seus processos de dossiê [2].
O terreno onde a credibilidade será decidida
Essa lacuna entre o que a indústria está fazendo e o que as agências definiram não é um detalhe administrativo. É o terreno onde a credibilidade da evidência farmacêutica na América Latina será decidida nos próximos dois a três anos.
1. CONITEC, IETS e CENETEC: perfis e estado atual frente à IA
CONITEC (Brasil): a agência mais exigente da região
A CONITEC é a referência metodológica HTA mais sólida da América Latina. Criada em 2011 pela Lei Federal 12.401, conta com mais de 100 profissionais multidisciplinares e avalia tecnologias para o SUS, o sistema público de saúde que cobre mais de 200 milhões de brasileiros [3]. Suas diretrizes metodológicas para avaliações econômicas são detalhadas, com critérios explícitos sobre revisões sistemáticas, modelos de custo-efetividade e impacto orçamentário.
A CONITEC não tem até o momento nenhuma posição pública sobre IA na geração de evidência. O Brasil aprovou em dezembro de 2024 o Projeto de Lei 2.338/2023 de regulação geral de IA no Senado, atualmente em revisão na Câmara dos Deputados [4]. Esse marco estabelece princípios de transparência e classificação por risco inspirados no AI Act europeu, mas não aborda especificamente os processos de HTA nem a evidência farmacêutica.
IETS (Colômbia): rigor metodológico crescente
O Instituto de Avaliação Tecnológica em Saúde desempenha um papel central nas coberturas do sistema de saúde colombiano, preços de referência e diretrizes de prática clínica. Seus métodos baseiam-se em padrões da ISPOR e EUnetHTA, e sua equipe técnica participa ativamente de redes internacionais de HTA.
Assim como a CONITEC, o IETS não tem posição pública sobre IA em evidência. A Colômbia apresentou em julho de 2025 o Projeto de Lei 043/2025 de regulação de IA, com mensagem de urgência do Governo em setembro de 2025 [5]. O projeto segue uma abordagem baseada em risco semelhante ao AI Act europeu e incorpora princípios da OCDE, mas sem aplicação direta aos processos de avaliação de tecnologias sanitárias.
CENETEC (México): um papel em expansão
O Centro Nacional de Excelência Tecnológica em Saúde foi criado em 2004 com foco inicial em equipamentos médicos, e tem expandido progressivamente seu papel para a avaliação de medicamentos para as listas públicas do sistema de saúde mexicano [6]. Opera como assessor técnico da Secretaria de Saúde e do Conselho Geral de Saúde em cobertura e priorização de tecnologias.
O México também não tem uma posição específica da CENETEC sobre IA em HTA. Entre 2021 e 2024 foram apresentadas iniciativas legislativas para regular a IA no país, mas nenhuma foi aprovada, e a CENETEC publicou apenas diretrizes de caráter não vinculante sobre saúde digital [7].
2. O que o HTAi Global Policy Forum 2025 disse sobre o futuro
Em 2025, o Health Technology Assessment international (HTAi) reuniu representantes de agências HTA, indústria farmacêutica, pagadores e pacientes em seu Global Policy Forum para discutir o uso de IA em atividades de HTA. As conclusões são diretamente relevantes para a América Latina [2].
O fórum confirmou que a indústria de ciências da vida já está explorando ativamente ferramentas de IA generativa para geração de evidência clínica e está começando a usá-las no processo de submissões HTA, incluindo a construção e adaptação de dossiês.
A posição do fórum sobre como as agências HTA devem avançar foi clara:
- A implementação de IA em atividades HTA deve ser gradual, começando por tarefas pequenas, menos complexas e repetitivas antes de expandir para aplicações de maior risco.
- As agências devem criar ambientes tipo sandbox para aprender, ajustar e construir confiança no uso de ferramentas de IA de forma proativa.
- O consenso do fórum foi unânime: o momento de agir é agora. Esperar por certeza total antes de desenvolver marcos implica ficar para trás frente a uma indústria que já está avançando.
Para a CONITEC, o IETS e a CENETEC, essa mensagem tem implicação direta: as agências que não definirem sua posição sobre IA em evidência em breve se encontrarão avaliando dossiês construídos com ferramentas que seus avaliadores não estão treinados para identificar nem questionar.
3. A única referência global disponível hoje: o que a NICE estabeleceu
Em agosto de 2024, a NICE publicou seu Position Statement sobre uso de IA na geração de evidência (ECD11) [8]. Foi o primeiro documento desse tipo emitido por uma agência HTA de primeiro nível global, e rapidamente se tornou referência para a indústria e outras agências.
Os cinco princípios centrais do marco da NICE são:
- Transparência obrigatória: documentar quais ferramentas de IA foram usadas, como, e sob quais premissas.
- Validação exigida: os métodos de IA devem ser contrastados com métodos alternativos quando possível.
- Supervisão humana não negociável: a IA aumenta o julgamento especializado, não o substitui.
- Uso justificado: a IA só deve ser empregada quando agrega valor claro frente a métodos estabelecidos.
- Alto risco reconhecido para estimativa de efeitos comparativos: requer análise de sensibilidade e triangulação com evidência clínica disponível.
A Canada's Drug Agency seguiu as diretrizes da NICE com seu próprio Position Statement em 2025. A EMA tem um plano de trabalho de IA 2023-2028. A FDA publicou em 2025 seu draft guidance para IA em decisões regulatórias. O padrão global é inequívoco: as agências de referência estão construindo marcos. A América Latina ainda não.
4. Por que o silêncio não é neutro: o risco para a indústria
A ausência de posições formais na CONITEC, no IETS e na CENETEC não protege quem usa IA sem rigor. Os avaliadores dessas agências são profissionais treinados em metodologia HEOR, com acesso aos mesmos padrões internacionais que seus pares europeus. Um dossiê com evidência gerada com IA sem documentação do processo, sem validação e sem transparência expõe toda a estratégia de evidência a questionamentos de integridade metodológica.
O relatório da Putnam Associates (2025) documenta isso com precisão: embora vários laboratórios já tenham iniciativas internas para explorar IA em HEOR, raramente a usam em dossiês reais por medo da não aceitação por parte das agências [9]. O uso de IA em evidência continua sendo pouco comum e frequentemente não declarado.
Duas consequências opostas, igualmente problemáticas
As equipes que usam IA sem declará-la se expõem a questionamentos de integridade se o processo vier à tona durante a avaliação. As equipes que não usam IA por medo competem com desvantagem crescente de tempo e custo frente às que a integram com rigor.
A saída não é esperar que as agências publiquem suas posições. É preparar-se hoje com os padrões que já existem.
5. O que as equipes de market access da América Latina devem fazer agora
Adotar os padrões NICE como piso mínimo
As diretrizes da NICE ECD11 são o padrão mais completo disponível para o uso de IA em evidência HTA. Construir processos que cumpram seus critérios, transparência, validação, supervisão humana, justificativa do uso, é a melhor preparação possível para quando a CONITEC, o IETS e a CENETEC definirem suas próprias posições, que seguirão esse mesmo modelo.
Documentar o processo com tanto rigor quanto o resultado
A mudança mais importante que a IA introduz não é o output final, é a rastreabilidade do processo. Um dossiê que documente como a IA foi usada, com quais ferramentas, quais validações foram feitas e como foi mantida a supervisão especializada, pode ser defendido diante de qualquer avaliador hoje e quando as regras chegarem.
Capacitar as equipes antes que seja obrigatório
O HTAi Global Policy Forum foi explícito: o momento de agir é agora. As organizações que esperam que as regras sejam publicadas para começar a capacitar suas equipes chegarão tarde. Os avaliadores da CONITEC, do IETS e da CENETEC já participam da ISPOR e conhecem os padrões internacionais. As equipes de market access devem conhecê-los igualmente.
O vazio vai se fechar. A pergunta é se sua equipe estará pronta.
A CONITEC, o IETS e a CENETEC estarão sob pressão crescente para definir sua posição sobre IA. A demanda por avaliações cresce, os recursos são limitados e as ferramentas de IA para acelerar processos são cada vez mais acessíveis. Quando as posições chegarem, seguirão o modelo que a NICE já estabeleceu: IA permitida, sob condições estritas.
As empresas farmacêuticas que hoje estão construindo essa capacidade metodológica, não apenas usando IA, mas usando-a bem, com rigor e rastreabilidade, serão as que chegarão preparadas a esse momento.
Como ajudamos
Na Quantus apoiamos equipes de market access e HEOR a construir processos de evidência rigorosos e alinhados com os padrões internacionais que já existem. Se você quer saber como preparar sua equipe para o que vem na América Latina, escreva para nós.
Referências
[1] Fleurence R, et al. Generative Artificial Intelligence for Health Technology Assessment: Opportunities, Challenges, and Policy Considerations. Value in Health. 2025;28(2):175-183. doi:10.1016/j.jval.2024.10.3846
[2] HTAi Global Policy Forum. Advancing the use of artificial intelligence in health technology assessment activities. Int J Technol Assess Health Care. 2026. doi:10.1017/S0266462324001983
[3] CONITEC/INAHTA. National Committee for Technology Incorporation. Disponível em: inahta.org/members/conitec
[4] Library of Congress. Brazil: Senate Advances Discussions on Bill to Regulate AI Use. Maio 2025. Disponível em: loc.gov/global-legal-monitor
[5] AmCham Colombia. Proyecto de ley sobre inteligencia artificial: elementos clave de la regulación en Colombia. Agosto 2025. Disponível em: amchamcolombia.co
[6] Caetano R, et al. A Perspective on the use of Health Technology Assessment in Brazil and Mexico. Value in Health. 2015. doi:10.1016/j.jval.2015.09.2936
[7] Chambers and Partners. Digital Healthcare 2025, Mexico: Trends and Developments. Disponível em: practiceguides.chambers.com
[8] NICE. Use of AI in evidence generation: NICE position statement (ECD11). Agosto 2024. Disponível em: nice.org.uk/corporate/ecd11
[9] Putnam Associates. Acceptance of Artificial Intelligence in Evidence and Dossier Developments by HTA bodies: Challenges and Opportunities. 2025. Disponível em: putassoc.com