“O contexto é o que transforma o ruído em significado. Ele é o tecido conectivo que dá sentido aos momentos, memórias e decisões — entre o que você quis dizer e como isso é entendido. Na comunicação humana, o contexto é muitas vezes dado como certo. Quando falamos e nos comunicamos, extraímos das experiências compartilhadas, referências, tom, tempo e linguagem corporal. As máquinas não têm isso. Elas veem um padrão, não uma presença. Elas respondem, mas não se relacionam. É por isso que o contexto é importante na IA. Sem ele, as máquinas oferecem fluência retórica sem compreensão real. Elas geram frases que soam bem, mas não entendem o que é o mais importante no fraseado. Contexto, não código. Essa é a nova linha divisória. O código diz às máquinas o que fazer; o contexto lembra-lhes quem elas precisam ser em cada contato, garantindo que a conversa seja tão confiável quanto pertinente. Não estamos mais pedindo às máquinas que façam as coisas. Elas estarão nos entendendo, e isso muda tudo. Não se trata do próximo grande aplicativo ou de um chatbot matador, mas do fim das interfaces como as conhecemos. A interface do usuário está desaparecendo, e o que a substitui não são as telas — é a computação contextual”, explicou Jason Alan Snyder, professor da University of Utah e da University of California,para a Forbes em junho/2025.
Se em novembro de 2022 o infoespaço acordou perplexo com a chegada das IAs Generativas (LLMs), em novembro de 2024 a estupefação só cresceu. Com o título de “Introducing the Model Context Protocol (MCP)”, a empresa Anthropic, uma das ‘belezuras provedoras’ de LLMs (Claude), lançou o protocolo MCP. Um padrão aberto que conecta quaisquer assistentes de IA diretamente às fontes de dados, sem gambiarras nem promessas vazias — uma espécie de plug-in (‘fly-plug’), um verdadeiro ‘fio-terra’ ligado direto ao cérebro das máquinas de IA. Trata-se de um padrão gratuito, hospedado no GitHub, que age como um ‘USB-C’ entre os modelos de IA e os sistemas de informação, cortando o custo de integração e evitando a dependência histórica de “fornecedores de interoperabilidade”. Qualquer equipe pode baixá-lo e colocar para rodar em poucas horas. Observação: acesso gratuito (custo zero).
MCP (Model Context Protocol) é um padrão que permite às IAs conectarem-se a bancos de dados, APIs, softwares, arquivos, Apps, etc., utilizando algo parecido com um modelo “cliente-servidor” que vincula perfeitamente os LLMs às aplicações externas, tornando-os mais poderosos e assertivos. Humanos são artífices na dependência com o “outro” (seja este um outro humano, ou animal, objeto, máquina ou qualquer metadado). Somos, desde cedo, entidades carentes de mediação. A própria linguagem, nossa interface mais direta de intercessão com o mundo, pode ser traiçoeira e até nos distanciar da alteridade. Sempre precisamos da intermediação, da arbitragem e de uma interposição que concilie nossos desejos e instintos com o que o mundo nos disponibiliza. Sem integração, somos a mais fútil e ignóbil das amebas.
Entenda o fluxo MCP: (1) Entrada MCP: o usuário digita no prompt da IA; (2) Aplicativo (Host): o aplicativo, como um anfitrião, pergunta ao Servidor MCP — via Cliente MCP — quais ferramentas estão disponíveis para acesso (bancos de dados, APIs, diretórios de exames, planilhas, etc.); (3) Seleção de contexto: o aplicativo escolhe nessa lista apenas os dados que ajudam a responder à pergunta do usuário — o chamado “contexto-relevante”, isto é, qualquer informação que aumente a probabilidade de uma resposta mais útil naquele cenário; (4) Envio do pacote: a pergunta, já enriquecida por esse contexto, é enviada ao modelo de linguagem (LLM); (5) Avaliação do modelo: ao ler o pacote, a IA decide se o contexto basta; se não, seleciona uma ferramenta permitida e solicita sua execução (também via Cliente MCP); (6) Devolução do resultado: a ferramenta (um LIS, por exemplo) realiza a tarefa (‘buscar exames no laboratório’) e devolve o resultado ao aplicativo, que o repassa ao modelo LLM; (7) Resposta final: com o resultado em mãos, a IA formula a resposta mais completa e o aplicativo a apresenta ao usuário.
Assim, compõem o fluxo MCP as seguintes entidades: (a) Aplicativo (Host); (b) Modelo LLM (IA); (c) Servidor MCP; (d) Cliente MCP; e (e) Ferramentas (ex.: LIS). Todo dado inserido ou requisitado pelo Agente IA perpassa essa linha, capaz de gerar contextualização e intencionalidade a qualquer demanda. Se os dados estiverem bem estruturados, o fluxo MCP inteiro pode se dar em frações de segundo. Um único Agente IA pode precisar acessar arquivos, consultar bancos de dados e chamar serviços da Web — cada um exigindo tradicionalmente diferentes padrões de integração. O desafio na ‘interoperabilidade de ferramentas’ surge da falta ou da multiplicidade de padrões, onde cada integração se torna um projeto personalizado. MCP pode quebrar essa fragmentação, unindo sistemas descentralizados, como conectar, por exemplo, uma IA e a Web3, permitindo que os agentes executem contratos inteligentes e verifiquem dados armazenados em múltiplas cadeias de serviços.
O que acontece no MCP está presente em nosso cotidiano e mal percebemos. Você chega a um hotel em outro país às duas e meia da manhã. Seu notebook não conecta com a tomada de energia. Com centenas de e-mails à sua espera, você clama por um adaptador universal. Desce ao restaurante e verifica não entender uma única palavra do que está escrito no Menu. Um gentil garçom multilíngue (mambembe) explica ao chef de cozinha (que só entende Hindi) o seu pedido. Naquele exato instante, o garçom é o integrador universal. Sem ele, você não come e o chef está desempregado. O maestro sobe ao púlpito com a orquestra à sua frente. O público ovaciona. Mas 120 músicos têm somente as partituras de seus instrumentos. O único que domina o conjunto, ou seja, é capaz de dar andamento, controlar cadência, indicar harmonia e dar equilíbrio sonoro é o maestro. Ele é o adaptador temporal entre o que o compositor escreveu há duzentos anos e o que cada músico vai interpretar hoje. No fim da primeira metade do século XXI, todos somos hiperdependentes de algum tipo de adaptador, deum habilitador de interações.
A “interoperabilidade” é a contraparte lógica/digital no universo da tecnologia. Ela passou a ser o mais importante atributo sistêmico-computacional dos últimos 50 anos. Possui a capacidade de integrar diferentes sistemas de informação, dispositivos e aplicações, permitindo ‘conversarem’ entre si. Trata-se de um ‘Esperanto’ de máquina, uma interface construída em código de instruções, capaz de fazer com que um software desenvolvido em Tóquio seja compreendido e operado em São Paulo, sem a necessidade de ser reescrito ou reprogramado.
Nos últimos quarenta anos, grandes empresas construíram receita recorrente vendendo “torres de interoperabilidade”, as chamadas “plataformas de interoperabilidade” (ou middleware). O valor entregue era claro: conectar sistemas díspares, traduzir, enfileirar, auditar e monitorar. Esse middleware tornou-se o “software de intermediação”, capaz deoperar como uma camada lógica situada entre as aplicações de negócios e os recursos subjacentes (sistemas operacionais, bancos de dados, redes ou outros serviços). Seu papel técnico é abstrair as heterogeneidades (protocolos, linguagens, localizações físicas, etc.) e fornecer serviços de integração que permitem a componentes distribuídos trocar dados, coordenar transações e compartilhar funcionalidades sem conhecer detalhes uns dos outros. Em suma, os “barramentos de interoperabilidade” tornaram-se a argamassa que, desde os anos 1980, possibilitaram a criação de aplicações distribuídas. Nunca funcionou 100%, mas operou milagres interconectivos que mudaram a comunicação entre humanos e entre estes e as máquinas. A interoperabilidade continuará a ser um atributo, não mais um artefato.
As APIs, por exemplo, foram o primeiro grande unificador da Internet, mas os modelos de IA não tinham um equivalente à altura. Dentro do movimento tectônico das “IAs Generativas”, emergiu o MCP. Ele muda tudo (se você tem comichão quando lê a expressão “muda tudo”, talvez seja melhor parar de ler este paper). MCP é um novo adaptador universal. É o andaime que ajuda os sistemas de reconhecimento de padrões a se aproximarem de algo mais profundo: a intersubjetividade, ou seja, a capacidade de sustentar o significado compartilhado entre as interações. Com o MCP, as máquinas de IA não apenas completam sua frase no prompt, mas lembram o que veio antes, quais restrições se aplicam e qual objetivo você está tentando alcançar. Consumidores esperam experiências rápidas e sem atrito. Pedir a um Agente IA para agendar um exame de ultrassonografia por meio de um navegador pode levar muitos minutos, supondo que ele não fique preso navegando em interfaces complexas ou interpretando erroneamente onde clicar. As IAs na Saúde mostram a sua força, mas perpassar o labirinto de legados que gravitam em seu entorno pode ser um motim-randomizado.
MCP não é um modelo de prompt ou uma ferramenta de UX (user-experience: práticas que garantem uma interação satisfatória). Se os grandes modelos de linguagem (LLMs), ou mesmo os LRMs (Large Reasoning Model, grandes modelos que explicitam seu raciocínio passo a passo), nos deram um novo tipo de inteligência, o MCP fornece continuidade a essa inteligência: limites, memória, identidade e contexto. Como explica Snyder: “o MCP não torna os modelos mais inteligentes, mas os torna mais situados — capazes de agir em nosso mundo, em nosso nome, sem cair no caos ou na contradição. Não precisamos de chips mais rápidos. Precisamos de um contexto mais claro. Se não acertarmos essa camada, tudo construído sobre a IA vacilará. Costumávamos escrever código para comandar máquinas. Agora, as máquinas interpretam o contexto para agir em nosso nome. O que está surgindo é a execução-baseada-no-contexto”.
Lojas virtuais de aplicativos serão substituídas por uma nova lógica de atendimento. A intenção se torna a plataforma de IA. Imagine dizer a uma IA: “Leve-me a Goiânia amanhã à tarde por menos de R$ 2.000,00”. Em vez de fazer as tradicionais ‘perguntas de acompanhamento’, o sistema já conhece suas preferências, decisões anteriores, calendário e regras de aprovação. Ele verifica as APIs corretas, acessa as bases de dados pertinentes, avalia seus ‘pontos de fidelidade’ e reserva o voo sem ficar pulando de App em App, sem cliques extras e sem a IA devolver com: “segue uma lista de 12 opções…”. Lembre-se, o contexto é o alvo, não a diligência. O protocolo MCP cuida de transportar esse contexto de forma padronizada, garantindo que a IA agêntica saiba o que pode usar, como usar e até onde pode ir — sem obrigar cada desenvolvedor a reinventar headers, payloads proprietários, etc. O paper “MCP: From Chaos to Harmony”, publicado pela Medium em junho/2025, explicita essa cacofonia: “Imagine o seguinte: você tem 3 modelos de IA que precisam se conectar a 5 fontes de dados diferentes. Sem um protocolo padrão, você precisaria criar 15 integrações personalizadas (3 × 5 = 15). Dimensione isso para níveis corporativos — dezenas de modelos conectados a centenas de fontes de dados — e você verá milhares de integrações personalizadas para criar, manter e queimar recursos”.
Na Saúde, por exemplo, o Model Context Protocol altera subitamente as fundações da relação entre máquinas e serviços: qualquer desenvolvedor pode expor um PACS, ERP ou SQL como um “servidor MCP” com poucas dezenas de linhas de código e torná-lo legível por qualquer agente IA. O conector — até então vendido como software premium — torna-se ‘commodity open source’. Pense no MCP como um USB (de contexto): ele entra no modelo (LLM) de um lado, avança na sua planilha, invoca o CRM, acessa o GitHub, consulta e interpreta o prontuário eletrônico e passa a conversar com todas essas entidades computacionais na mesma ‘amperagem’, sem adaptar nada. Termina, assim, a salada de cabos, o emaranhado de fontes de 12 volts incompatíveis e das portas proprietárias que prendiam o usuário ao fabricante. O MCP adapta automaticamente e instantaneamente o contexto à demanda.
Imagine um pronto-socorro, com algum suporte digital, às três da manhã. O clínico pede ao Agente IA o histórico de um paciente, mas a máquina precisa atravessar um pântano de APIs frágeis, ETLs noturnos (equipe de limpeza invisível), ou arquivos CSV empilhados como radiografias esquecidas. Cada sistema fala um dialeto próprio e o tradutor — um código-cola inseguro — tropeça em permissões, versionamentos e formatações. A interoperabilidade, antes heroica, transformou-se numa torre de Babel onde a IA sussurra, mas os dados respondem em eco. Nessa cacofonia, o MCP não apenas responde às perguntas, mas também sabe como acessar e usar ferramentas externas (bancos de dados, arquivos, APIs, Apps, data lakes, sistemas legados, etc.) que ajudem a resolver com mais eficiência a demanda do usuário-LLM.
Antes do MCP, desenvolver um Agente IA significava costurar meia dúzia de SDKs, debugar permissões OAuth às cegas e rezar para que o update da API não quebrasse o ‘script’ na véspera da demo. Cada integração era um artesanato caro, instável e, pior: invisível ao usuário que acreditava cegamente no “destino” orientado pela plataforma interoperável. Com MCP, integra-se uma vez e se conecta a qualquer lugar. Hospitais disparam sinais vitais em tempo real para LLMs que prescrevem alertas e controlam instantaneamente o fluxo de dezenas de dispositivos e equipamentos. O protocolo entrega segurança nativa, streaming bidirecional e controle de versões: a IA sabe de onde veio cada bit e para onde pode devolvê-lo.
Então, é o fim da interoperabilidade? Não. É o fim da interoperabilidade-como-produto. Assim como a internet deixou de ser “web-hosting” para virar tecido de tudo, o MCP interopera tudo como condição basal. Com MCP, interoperar significa um ato intrínseco de um sistema falar com outro, tão transparente quanto uma requisição HTTP. Não é mais um produto, mas sim um atributo espontâneo do ecossistema. Se antes precisávamos “comprar” interoperabilidade, agora ela virá de fábrica. A palavra permanece, mas perde o sobrenome pomposo de “plataforma”. Os novos Agentes IA já trazem a “interoperabilidade embarcada” – falam FHIR, entendem HL7, negociam credenciais via MCP e reconhecem organicamente A2A sem que o desenvolvedor escreva uma linha de código. É o fim do Programador e do Analista de Sistemas? Não.Trata-se de um vácuo elegante e generoso para que eles se transformem em “Analistas de Contexto”.
Como explica o artigo “The interoperability breakthrough: How MCP is becoming enterprise AI’s universal language”, publicado pela Venture Beat (maio/13): “Se houver dúvidas sobre a adoção do MCP e, até certo ponto, do A2A, essas dúvidas podem ser dissipadas pela adoção dos protocolos por grandes empresas. O CEO da Microsoft, Satya Nadella, por exemplo, endossou ambos, dizendo: ‘Protocolos abertos como A2A e MCP são essenciais para viabilizar a web agêntica’. O CEO do Google, Sundar Pichai, também aprovou com entusiasmo o MCP”. Todas as principais bigtechs seguem na mesma direção: “permita que o contexto respire além do código; forje um Agente IA que incorpore a visão de mundo do seu usuário”.
Não é só um upgrade técnico, mas uma mudança descomunal na Economia de Dados. Interoperabilidade deixa de ser um campo de batalha de padrões rivais e se transforma em commodity: tão onipresente quanto sinal de Wi-Fi. O valor migra da cola para o conteúdo, e da integração para a orquestração. Se até ontem empresas vendiam “conectores” como quem vende extensões de energia, agora o business é a ‘coreografia dos agentes’ — onde o MCP dá o compasso. MCP não derruba o castelo dos padrões anteriores; ele simplesmente abre um portão tão largo que lutar por passagem se torna irrelevante. “Como num ‘clique’ de disjuntor, a luz acende e ninguém mais discute o interruptor”.
Na Saúde, a ação de interoperar persistirá, mas desliza para o plano semântico-institucional (garantir que “creatinina” sempre signifique o mesmo). Ou seja, MCP padroniza o transporte, não a ontologia. Assim, em um hospital, por exemplo, HL7 v2 ou FHIR continuam sendo o “vocabulário” clínico. MCP só leva o pacote. Pense nele como um “serviço de courier hipermoderno”: ele embala o conteúdo num contêiner (JSON); carimba o endereço do microsserviço (ou do agente-destino) e garante que o pacote chegue íntegro, com rastreio e autenticação. Mas o que está dentro da caixa — “pressão arterial sistólica”, “creatinina sérica”, “classificação TNM” — continua a falar o dialeto médico que já existe (HL7 v2, FHIR, SNOMED CT, LOINC, CID-10, etc.). O MCP não “traduz” e nem harmoniza esses termos; só assegura que o pedido (“traga o prontuário do João”) e a resposta (“BP = 140/90 mmHg, SNOMED = 38341003”) passem de um lado a outro sem atrito. Assim, quem dita o vocabulário clínico continua sendo a própria cadeia de Saúde: cada hospital ainda precisa canonicamente mapear seus campos locais para modelos FHIR ou HL7 se quiser que a viagem do dado faça sentido do outro lado.
No fundo, o MCP expõe um dialeto (JSON-RPC 2.0 padronizado), fazendo com que qualquer fonte de dados vire “servidor MCP” e qualquer Agente IA vire “cliente MCP”. Isso mata grande parte da “cola ponto-a-ponto” que consome de 40 a 60% do orçamento de integração. O efeito “USB-C” é crescente (OpenAI, Google DeepMind e Microsoft anunciaram adesão; e o Windows 11 já expõe um ‘registry de MCP servers’ para que apps busquem dados de usuário por linguagem natural).
Por outro lado, na equação clínico-ontológica entra a IA. Um LLM ajuda a identificar sinônimos (“ureia” vs. “BUN”), propondo correspondências automáticas e destacando inconsistências. As IAs já demonstram que conseguem reduzir drasticamente o trabalho braçal de “garimpo médico-semântico” — transformando o mapeamento de termos clínicos em algo cada vez mais semiautomático, em vez de um artesanato manual. Um bom exemplo é o treino específico de grandes modelos de linguagem (LLMs) para codificação: o estudo “Enhancing medical coding efficiency through domain-specific fine-tuned large language models”, publicado em maio/2025 pela Nature, mostrou que, após o fine-tuning com todo o universo ICD-10, um LLM saltou de menos de 1% para 97% de acerto na escolha exata do código, mesmo diante de abreviações, erros de digitação e frases embaralhadas. Esse salto ainda não elimina a revisão humana, mas já devolve aos codificadores um painel filtrado, onde o “joio” fica evidenciado (códigos irrelevantes, repetidos ou inválidos); e o “trigo” (candidatos plausíveis) ganha prioridade, encurtando horas de conferência. Há também motores híbridos, como o algoritmo I-MAGIC (NLM), que injeta regras em tempo real para converter termos (SNOMED CT em ICD-10-CM) enquanto o clínico edita o prontuário. A IA, nesse caso, decide quando pedir um detalhe extra (“gestação atual ou passada?”) e ajusta o código final com base na idade ou comorbidades do paciente. A velocidade e assertividade do processo só crescem com o MCP. Outra pesquisa recente com modelos “FHIR-GPT” e variantes treinadas sobre milhares de notas clínicas (“Evaluating the Effectiveness of Large Language Models in Converting Clinical Data to FHIR Format”) mostra mais de “90% de exatidão na conversão direta de texto livre em recursos FHIR”, poupando o mapeamento manual de cada campo do EHR para o perfil-padrão.
À medida que LLMs e LRMs se tornam coparticipantes do fluxo (sugerindo códigos, apontando inconsistências, explicando regras), o papel da junta médica deixa de ser “separar grãos a mão” para virar auditoria fina e validadora de exceções. Dessa forma, o combo MCP+IA libera tempo clínico para o que as máquinas não fazem, ao mesmo tempo em que acelera a normalização vocabular a uma velocidade inalcançável pelo esforço exclusivamente humano.
O MCP surgiu como uma “gramática-pivô” entre modelos e o mundo externo, e por algum tempo reinará quase absoluto, enquanto a maioria das aplicações já “sai do forno” com ele embutido. Esse protagonismo inicial deu a ele um brilho imperial — basta plugar e a conversa entre dados, funções e LLMs flui como se sempre tivesse existido. Mas impérios raramente permanecem solitários. Em poucos meses, o Google lançou o Agent-to-Agent (A2A) para mensageria entre agentes autônomos, blogs já falam em “guerra de protocolos” e analistas lembram que padrões só vingam quando coexistem, se convergem ou se reinventam. Portanto, o MCP sai na frente e faz poeira, mas logo estará acompanhado de outros competidores.
Um resumo de tudo poderia ser: a dinâmica da inteligência artificial estará cada vez mais condicionada ao contexto. Ao longo dos séculos XVI e XVII, esse termo, “contexto”, entrou no inglês e no francês como “context” e “contexte”, já com a acepção ampliada para “ambiente de referência”. A semântica moderna e a Ciência da Computação herdam essa dupla linhagem: por um lado, “co-texto” (o que gravita em torno do texto) e, por outro, “contexto”, um tecido situacional que alcança os vetores histórico, cultural e tecnológico, conferindo ao texto a sua inteligibilidade. Quando falamos hoje em “contexto clínico” de uma IA, podemos imaginar um tear: quanto mais fios (variáveis) se entrelaçam, mais robusto e nuançado é o tecido-significante.
Como explica Snyder: “As interfaces cérebro-computador não são mais ficção científica. A distância entre a intenção e a ação está diminuindo rapidamente. Sem orientações contextuais, o sistema não poderá reconhecer suas preferências, valores, limitações e objetivos antes de executar qualquer coisa em nome do usuário. A questão não é mais: ‘Quem está no controle?’, mas ‘De quem são os valores que moldam o sistema que age em meu nome?’ Estamos nos aproximando de um momento em que você não precisará digitar, tocar ou mesmo falar. Você vai pensar e a máquina agirá. Nesse universo, não há interface, nem menus. Só contexto.”
Guilherme S. Hummel
Scientific Coordinator Hospitalar Hub
Head Mentor – EMI (eHealth Mentor Institute)
Leia mais de Guilherme Hummel – Coordenador Científico da Hospitalar Hub