TL;DR: A OpenAI expandiu o suporte ao Model Context Protocol (MCP) em 2026, integrando o padrão à Responses API, ao ChatGPT desktop e ao Agents SDK. Agora é possível conectar agentes de IA a servidores MCP remotos, ferramentas como Figma, HubSpot e Salesforce, e fazer isso em minutos. O protocolo ainda está em beta e tem instabilidades, mas a adoção cresce rápido: com crescimento expressivo no número de servidores ativos e downloads do SDK, segundo dados do ecossistema MCP.
Conectar um agente de IA a um CRM, a uma planilha, ou a uma ferramenta de design sempre foi o tipo de coisa que exigia um desenvolvedor com paciência e muitas horas livres. A OpenAI quer mudar isso, e o MCP é a aposta.
Em 2025, a empresa adotou oficialmente o Model Context Protocol como padrão de integração entre modelos e ferramentas externas. Desde então, o suporte foi ampliado progressivamente, e o que está disponível em 2026 já é bem diferente do ponto de partida. A novidade mais recente é a chegada de suporte a servidores MCP remotos na Responses API, junto com recursos como geração de imagens, Code Interpreter e busca em arquivos.
Para quem constrói produtos com IA ou quer usar agentes de forma mais séria, isso muda o jogo. Entender o que está disponível agora, e o que ainda está em desenvolvimento, é o que este artigo explica.
O que é o MCP e por que a OpenAI está apostando nele
O Model Context Protocol é um padrão aberto que permite a modelos de linguagem se comunicar com ferramentas externas de forma padronizada. Em vez de cada empresa criar sua própria ponte entre um modelo e, digamos, o Salesforce, o MCP define uma linguagem comum. O modelo chama, o servidor responde.
A analogia mais direta: é como o USB para hardware. Antes do USB, cada fabricante usava um conector diferente. Depois, qualquer dispositivo encaixava em qualquer porta. O MCP tenta fazer isso com ferramentas de IA e dados externos.
A OpenAI não criou o protocolo, mas entrou no jogo com força, adotando o MCP como padrão oficial e participando ativamente do desenvolvimento do ecossistema, o que sinaliza que essa não é uma aposta temporária. Google, Microsoft e AWS também anunciaram suporte ao protocolo, o que dá ao MCP uma base de suporte sólida o suficiente para ser tratado como infraestrutura, não como experimento.
Para entender mais sobre o protocolo em si, vale ler o guia completo sobre o MCP e como conectar IA aos sistemas da empresa.
O que mudou na Responses API em 2026
A Responses API é onde a atualização mais técnica acontece. Com o novo suporte a servidores MCP remotos, desenvolvedores podem configurar um agente para chamar qualquer servidor MCP disponível na internet, sem precisar rodar a infraestrutura localmente.
Na prática, isso significa que um agente pode consultar uma base de dados, gerar uma imagem, executar código e buscar arquivos em um único fluxo, tudo orquestrado pela mesma API. Os modelos disponíveis nessa camada incluem GPT-4o e modelos da linha o-series, conforme documentação oficial da OpenAI.
Um detalhe relevante: o o3 e o o4-mini agora conseguem chamar ferramentas e funções diretamente dentro da cadeia de raciocínio. Isso é diferente de chamar uma ferramenta só no final de um processo. O modelo raciocina, decide que precisa de um dado externo, busca, incorpora a resposta e continua raciocinando, conforme documentação da OpenAI sobre os modelos da linha o-series.
O App Directory e como integrar ferramentas por menção
Para usuários do ChatGPT que não trabalham diretamente com API, a entrada mais acessível é o App Directory. A OpenAI abriu o diretório para submissões de apps baseados em MCP, e a lista cresce a cada semana., e a lista cresce a cada semana.
O fluxo de uso é direto: você entra no diretório, ativa o app que quer (Figma, por exemplo), autentica em poucos minutos, e a partir daí pode mencioná-lo numa conversa com "@Figma". O modelo entende que deve usar aquela integração e passa a ter acesso ao contexto relevante da ferramenta.
Imagine um time de produto que precisa revisar um componente de design e documentar as decisões. Antes, seria necessário abrir o Figma, copiar informações, colar no ChatGPT, escrever o contexto manualmente. Com a integração via MCP, o modelo acessa o Figma diretamente dentro da conversa. O trabalho de copiar e colar desaparece.
A ressalva: o diretório ainda está em beta. A autenticação nem sempre é estável, e algumas conexões caem durante sessões mais longas. A OpenAI está trabalhando nisso, mas quem for adotar em produção deve considerar esse fator.
Casos de uso que já estão acontecendo
Os casos de uso mais comuns com o suporte MCP da OpenAI hoje envolvem conectar fontes de dados diferentes para gerar análises que antes exigiam trabalho manual intenso.
Um exemplo típico: um time de vendas conecta o HubSpot ou o Salesforce a um agente via MCP. O agente puxa os dados do CRM, cruza com métricas de marketing, e gera um relatório formatado automaticamente. O que levava horas de trabalho analítico passa a levar minutos de revisão.
Outro uso crescente é em auditorias. Agentes configurados para navegar em browsers podem auditar páginas de um site, verificar consistência de conteúdo, checar links quebrados, e gerar um relatório estruturado, tudo sem intervenção humana no meio do processo.
O denominador comum nesses casos é a redução de trabalho de montagem: o humano define o que quer saber, o agente vai buscar nos lugares certos e traz de volta numa forma utilizável.
Os números por trás da adoção
O crescimento do ecossistema MCP é rápido o suficiente para não ser ignorado. O SDK acumula milhões de downloads mensais, segundo dados do ecossistema MCP. O número de servidores MCP ativos globalmente cresceu rapidamente, segundo relatos do ecossistema.
Para colocar em perspectiva: esse é o nível de adoção que normalmente leva dois ou três anos para se formar em torno de um padrão de integração. O ritmo de adoção desde que a OpenAI passou a suportar o protocolo sugere que há demanda real, não só interesse especulativo.
A presença de OpenAI, Google, Microsoft e AWS no mesmo barco ajuda. Quando os quatro maiores players de infraestrutura de IA convergem para um mesmo protocolo, o mercado tende a seguir sem precisar de muito convencimento.
O que isso significa para quem está construindo ou adotando agentes
Se você está desenvolvendo um produto com agentes de IA, o suporte MCP da OpenAI reduz significativamente o custo de integração com ferramentas externas. Em vez de construir conectores customizados para cada fonte de dados, você usa um padrão que já tem servidores prontos para dezenas de ferramentas populares.
Se você está avaliando adotar agentes na sua operação, o App Directory do ChatGPT é o caminho mais rápido para testar sem precisar de desenvolvimento. Ative, autentique, e veja se o fluxo faz sentido para o seu caso antes de investir em uma integração mais profunda via API.
O beta ainda tem arestas. Mas a direção está clara, e o ecossistema está crescendo rápido o suficiente para que esperar não seja necessariamente uma vantagem.
Conclusão
A OpenAI não inventou o MCP, mas está se posicionando como a principal porta de entrada para o protocolo chegar ao dia a dia de desenvolvedores e empresas. Com suporte no ChatGPT desktop, no Agents SDK e agora na Responses API com servidores remotos, a integração de agentes com ferramentas externas ficou estruturalmente mais simples.
O próximo passo prático para quem ainda não explorou: acesse o App Directory do ChatGPT, ative uma integração com uma ferramenta que você já usa, e observe o que muda na sua interação com o modelo. É a forma mais rápida de entender o que o protocolo oferece antes de decidir investir mais.
Para aprofundar na estratégia de adoção de IA agêntica, veja também: ferramentas de IA agêntica para empresas.



