Affected components
Update timeline
- investigating Mar 30, 2026, 12:26 PM UTC
Prezado Cliente, Identificamos uma instabilidade pontual que afeta o funcionamento do nosso motor de liveness para um grupo de parceiros. Esse comportamento pode impactar a etapa de prova de vida durante a jornada de captura de seus usuários. Nossa equipe de engenharia já foi mobilizada e está atuando com prioridade máxima no diagnóstico da causa raiz para restabelecer a normalidade o quanto antes. Reforçamos nosso compromisso com a estabilidade de sua operação e enviaremos novas atualizações assim que tivermos mais detalhes sobre a evolução do caso. Atenciosamente, Equipe Unico.
- identified Mar 30, 2026, 12:28 PM UTC
Prezado Cliente, Informamos que a origem da instabilidade relatada no motor de liveness foi devidamente mapeada por nossa equipe de especialistas. A causa está relacionada à implementação de uma nova versão do componente de captura Web, que introduz camadas críticas de segurança para o fortalecimento da plataforma. Identificamos que essa atualização gerou comportamentos inesperados em cenários específicos de uso. Nossas frentes de engenharia já iniciaram a implementação das medidas corretivas e o escalonamento de recursos técnicos para mitigar o impacto. Estamos tratando este caso com prioridade máxima e senso de urgência, monitorando individualmente a performance de cada operação para garantir a estabilidade do ecossistema. Seguimos em acompanhamento contínuo e enviaremos novas atualizações sobre a evolução da correção em breve. Atenciosamente, Equipe Unico.
- monitoring Mar 30, 2026, 12:34 PM UTC
Prezado Cliente, Informamos que as ações corretivas necessárias foram executadas com sucesso por nossa equipe técnica e o motor de liveness já apresenta estabilidade em sua operação. O ajuste foi implementado e o ambiente encontra-se normalizado. Iniciamos agora uma fase de monitoramento rigoroso e acompanhamento assistido para garantir a consistência da performance em todas as transações. O serviço já pode ser utilizado normalmente, e nossa equipe permanece em alerta para assegurar a continuidade da estabilidade. Manteremos a observação ativa para confirmar a total integridade do ecossistema. Atenciosamente, Equipe Unico.
- resolved Mar 30, 2026, 12:37 PM UTC
Prezado Cliente, Informamos que o incidente relacionado à instabilidade no motor de liveness foi devidamente resolvido e o serviço encontra-se totalmente normalizado. Abaixo, apresentamos o resumo executivo das ações tomadas: Resumo Executivo e Impacto O incidente teve início às 09:03 e foi encerrado às 09:13 (horário de Brasília). Durante este intervalo de 10 minutos, uma parcela de nossos parceiros enfrentou dificuldades na inicialização da captura de prova de vida em plataformas Web. Confirmamos que não houve qualquer perda de dados ou comprometimento de informações durante o período de instabilidade. Causa Raiz e Resolução A instabilidade foi originada por um comportamento inesperado em uma nova atualização de segurança aplicada ao componente de captura Web. Esta atualização visava fortalecer as defesas da plataforma, porém gerou um conflito técnico que impediu o carregamento correto do motor de liveness em cenários específicos. A resolução foi alcançada através de um ajuste técnico imediato na configuração dessa camada de segurança, restabelecendo a comunicação entre o SDK e nossos servidores de processamento. Compromisso e Próximos Passos Nossa equipe de engenharia já iniciou a elaboração de um Postmortem detalhado, que será compartilhado em breve com as análises técnicas aprofundadas e o plano de ações preventivas para evitar recorrências. Reiteramos nosso compromisso com a resiliência e a segurança de sua operação. Pedimos sinceras desculpas pelo transtorno causado e permanecemos à disposição para qualquer suporte adicional. Atenciosamente, Equipe Unico.
- postmortem Apr 01, 2026, 12:59 PM UTC
# Postmortem: Instabilidade no serviço de liveness ## Sumário Entre as **09:01** e **09:13 BRT** do dia **30 de março de 2026**, identificamos uma instabilidade que afetou a disponibilidade dos plugins do SDK Web para um grupo específico de clientes. O incidente resultou em falhas de carregamento de recursos essenciais, impactando a execução de fluxos de biometria e liveness. ## Impacto O incidente causou a indisponibilidade total dos serviços de SDK para três clientes específicos que utilizavam uma configuração regional de exceção. * **Duração:** 12 minutos. * **Escopo:** Clientes operando em um ambiente regional específico, resultando em uma queda do indicador de disponibilidade \(SLO\) para abaixo de 95% durante o período. ## Causa Raiz A falha foi originada por um erro de automação durante a atualização de rotas de tráfego. Após a migração de versões do SDK, foi necessário realizar um ajuste de configuração para um grupo de clientes. No entanto, a ferramenta de automação \(GitHub Action\) utilizou uma versão obsoleta e com erros que estava armazenada em cache, em vez de carregar a versão corrigida mais recente. Como consequência, o processo de automação gerou um endereço de destino inexistente para as requisições, tornando o serviço inacessível para os clientes afetados. ## Resolução O incidente foi detectado via alertas automáticos de monitoramento às **09:09**. A equipe técnica identificou rapidamente a inconsistência no cache da automação e aplicou uma correção manual nas rotas de tráfego, restabelecendo a normalidade dos serviços às **09:13**. ## Lições Aprendidas * **Gerenciamento de Cache em CI/CD:** Identificamos a necessidade de implementar mecanismos mais rígidos de invalidação de cache para automações críticas que gerenciam infraestrutura de produção. * **Validação de Alvos de Roteamento:** Implementaremos etapas de validação \(health checks\) para garantir que qualquer novo endereço de destino seja verificado antes que as alterações de tráfego sejam aplicadas. * **Critérios de Comunicação:** Revisamos nossos processos de transparência para garantir que a comunicação em páginas de status siga critérios objetivos de impacto e jornada do usuário. Estamos comprometidos com a estabilidade de nossos ambientes e atuaremos nas ações preventivas, mitigando impactos similares no futuro. Agradecemos a compreensão e estamos à disposição para esclarecer quaisquer dúvidas. Atenciosamente, Equipe Unico.
Looking to track Unico downtime and outages?
Pingoru polls Unico's status page every 5 minutes and alerts you the moment it reports an issue — before your customers do.
- Real-time alerts when Unico reports an incident
- Email, Slack, Discord, Microsoft Teams, and webhook notifications
- Track Unico alongside 5,000+ providers in one dashboard
- Component-level filtering
- Notification groups + maintenance calendar
5 free monitors · No credit card required