Unico Outage History

Unico is up right now

There were 31 Unico outages since February 10, 2026 totaling 9h 14m of downtime. Each is summarised below — incident details, duration, and resolution information.

Source: https://status.acesso.io

Critical February 24, 2026

Instabilidade no Serviço de Assinatura Digital (Unico Sign)

Detected by Pingoru
Feb 24, 2026, 06:47 PM UTC
Resolved
Feb 24, 2026, 07:27 PM UTC
Duration
40m
Affected: Assinatura Eletrônica (API)
Timeline · 5 updates
  1. identified Feb 24, 2026, 06:37 PM UTC

    Identificamos a causa da instabilidade na funcionalidade de Assinatura Digital da Unico (Unico SIGN) e nosso time de tecnologia está atuando para a resolução. Em breve traremos atualizações.

  2. identified Feb 24, 2026, 06:47 PM UTC

    Prezado Cliente, Nossa equipe de engenharia está atuando no incidente do produto Unico Sign. Neste instante todos os clientes que consomem o serviço de assinatura da Unico, poderão ter seus processos afetados durante a criação. A equipe de tecnologia está tratando o incidente com prioridade máxima. Em breve retornamos com atualizações.

  3. monitoring Feb 24, 2026, 07:02 PM UTC

    Aplicamos as medidas corretivas necessárias e o serviço de assinatura digital já apresenta comportamento estável. Permaneceremos em monitoramento rigoroso pelos próximos períodos para assegurar que a performance se mantenha nos níveis ideais.

  4. resolved Feb 24, 2026, 07:27 PM UTC

    Resumo Executivo e Impacto Comunicamos que o incidente técnico que afetou as operações de assinatura de documentos no Unico Sign foi totalmente resolvido. O serviço já se encontra estabilizado e as operações foram normalizadas após o período de indisponibilidade reportado. Durante a fase de monitoramento assistido, confirmamos que o sistema recuperou sua performance integral. Ressaltamos que não houve qualquer perda de dados ou comprometimento da integridade dos documentos processados durante este evento. Causa Raiz e Resolução Nossa investigação técnica identificou que a instabilidade foi causada por um volume atípico de tentativas de reprocessamento, o que gerou uma sobrecarga na nossa camada de armazenamento de dados. Esse comportamento impediu que o sistema processasse novas assinaturas com a agilidade necessária. Para solucionar o cenário, nosso time de tecnologia executou as seguintes ações: Expansão de Recursos: Aumentamos em quatro vezes a capacidade de processamento do banco de dados para absorver a demanda acumulada. Otimização de Serviços: Reiniciamos os componentes críticos de assinatura e reajustamos a distribuição de carga do sistema para aliviar a pressão na infraestrutura, garantindo um fluxo estável e seguro. Controle de Vazão: Calibramos a comunicação entre os serviços para assegurar que a retomada das operações não gerasse novas oscilações. Compromisso e Próximos Passos A Unico prioriza a transparência e a confiabilidade de seus serviços. Por isso, nossas equipes já iniciaram a elaboração de um Postmortem detalhado, que será compartilhado nos próximos dias para fornecer uma visão técnica aprofundada e descrever as melhorias estruturais que adotaremos para evitar recorrências. Lamentamos o transtorno causado e seguimos à disposição através de nossos canais de atendimento para qualquer suporte adicional. Atenciosamente, Equipe Unico

  5. postmortem Mar 06, 2026, 01:27 PM UTC

    ## Relatório Pós-Incidente: Instabilidade no Serviço de Assinatura de Documentos **Data:** 24 de fevereiro de 2026 **Status:** Resolvido ### Resumo No dia 24 de fevereiro de 2026, nosso serviço de assinatura de documentos apresentou instabilidade significativa devido a uma latência excessiva no método de execução de módulos. O problema foi desencadeado por um volume atípico de requisições que sobrecarregou a base de dados, resultando em falhas nas operações de assinatura baseadas em envelopes. ### Impacto Durante o período do incidente, todas as operações de assinatura de documentos que utilizavam fluxos de envelopes foram interrompidas. Isso causou uma interrupção total nos fluxos de trabalho de clientes que dependiam da conclusão de assinaturas digitais em tempo real. ### Causa Raiz A investigação técnica identificou um erro de software no componente de interface \(frontend\). Uma falha na implementação de um gancho de renderização \(`useEffect`\) fez com que uma função de busca de dados fosse tratada como uma nova dependência a cada ciclo de atualização. Como a função era declarada de forma embutida, sua referência mudava a cada renderização do componente pai, criando um **loop infinito de requisições**. Esse comportamento gerou um tráfego massivo para a API, resultando em consultas intensivas na tabela de acessos do banco de dados e levando à degradação total da performance do sistema. ### Resolução Para restabelecer o serviço, nossa equipe de engenharia adotou as seguintes medidas de mitigação: * **Escalonamento de Infraestrutura:** A capacidade do banco de dados foi aumentada temporariamente de 8 vCPU para 32 vCPU para absorver a carga e processar a fila de requisições pendentes. * **Reciclagem de Serviços:** Os pods responsáveis pelo núcleo de assinatura e pelo processamento de tarefas em segundo plano foram reiniciados para limpar conexões presas e reduzir a carga do sistema. * **Ajuste de Carga:** O número de réplicas do serviço de assinatura foi reduzido temporariamente para controlar a quantidade de conexões simultâneas ao banco de dados até que a estabilidade fosse alcançada. O serviço foi declarado estável e totalmente restabelecido após o monitoramento dos indicadores de performance. ### Lições Aprendidas * **Gestão de Dependências em UI:** Reforçamos a necessidade de utilizar padrões de memorização \(como `useCallback`\) para funções passadas como dependências em efeitos, evitando execuções redundantes ou loops. * **Mecanismos de Proteção \(Guards\):** Identificamos a oportunidade de implementar camadas de proteção no armazenamento de dados \(store\) para impedir chamadas concorrentes idênticas enquanto uma requisição ainda está em processamento. * **Observabilidade de Transações:** O incidente destacou a importância de enriquecer os logs de transação com identificadores mais granulares para acelerar o diagnóstico em cenários de requisições duplicadas.

Read the full incident report →

Notice February 17, 2026

Instabilidade no Serviço de entrega de WebHook (IDCloud)

Detected by Pingoru
Feb 17, 2026, 06:00 PM UTC
Resolved
Feb 17, 2026, 06:00 PM UTC
Duration
Timeline · 2 updates
  1. resolved Feb 17, 2026, 07:48 PM UTC

    Resumo Executivo: No dia 17 de fevereiro de 2026, nosso sistema enfrentou uma instabilidade temporária causada por um volume atípico de requisições em um curto período, entre 14:48 e 15:09. Este pico de tráfego sobrecarregou o sistema de mensageria, resultando em timeouts que interromperam o processamento de captura de dados. Como consequência, alguns clientes observaram um aumento em erros de limite de taxa (HTTP 429) e latência elevada em determinados endpoints durante o período de maior demanda. A resolução foi alcançada através da reinicialização dos serviços afetados e do escalonamento de recursos para absorver a carga excedente. Após as medidas de mitigação, o ambiente foi monitorado continuamente e apresenta estabilidade plena há mais de 30 minutos, sem novas ocorrências. Estamos revisando nossos mecanismos de resiliência e tolerância a falhas no processamento de eventos para garantir que o sistema lide de forma mais autônoma com flutuações severas de tráfego no futuro. Dentro de alguns dias compartilharemos maiores detalhes através de um Postmortem. Pedimos desculpas pelo transtorno e nos colocamos à disposição para sanar dúvidas através dos nossos canais de atendimento. Atenciosamente, Equipe Unico!

  2. postmortem Mar 09, 2026, 05:32 PM UTC

    ## Relatório de Incidente: Instabilidade no Serviço de entrega de WebHook \(IDCloud\) ### Resumo Em 17 de fevereiro de 2026, nosso serviço de notificação de eventos \(Webhooks\) apresentou instabilidade e queda na taxa de sucesso, operando abaixo da meta estabelecida de **97,6%**. O incidente foi desencadeado por uma falha técnica no componente de captura de dados, que parou de processar eventos devido a uma instabilidade externa. Após o restabelecimento manual do serviço, o volume acumulado de mensagens causou uma sobrecarga temporária em nossa infraestrutura de entrega. ### Impacto * **Duração do Impacto Total:** Aproximadamente 1 hora e 7 minutos. * **Serviços Afetados:** Fluxo de criação de eventos via Webhook. * **Experiência do Cliente:** Alguns clientes enfrentaram atrasos no recebimento de notificações de finalização de jornada. Devido a esse atraso, houve um aumento nas tentativas manuais de reprocessamento e consultas de status \(GET\), o que resultou em erros temporários de limite de taxa \(_rate limiting_ - HTTP 429\). ### Causa Raiz O incidente foi originado por uma combinação de fatores técnicos e de infraestrutura: 1. **Instabilidade Externa:** Uma oscilação transiente na infraestrutura de mensageria em nuvem \(Pub/Sub\) causou falhas de conexão no worker de processamento. 2. **Falha na Recuperação Automática:** Devido à ausência de configurações específicas de tempo limite de encerramento \(_shutdown timeout_\) e de verificações de integridade, o serviço entrou em um estado de "travamento" silencioso. Ele parou de consumir dados, mas não reiniciou automaticamente para recuperar a conexão. 3. **Efeito Cascata:** Durante os 18 minutos em que o serviço ficou inativo, uma grande quantidade de eventos acumulou-se na fila. Ao ser reiniciado manualmente, o sistema tentou processar todo o backlog de uma só vez, gerando um pico de tráfego que saturou as conexões do banco de dados do serviço de webhook. ### Resolução A mitigação foi realizada por nossa equipe de engenharia de confiabilidade \(SRE\) através do **reinício manual dos serviços travados**. Após o restart, o sistema passou por um período de instabilidade enquanto drenava o backlog acumulado, estabilizando-se completamente às 15h55 BRT. O monitoramento subsequente confirmou que a taxa de sucesso retornou aos níveis normais de SLO e o volume de requisições dos clientes foi normalizado. ### Lições Aprendidas * **Resiliência a Falhas Externas:** Identificamos que o componente de captura de dados precisa de configurações de _timeout_ mais agressivas para garantir que o processo finalize e reinicie em caso de latência de rede externa. * **Necessidade de Throttling:** A ausência de um mecanismo de controle de vazão \(_throttling_\) na drenagem de backlogs torna o sistema vulnerável a surtos de tráfego após períodos de inatividade. * **Automação do MTTR:** Depender de intervenção manual e escalonamento de permissões aumenta o tempo médio de recuperação \(MTTR\). A implementação de verificações de saúde automatizadas é essencial para a autorrecuperação.

Read the full incident report →

Minor February 10, 2026

Instabilidade no Acesso à Plataforma Unico Auto

Detected by Pingoru
Feb 10, 2026, 06:37 PM UTC
Resolved
Feb 10, 2026, 08:38 PM UTC
Duration
2h 1m
Affected: Portal Cliente (plataforma)
Timeline · 5 updates
  1. identified Feb 10, 2026, 06:37 PM UTC

    Prezado Cliente, Identificamos uma instabilidade que afeta o acesso à plataforma Unico Auto. Nossa equipe de engenharia já está mobilizada e trabalha prioritariamente na identificação da causa e na implementação das correções necessárias. Lamentamos o inconveniente e forneceremos novas atualizações em breve.

  2. identified Feb 10, 2026, 07:09 PM UTC

    Atualização: Instabilidade na plataforma Unico Auto Prezado Cliente, Informamos que nossa equipe de engenharia segue trabalhando ativamente na análise da instabilidade que afeta o acesso à plataforma Unico Auto. No momento, os especialistas permanecem dedicados ao diagnóstico técnico para garantir que a correção seja implementada de forma definitiva. Lamentamos a extensão do impacto e reforçamos que este caso é tratado como prioridade máxima. Novas atualizações serão compartilhadas assim que houver evolução no processo de normalização.

  3. identified Feb 10, 2026, 08:13 PM UTC

    Atualização: Instabilidade no acesso à plataforma Status: Em investigação Seguimos analisando a instabilidade no processo de login do Unico Auto. O cenário permanece o mesmo: usuários com múltiplas instâncias podem enfrentar dificuldades de acesso, enquanto outros perfis podem precisar recarregar a página para entrar no sistema. Nossa equipe de engenharia continua dedicada à identificação da causa raiz e na definição da estratégia de correção. As demais funcionalidades seguem operando normalmente. Traremos novas atualizações em breve.

  4. monitoring Feb 10, 2026, 08:37 PM UTC

    Atualização de Incidente: Em Monitoramento Após as correções aplicadas por nossa engenharia, os serviços da plataforma Unico Auto foram retomados. Permanecemos em estágio de monitoramento preventivo para validar a eficácia das soluções e assegurar que o fluxo de operações siga sem oscilações. Nova atualização assim que a estabilidade integral for confirmada.

  5. resolved Feb 10, 2026, 08:38 PM UTC

    Prezado Cliente, O incidente técnico que impactou a plataforma Unico Auto foi resolvido. O sistema operou sem intercorrências durante a fase de monitoramento, o que confirma a normalização do serviço. Próximos passos: Iniciamos o processo de análise pós-incidente para identificar melhorias estruturais e evitar recorrências. Valorizamos sua parceria e seguimos à disposição pelos canais de suporte habituais.

Read the full incident report →

Minor February 10, 2026

Instabilidade nos fluxos de Prova de Vida (Liveness)

Detected by Pingoru
Feb 10, 2026, 06:29 PM UTC
Resolved
Feb 10, 2026, 07:59 PM UTC
Duration
1h 29m
Affected: Prova de Vida (API)
Timeline · 7 updates
  1. identified Feb 10, 2026, 06:29 PM UTC

    Instabilidade nos serviços de Prova de Vida (Liveness) Resumo do Incidente: Detectamos uma oscilação na disponibilidade dos serviços de liveness, impactando as taxas de sucesso das requisições de liveness da Unico. Impacto ao Cliente: Clientes que utilizam essas funcionalidades via SDK podem encontrar dificuldades ou falhas intermitentes ao realizar processos de captura e validação biométrica. Ações em Andamento: Nossa equipe de engenharia já identificou a origem da instabilidade e está trabalhando na mitigação. Como primeira medida corretiva, estamos realizando o escalonamento de serviços para normalizar o processamento das requisições. Próximos Passos: Seguimos com a investigação técnica para determinar a causa raiz e garantir a estabilidade total do ambiente. Traremos novas atualizações assim que houver mudança no status ou a normalização do serviço.

  2. identified Feb 10, 2026, 06:49 PM UTC

    We are continuing to work on a fix for this issue.

  3. identified Feb 10, 2026, 07:08 PM UTC

    Atualização: Instabilidade nos serviços de Liveness Status: Em investigação Componentes Afetados: Liveness Informações Atualizadas: Seguimos trabalhando na resolução da instabilidade que afeta os serviços de Liveness. O cenário reportado anteriormente permanece, com a disponibilidade operando abaixo dos níveis normais devido a falhas na captura e validação de biometria. Ações em curso: Nossa equipe de engenharia continua atuando diretamente na infraestrutura para estabilizar o serviço. O processo de escalonamento dos recursos críticos segue sendo monitorado para mitigar o impacto nas requisições via SDK. Permanecemos em análise intensiva para garantir o reestabelecimento da taxa de sucesso. Novas atualizações serão fornecidas assim que houver evolução na recuperação do serviço.

  4. identified Feb 10, 2026, 07:33 PM UTC

    Informações Atualizadas: Seguimos com o monitoramento e a análise técnica da instabilidade que afeta os serviços de captura de dados e biometria (Liveness). O cenário de oscilação reportado anteriormente persiste, e nossa equipe permanece dedicada à solução. Ações em curso: - Nossos times de engenharia continuam mobilizados com prioridade máxima na correção do problema. - Estamos aplicando medidas de reforço em nossa infraestrutura para normalizar a taxa de sucesso das validações. - O serviço permanece sob observação constante até que a estabilidade total seja confirmada. Lamentamos o impacto causado e reforçamos que todos os esforços estão sendo empenhados para o restabelecimento completo da operação. Traremos novas informações assim que houver evolução no cenário.

  5. monitoring Feb 10, 2026, 07:52 PM UTC

    Prezado Cliente, Nossa equipe identificou as causas do problema e realizou as ações para que este incidente fosse solucionado, o ambiente retornou a sua normalidade a partir das 16:25. Dentro de alguns dias compartilharemos maiores detalhes através de um Postmortem. Pedimos desculpas pelo transtorno e nos colocamos à disposição para sanar dúvidas através dos nossos canais de atendimento. Atenciosamente, Equipe Unico!

  6. resolved Feb 10, 2026, 07:59 PM UTC

    Resumo Executivo Impacto: Informamos que, no dia 10 de fevereiro, identificamos uma instabilidade nos serviços de Prova de Vida (Liveness) iniciada às 15h06. O incidente resultou em falhas intermitentes e aumento de latência para uma parcela das validações biométricas. Após a atuação prioritária do nosso time de engenharia, a disponibilidade foi totalmente restabelecida às 16h25, momento em que os indicadores de sucesso retornaram aos níveis operacionais normais. Resolução e Investigação: A mitigação do impacto foi alcançada através da identificação e reinicialização de componentes da nossa infraestrutura de processamento que apresentavam comportamento degradado. No momento, os serviços operam com estabilidade e seguem sob monitoramento rigoroso. Próximos Passos: Nossa equipe técnica permanece dedicada à investigação profunda para determinar a causa raiz desta oscilação, incluindo a análise conjunta com nossos provedores de infraestrutura. Em breve, disponibilizaremos um relatório pós-incidente (post-mortem) detalhando os achados técnicos e as ações preventivas adotadas. Reiteramos nosso compromisso com a transparência e com a melhoria contínua de nossa plataforma para garantir a melhor experiência e confiabilidade aos nossos clientes. Equipe Unico.

  7. postmortem Mar 16, 2026, 01:18 PM UTC

    # Postmortem: Instabilidade nos fluxos de Prova de Vida \(Liveness\) ### Resumo No dia 10 de fevereiro de 2026, identificamos uma instabilidade em nossa camada de orquestração de liveness \(biometria facial\), que resultou em erros intermitentes \(HTTP 500\) para diversas funcionalidades. O incidente foi provocado por falhas de comunicação interna entre microsserviços após um evento de rebalanceamento de infraestrutura. A situação foi normalizada após a reinicialização estratégica de instâncias do serviço afetado. ‌ ### Impacto O incidente teve início às **12:07 BRT** e foi totalmente mitigado às **16:37 BRT**. Durante esse período, usuários podem ter enfrentado lentidão ou falhas ao tentar realizar fluxos de captura de dados e validação biométrica. O erro manifestava-se como um _timeout_ de 10 segundos quando o sistema tentava se comunicar com capacidades internas específicas. ‌ ### Causa Raiz A investigação técnica revelou uma falha na propagação de atualizações de rede dentro do nosso cluster de serviços \(Istio/ASM\). ‌ 1. **Evento de Infraestrutura:** Cerca de 15 nós de processamento foram removidos simultaneamente durante um processo de redimensionamento automático \(_scale-down_\) na nuvem. 2. **Sobrecarga do Plano de Controle:** A remoção abrupta de mais de 46 pods gerou uma carga de eventos de rede três vezes maior que o normal, sobrecarregando o sistema de controle de tráfego. 3. **Endpoints Obsoletos:** Devido a essa sobrecarga, alguns serviços tentaram enviar tráfego para endereços de IP de instâncias que já haviam sido encerradas, resultando em falhas de conexão e _timeouts_. 4. **Ausência de Limites de Evicção:** A inexistência de configurações de orçamento de interrupção \(_PodDisruption Budget_\) permitiu que muitos componentes críticos fossem removidos ao mesmo tempo, impedindo uma transição gradual da rede. ### Resolução A equipe de engenharia identificou três instâncias do orquestrador que mantinham registros de rede inconsistentes. Às **16:00 BRT**, foi realizado o _restart_ dessas instâncias, o que forçou a atualização das tabelas de roteamento e cessou imediatamente os erros 5xx. O sistema retornou à estabilidade total logo em seguida. ‌ ### Lições Aprendidas * **Gerenciamento de Escala:** Identificamos a necessidade de implementar mecanismos de remoção gradual de instâncias para evitar picos de carga no plano de controle de rede. * **Resiliência de Configuração:** A importância de utilizar políticas de interrupção de pods para garantir que serviços críticos nunca fiquem abaixo de um limiar mínimo de disponibilidade durante manutenções automáticas. * **Observabilidade:** Reforçamos a necessidade de alertas específicos sobre a taxa de eventos de processamento interno para detectar sobrecargas antes que elas impactem o usuário final. Estamos comprometidos com a estabilidade de nossos ambientes e atuaremos nas ações preventivas, mitigando impactos similares no futuro. ‌ Agradecemos a compreensão e estamos à disposição para esclarecer quaisquer dúvidas.

Read the full incident report →

Minor February 10, 2026

Instabilidade no ID Pay na etapa de captura

Detected by Pingoru
Feb 10, 2026, 01:23 PM UTC
Resolved
Feb 10, 2026, 02:14 PM UTC
Duration
51m
Affected: API
Timeline · 5 updates
  1. investigating Feb 10, 2026, 01:23 PM UTC

    Prezados Clientes, Identificamos uma instabilidade intermitente na funcionalidade de Prova de Vida e Captura do produto ID Pay. Nossa equipe de engenharia já está atuando na investigação para normalizar o serviço o quanto antes. Impacto: Clientes podem encontrar dificuldades ou lentidão ao realizar o processo de captura biométrica. Status: Investigando

  2. identified Feb 10, 2026, 01:35 PM UTC

    Prezado Cliente, Informamos que o fluxo de captura do ID Pay apresenta instabilidade no momento. O diagnóstico técnico já foi concluído e as ações corretivas estão sendo implementadas com prioridade máxima por nosso time de especialistas. Status: Em correção.

  3. monitoring Feb 10, 2026, 02:01 PM UTC

    Atualização: Após a implementação de medidas corretivas, o serviço de Prova de Vida e Captura do ID Pay foi estabilizado. Nossa equipe técnica permanece monitorando o ambiente para garantir a plena disponibilidade e performance da funcionalidade. Status: Monitorando.

  4. resolved Feb 10, 2026, 02:14 PM UTC

    Instabilidade na Captura de Biometria Facial no ID Pay Sumário Executivo e Impacto: No dia de hoje, identificamos uma instabilidade técnica que afetou a funcionalidade de captura de biometria facial em nossa jornada do produto lD Pay. Os primeiros registros de falha ocorreram por volta das 06h40, fazendo com que uma parcela dos usuários enfrentasse dificuldades ao acionar a câmera do dispositivo, impossibilitando a conclusão do fluxo de validação. Após as ações de contingência, o impacto foi integralmente cessado às 10h40, e o sistema permanece desde então com operação normalizada e taxas de sucesso estáveis. Causa Raiz e Resolução: A instabilidade foi causada por uma incompatibilidade técnica em uma atualização de software no kit de desenvolvimento (SDK) de captura de imagem. Esta versão apresentou um erro de execução que impedia o carregamento de recursos nativos da câmera em cenários específicos. Como medida de resolução, nossa equipe de engenharia realizou o rollback para a versão estável anterior, restaurando a funcionalidade. Compromisso e Próximos Passos: Reforçamos nosso compromisso com a estabilidade de nossos serviços e com a transparência junto aos nossos clientes. Informamos que, nos próximos dias, será disponibilizado um postmortem detalhado com a análise técnica completa e as medidas preventivas adotadas para evitar recorrências. Atenciosamente, Equipe Unico.

  5. postmortem Mar 10, 2026, 07:59 PM UTC

    **Data do Incidente:** 10 de fevereiro de 2026 **Duração do Impacto:** 06:30 às 11:31 \(Horário de Brasília\) **Status:** Resolvido ### Resumo Executivo Em 10 de fevereiro de 2026, nossa plataforma de pagamentos enfrentou uma falha que impediu a inicialização do fluxo de captura de biometria facial. O incidente foi desencadeado por uma nova validação de segurança introduzida na atualização recente do nosso Web SDK de biometria. A equipe de engenharia isolou a falha e normalizou o serviço após reverter \(aplicar _rollback_\) a versão do componente na infraestrutura. ### Impacto Durante o período de degradação, os clientes finais não conseguiram concluir os processos que exigiam a captura facial. A falha na renderização gerou uma tela em branco no carregamento da câmera, sem o devido mapeamento de erros visíveis, o que prejudicou a geração de alertas automatizados no monitoramento padrão. O impacto iniciou às 06:30, mas, pela ausência de alarmes de sistema, o problema só foi confirmado às 10:12 a partir do aumento de contatos dos clientes aos canais de suporte. A estabilização completa ocorreu às 11:31. ### Causa Raiz A instabilidade foi causada por uma incompatibilidade técnica entre uma biblioteca de terceiros e a nova camada de validação do Web SDK de captura. * A versão atualizada do Web SDK introduziu uma checagem de integridade que avalia se operações nativas do JavaScript foram modificadas por outras bibliotecas. * A plataforma de pagamentos utiliza uma biblioteca que realiza uma modificação em uma função estrutural nativa da web. * Ao detectar essa modificação de terceiros, o SDK lançou imediatamente um erro de segurança e bloqueou o carregamento da câmera. A incompatibilidade não foi percebida durante os testes pré-implantação \(ambiente de homologação\) devido a uma regra temporária que dividia o tráfego do ambiente em 50% entre dois provedores de biometria diferentes. As capturas com sucesso foram roteadas para o provedor secundário, mascarando o erro na nova versão do componente principal sob teste. ### Resolução Ao confirmar a falha na atualização, a equipe de engenharia iniciou imediatamente a reversão \(_rollback_\) do Web SDK de biometria para a sua versão anterior estável. O tempo de resolução, no entanto, foi prolongado devido a uma inconsistência na execução do _rollback_ em nossos ambientes distribuídos geograficamente. A reversão falhou na propagação inicial para uma das regiões de infraestrutura em nuvem, mantendo erros isolados por cerca de 40 minutos adicionais. Ao identificar o tráfego de falhas residual nessa região, a equipe forçou a atualização do ambiente de forma isolada, mitigando completamente o problema. ### Ações Preventivas Para fortalecer a governança técnica da nossa plataforma e evitar cenários semelhantes, os seguintes passos foram incorporados ao planejamento de engenharia: * **Cobertura de Reversões:** Aprimorar o processo automatizado de reversões \(_rollbacks_\) para garantir de forma explícita que atualizações de contingência sejam simultaneamente aplicadas e validadas em todas as regiões globais. * **Paridade de Ambientes:** Ajustar as políticas de balanceamento do ambiente de testes para que componentes críticos em fase de avaliação recebam 100% da carga de tráfego esperada, desativando regras de divisão estatística que possam mascarar falhas. * **Mapeamento de Exceções:** Refatorar o mecanismo de tratamento de exceções do Web SDK, assegurando que quaisquer colisões ou falhas graves de componentes gerem retornos \(callbacks\) mensuráveis de erro ao invés de encerramentos silenciosos \(como telas em branco\). ### Lições Aprendidas * **Rigor em Ambientes de Homologação:** Processos de roteamento dividido \(como Testes A/B\) implementados diretamente na camada de rede da homologação podem invalidar a precisão dos testes de regressão. É imperativo que os testes reflitam com fidelidade o uso real. * **Complexidade Multi-Região:** Intervenções manuais ou parciais em infraestruturas baseadas em múltiplas regiões na nuvem são inerentemente propensas a falhas humanas. Mitigações críticas exigem ferramentas de orquestração atômica \(aplicando a todos ou nenhum\). * **Importância Crítica da Observabilidade:** Sistemas voltados para interação de usuários precisam falhar de forma explícita e mapeável. Falhas silenciosas prolongam significativamente a detecção de incidentes, transferindo a notificação do problema para os canais de atendimento ao cliente, ao invés do monitoramento pró-ativo de sistemas.

Read the full incident report →

Minor February 10, 2026

Instabilidade na plataforma Unico Auto

Detected by Pingoru
Feb 10, 2026, 12:08 PM UTC
Resolved
Feb 10, 2026, 04:20 PM UTC
Duration
4h 11m
Affected: Portal Cliente (plataforma)Gestão de DocumentosGestão de Processos
Timeline · 6 updates
  1. investigating Feb 10, 2026, 12:08 PM UTC

    Alerta de Serviço: Unico Auto Detectamos uma interrupção parcial nos serviços da plataforma Unico Auto. Impacto: Dificuldade de login e lentidão em funcionalidades gerais. Status: Equipe técnica mobilizada em diagnóstico e correção. Estamos trabalhando para restabelecer o ambiente o mais breve possível.

  2. identified Feb 10, 2026, 02:18 PM UTC

    Atualização: Comunicamos que nossa equipe de engenharia identificou uma interrupção parcial nos serviços da plataforma Unico Auto, que pode ocasionar dificuldades de login e lentidão em funcionalidades gerais. Informamos que o incidente já foi formalmente diagnosticado e nossas equipes técnicas seguem mobilizadas, com foco total na identificação da causa raiz e na implementação da resolução definitiva. Estamos trabalhando com prioridade máxima para restabelecer a estabilidade integral do ambiente o mais breve possível.

  3. identified Feb 10, 2026, 03:03 PM UTC

    Atualização: Nossas equipes de engenharia permanecem atuando de forma ininterrupta na resolução da instabilidade que afeta o Unico Auto. O diagnóstico inicial já foi concluído e, no momento, estamos concentrados na fase de remediação para normalizar o acesso ao login e o desempenho da plataforma. Reiteramos que a estabilização deste ambiente é nossa prioridade atual.

  4. monitoring Feb 10, 2026, 04:13 PM UTC

    Atualização – Ambiente em Monitoramento: Informamos que as correções necessárias foram implementadas e a estabilidade da plataforma Unico Auto foi restabelecida. O acesso ao login e as demais funcionalidades já operam normalmente. No momento, nossas equipes técnicas permanecem monitorando o comportamento do sistema para garantir a consistência da operação e evitar novas oscilações.

  5. monitoring Feb 10, 2026, 04:19 PM UTC

    Comunicamos que o incidente técnico que afetava o login e a performance da plataforma Unico Auto foi totalmente resolvido. Após um período de monitoramento sem novas ocorrências, confirmamos a estabilidade integral do sistema. Nossa equipe de engenharia já iniciou a análise de causa raiz para implementar melhorias que evitem futuras instabilidades. Reforçamos que nossa prioridade é garantir a continuidade e a qualidade de nossas operações. Atenciosamente, Unico Auto.

  6. resolved Feb 10, 2026, 04:20 PM UTC

    Comunicamos que o incidente técnico que afetava o login e a performance da plataforma Unico Auto foi totalmente resolvido. Após um período de monitoramento sem novas ocorrências, confirmamos a estabilidade integral do sistema. Nossa equipe de engenharia já iniciou a análise de causa raiz para implementar melhorias que evitem futuras instabilidades. Reforçamos que nossa prioridade é garantir a continuidade e a qualidade de nossas operações. Atenciosamente, Unico Auto.

Read the full incident report →

Looking to track Unico downtime and outages?

Pingoru polls Unico's status page every 5 minutes and alerts you the moment it reports an issue — before your customers do.

  • Real-time alerts when Unico reports an incident
  • Email, Slack, Discord, Microsoft Teams, and webhook notifications
  • Track Unico alongside 5,000+ providers in one dashboard
  • Component-level filtering
  • Notification groups + maintenance calendar
Start monitoring Unico for free

5 free monitors · No credit card required