Na manhã de segunda‑feira, 20 de outubro de 2025, às 7h50 (BST), Amazon Web Services sofreu uma falha crítica que acabou provocando uma interrupção massiva da internet em todo o mundo.
A parada começou nos data centers da região US‑EAST‑1, localizada em Northern Virginia, quando um problema de resolução DNS atingiu o endpoint da API do Amazon DynamoDB. O efeito dominó fez com que serviços como Amazon EC2, Snapchat, Fortnite e Coinbase entrassem em pane quase simultaneamente.
Contexto histórico e vulnerabilidades estruturais
Especialistas em redes alertam que a internet funciona bem quando nós aleatórios caem, mas revela-se “frágil” diante da falha de grandes hubs. A região US‑EAST‑1, por ser um ponto de convergência para milhares de clientes globais, já havia sido citada em estudos da University of Cambridge como um "single point of failure" potencial.
Detalhes da falha e cronologia
Um diagnóstico preliminar, fornecido por Abdulkader Safi, especialista em infraestrutura de nuvem, apontou que a raiz do problema foi a falha de resolução DNS do serviço DynamoDB, que acabou gerando latência e erros em cascata.
- 07:50 BST – Início da interrupção nos servidores US‑EAST‑1.
- 08:00 BST – Downdetector registra 150 mil relatos de usuários em menos de uma hora.
- 09:15 BST – Aravind Srinivas, CEO da Perplexity AI, confirma nas redes que a origem foi a AWS.
- 10:00 BST – Serviços como Reddit e Roblox começam a estabilizar; Snapchat e Duolingo ainda apresentam problemas.
- 12:30 BST – A Amazon Web Services impõe limites de requisição para conter a sobrecarga.
Reações das empresas afetadas
Várias plataformas divulgaram declarações oficiais. O CEO da Coinbase, Brian Armstrong, disse que a negociação ficou "totalmente indisponível" por mais de seis horas, causando perdas de milhões de dólares. Já a equipe da Robinhood informou que todos os mercados foram suspensos até que a latência fosse reduzida.
O analista de tecnologia Jonathan Albarran destacou que, em minutos, usuários do Snapchat não conseguiam enviar mensagens, jogadores de Fortnite foram expulsos das partidas, e estudantes de Duolingo perderam suas "streaks".
Impacto econômico e social
Embora o cálculo definitivo ainda esteja em andamento, analistas estimam que a paralisação das transações em plataformas de pagamentos como Venmo e Chime pode ter gerado perdas entre US$ 200 milhões e US$ 350 milhões só durante o pico da manhã nas Américas.
Setores públicos também sentiram o baque: o site do HM Revenue & Customs (HMRC) ficou indisponível, atrasando declarações de impostos no Reino Unido. O banco Lloyds Bank registrou falhas nos aplicativos móveis que impediram transferências entre 09h00 e 11h30 BST.
Próximos passos e lições aprendidas
A Amazon Web Services prometeu um relatório completo dentro de 30 dias, além de reforçar a redundância entre regiões. Especialistas sugerem que empresas críticas migrem workloads críticos para múltiplas zonas de disponibilidade ou adotem estratégias multicloud.
Enquanto isso, o debate sobre a concentração de infraestrutura em poucos provedores ganha novo fôlego nos corredores de Washington e em seminários de cibersegurança europeus.
Perguntas Frequentes
Como a queda da AWS afetou usuários comuns?
Milhões de pessoas viram aplicativos como Snapchat, Instagram ou jogos como Fortnite travarem ou simplesmente desaparecerem da tela. Até serviços de pagamento como Venmo ficaram indisponíveis, o que impediu compras e transferências por algumas horas.
Quais empresas foram mais impactadas?
Além da própria Amazon (sites e Prime Video), plataformas de jogos (Fortnite, Roblox, Clash of Clans), redes sociais (Snapchat, Slack, Signal), serviços de educação (Duolingo) e financeiros (Coinbase, Robinhood, Venmo) registraram interrupções significativas. Bancos do Reino Unido, como Lloyds, também foram afetados.
Qual foi a causa técnica da interrupção?
A falha originou‑se em um erro de DNS que impediu a resolução do endpoint da API do DynamoDB na região US‑EAST‑1. Essa perda de conectividade gerou latência elevada e erros em cascata em serviços dependentes, como EC2 e outras APIs da AWS.
O que pode ser feito para evitar problemas semelhantes no futuro?
Especialistas recomendam diversificar a carga de trabalho entre múltiplas regiões ou até usar provedores diferentes (multicloud). Também é crucial implementar mecanismos de failover automáticos e monitoramento avançado de DNS para detectar anomalias antes que se tornem críticas.
Quando a AWS deve publicar seu relatório final?
A empresa declarou que entregará um detalhado relatório de post‑mortem dentro de 30 dias, incluindo análise de causa raiz, medidas corretivas e planos para melhorar a resiliência da região US‑EAST‑1.
Camila A. S. Vargas
outubro 20, 2025 AT 22:54É fundamental reconhecer que incidentes de escala global como o da AWS reforçam a necessidade de investimentos em redundância e resiliência de infraestrutura. A postura assertiva das empresas afetadas demonstra comprometimento com a continuidade dos serviços. Embora o impacto econômico seja significativo, há espaço para aprendizado e aprimoramento tecnológico. Manter o otimismo enquanto trabalhamos em soluções mais robustas é essencial para o futuro.
Priscila Galles
outubro 23, 2025 AT 06:28Gente, a parada da AWS foi um caos total, ninguem conseguiu usar nada ontem.
Eu achei que ia demorar dias, mas já tão voltando.
Michele Hungria
outubro 25, 2025 AT 14:01A análise revela falhas estruturais que já eram previsíveis; entretanto, a imprensa ainda prefere sensacionalismo ao invés de apresentar dados concretos.
Tal nível de dependência de um único provedor é, no mínimo, irresponsável.
É lamentável que tantas organizações ignorem princípios básicos de arquitetura distribuída.
Priscila Araujo
outubro 27, 2025 AT 21:34Entendo a frustração de quem ficou sem acesso, mas vale lembrar que situações assim impulsionam a inovação.
Precisamos apoiar iniciativas que diversifiquem a nuvem e proporcionar alternativas mais seguras.
Juntos, podemos transformar esse desafio em oportunidade.
Glauce Rodriguez
outubro 30, 2025 AT 05:08É inadmissível que uma potência como a AWS permita tal vulnerabilidade, sobretudo quando nossos próprios recursos nacionais são subutilizados.
O Brasil possui capacidade tecnológica para desenvolver soluções soberanas e não pode continuar dependente de infraestruturas estrangeiras.
É hora de investir em nossos data centers e garantir a autonomia digital.
Daniel Oliveira
novembro 1, 2025 AT 12:41A falha da AWS expôs uma fragilidade que vinha sendo apontada há anos.
Muitas empresas ainda acreditam que a nuvem pública é infalível.
Essa confiança cega ignora o risco de um ponto único de falha.
Quando o DNS do DynamoDB travou, o efeito dominó foi imediato.
Serviços de jogos, redes sociais e plataformas financeiras foram afetados simultaneamente.
Usuários relataram perdas de acesso que vão desde mensagens não enviadas até compras incompletas.
Os relatórios de downtime mostraram que centenas de milhares de usuários foram impactados em menos de duas horas.
O custo econômico estimado ultrapassa centenas de milhões de dólares.
Além do prejuízo financeiro, a reputação de diversas marcas sofreu um golpe.
A resposta da AWS foi rápida, porém limitada por medidas de contenção.
Limitar requisições ajudou a reduzir a sobrecarga, mas não resolveu o problema de raiz.
Especialistas recomendam diversificar workloads entre múltiplas regiões e até entre diferentes provedores.
Essa estratégia pode eliminar a dependência de um único hub como o US‑EAST‑1.
A própria AWS prometeu um relatório detalhado em trinta dias, mas a confiança já está abalada.
Em última análise, este incidente serve como alerta para repensarmos a arquitetura de nossas aplicações e adotarmos práticas mais resilientes.
Ana Carolina Oliveira
novembro 3, 2025 AT 20:14Vamos aproveitar esse momento para fortalecer nossos sistemas e não cair na mesma armadilha novamente!
Compartilhando boas práticas, conseguimos criar um ambiente mais seguro para todos.
Conto com a colaboração de cada um para difundir essas lições.
Bianca Alves
novembro 6, 2025 AT 03:48Interessante observar como até os grandes players podem tropeçar. 😊
Isso nos lembra que a humildade tecnológica é sempre necessária.
Bruna costa
novembro 8, 2025 AT 11:21É triste ver tantos usuários presos pela falta de acesso, mas também inspirador que a comunidade se una para buscar soluções.
Precisamos de mais discussões sobre multicloud e estratégias de failover.
Carlos Eduardo
novembro 10, 2025 AT 18:54Enquanto alguns apontam culpados, o que realmente importa é reconstruir o caminho para que serviços críticos voltem a operar sem interrupções extensas.
Essa é a oportunidade de repensar a arquitetura e criar redundâncias efetivas.
EVLYN OLIVIA
novembro 13, 2025 AT 02:28Ah, claro, mais um dia em que a "nuvem infinita" mostrou seu lado humano.
Ficou tão óbvio que nenhum de nós percebeu que colocar tudo em um único provedor era um convite ao desastre.
Talvez o universo esteja nos avisando para acordar.
joao pedro cardoso
novembro 15, 2025 AT 10:01Na prática, a solução está em usar múltiplas zonas e, se possível, provedores diferentes; isso reduz a exposição a falhas em cadeia.
Além disso, monitorar métricas de DNS pode prevenir incidentes semelhantes.
Murilo Deza
novembro 17, 2025 AT 17:34Realmente, a situação foi complicada, mas muito, muito, muito importante para entender a real dependência que temos; e, claro, para melhorar nossos processos internos, bem como a comunicação externa, que muitas vezes falha.
Ricardo Sá de Abreu
novembro 20, 2025 AT 01:08Concordo que precisamos de diversificação, mas sem exageros, equilibrando custo e segurança.
Vamos focar em soluções práticas e colaborativas.
gerlane vieira
novembro 22, 2025 AT 08:41Mais uma vez, o mercado mostra sua fragilidade diante da arrogância das gigantes.