Cloudflare padł na kilka godzin. Firma wyjaśnia, co poszło nie tak
Cloudflare doświadczył najpoważniejszej awarii od 2019 roku. Przez kilka godzin znacząca część Internetu była dla użytkowników niedostępna – powodem okazała się jedna błędna zmiana w konfiguracji wewnętrznej.

18 listopada 2025 o 11:20 UTC Cloudflare zaczął globalnie generować błędy 5xx, co skutkowało niedostępnością wielu usług i serwisów korzystających z infrastruktury firmy. Użytkownicy widzieli komunikaty o błędzie pochodzącym z sieci Cloudflare, a problem dotknął zarówno CDN, jak i Turnstile, Access, Workers KV oraz część panelu.
Awaria nie była wynikiem ataku, choć początkowo inżynierowie podejrzewali masywny DDoS. Przyczyną okazała się zmiana w uprawnieniach bazy ClickHouse, która spowodowała wygenerowanie wadliwego „feature file” dla systemu Bot Management. Plik urósł ponad limit, co wywołało panikę w module proxy (FL/FL2) i masowe błędy 5xx.
Ponieważ plik był odświeżany co 5 minut, infrastruktura wchodziła w cykl naprzemiennych awarii i okresów poprawnego działania – zależnie od tego, która instancja ClickHouse wygenerowała wersję pliku. Dopiero po zidentyfikowaniu źródła problemu Cloudflare zatrzymał propagację błędnych danych i wprowadził ostatnią poprawną wersję pliku.
Zobacz też: Globalny paraliż Internetu. Ogromna awaria Cloudflare
Kluczowe momenty awarii:
- 11:20 – pojawienie się pierwszych błędów
- 13:05 – częściowe odciążenie Workers KV i Access przez wewnętrzne obejście proxy
- 14:30 – wdrożenie poprawnego pliku, główna awaria ustępuje
- 17:06 – pełne przywrócenie usług
Cloudflare przeprasza i zapowiada wzmocnienie procesów bezpieczeństwa konfiguracji, wprowadzenie globalnych „kill switchy” oraz analizę wszystkich modułów proxy pod kątem podobnych scenariuszy.
Awaria przypomina, jak silnie infrastruktura Internetu zależy od pojedynczych, pozornie niegroźnych błędów w systemach o globalnym zasięgu.
Źródło:
Cloudflare




