Mudanças climáticas
Dois mecanismos físicos justificam a expectativa de que o aquecimento da atmosfera possa afetar a magnitude e frequência de chuvas intensas num dado local. O primeiro mecanismo está relacionado com os processos termodinâmicos que ocorrem na atmosfera, pois um ar mais aquecido tem uma maior capacidade de reter vapor d’água, como mostra a equação de Clausius-Clapeyron, que relaciona a temperatura do ar com a tensão de saturação de vapor. Mais vapor d’água na atmosfera, em média, aumenta o potencial de ocorrência de chuvas intensas. Em tese, para cada 1K de aumento de temperatura, a atmosfera consegue reter um volume de vapor d’água 7 % maior, entretanto estudos observacionais mostram que essa taxa de 7 % no aumento da intensidade de chuva para cada 1K não é necessariamente observada em todos os lugares (O’Gorman e Schneider 2009; Sugiyama, Shiogama, e Emori 2010; Fowler et al. 2021; Marra et al. 2023). A explicação para esse fato está relacionada com outros fatores intervenientes no processo de formação de chuva, como por exemplo: limites no fornecimento de vapor d’água, mudanças na taxa adiabática úmida e nos padrões de vento vertical, bem como o valor da temperatura no momento da ocorrência da chuva extrema (O’Gorman e Schneider 2009) e o excesso de calor latente (Seneviratne et al. 2021). O segundo mecanismo físico – este com maiores repercussões regionais – está relacionado com os processos dinâmicos associados à circulação atmosférica de larga escala. Esses processos podem ser afetados pelo aquecimento, com repercussões tanto na magnitude quanto na direção do transporte de vapor na atmosfera aumentando ou diminuindo as intensidades de chuva em determinada região. Alguns estudos, baseados em modelagem climática de larga escala, permitiram decompor os efeitos oriundos dos processos termodinâmicos e da dinâmica da atmosfera (Pfahl, O’Gorman, e Fischer 2017). O resultado da composição dessas duas classes de mecanismos é que vai indicar uma intensificação ou redução das chuvas intensas num dado local, mas a quantificação do papel da dinâmica atmosférica em diversos locais do mundo ainda é incerta, sendo uma fonte de incerteza relevante nos prognósticos futuros. As mudanças recentes são evidentes em todos os componentes do sistema climático em transformação: aquecimento atmosférico e oceânico, redução de neve e gelo, elevação do nível do mar, acidificação e decréscimo de oxigênio nos oceanos, e aumento das concentrações de gases de efeito estufa (IPCC 2012).
Vários estudos relatados em Seneviratne et al. (2021) mostram que, em diversas partes do globo, observa-se uma intensificação das chuvas intensas ao nível diário sobre os continentes, principalmente no hemisfério Norte, onde há informações com densidade espacial mais refinada e séries históricas mais longas, permitindo conclusões mais confiáveis. Por exemplo, Fischer e Knutti (2014), empregando dados observacionais ao longo do século XX, realizaram uma modelagem climática para estimativa do contrafactual e, fazendo uso da métrica FAR (Fraction of Attributable Risk, interpretada como o nível de contribuição causal por fator antrópico), estimaram o grau de contribuição antrópica dos eventos de chuva diária que ultrapassam os quantis de 99% e 99,9% estimados com base no período pré-industrial para diferentes níveis de aquecimento global. Eles concluíram que, com o nível de aquecimento registrado na época do estudo, aproximadamente 18% das chuvas extremas (acima do quantil 99,9%) são resultado do aquecimento global. A análise permite ainda inferir que os valores de FAR podem aumentar substancialmente para níveis de aquecimento mais elevados, podendo chegar a 30% e 52% para níveis de aquecimento de 1,5 e 3,0 °C, respectivamente. Na escala subdiária, a quantidade de estudos é menor e a quantidade de informação disponível dificulta conclusões mais enfáticas, muito embora os resultados apontem quase sempre para a intensificação das chuvas.
Centenas de estudos já foram realizados ao redor do mundo na tentativa de detecção de mudanças nas séries observacionais para diferentes escalas temporais das chuvas intensas, apesar de as análises a nível diário sejam as mais comuns. No Brasil, tem-se observado um aumento nas intensidades de precipitações máximas diárias nas regiões sudeste e sul com alguma confiança, e um pouco na região Amazônica, muito embora Souza et al. (2020) tenham encontrado uma proporção relativamente pequena de estações com tendências significativas no território brasileiro, em torno de 3% apenas, mas com número mais elevado de estações nas regiões hidrográficas do Paraná e Atlântico Sul.
Metodologias de Curvas IDF sob Mudança Climática
A engenharia de recursos hídricos e o dimensionamento de infraestruturas críticas dependem de uma quantificação precisa do risco associado a eventos extremos de precipitação. As curvas de Intensidade-Duração-Frequência (IDF) constituem a principal ferramenta para essa finalidade, fundamentadas na suposição de estacionariedade, segundo a qual as estatísticas de extremos permanecem invariáveis ao longo do tempo (Kourtis e Tsihrintzis 2022; Lai et al. 2022). Entretanto, em um cenário de mudanças climáticas antropogênicas, essa premissa vem sendo amplamente questionada.
A projeção de cenários futuros é realizada a partir dos Modelos de Circulação Geral (GCMs), que simulam os processos físicos e químicos do sistema climático global (Lai et al. 2022). Contudo, suas resoluções espaciais relativamente grosseiras (da ordem de 100 a 300 km) e a presença de vieses sistemáticos limitam a aplicação direta desses modelos em estudos de precipitação extrema em escala local (Kourtis e Tsihrintzis 2022; Lai et al. 2022; Fosser et al. 2024). Para que os dados de GCMs possam ser empregados na elaboração de curvas IDF, é necessário aplicar uma sequência metodológica composta por etapas de downscaling e correção de viés, destinadas a ajustar a resolução espacial e a distribuição estatística das projeções. Essa cadeia de procedimentos também representa uma cascata de incertezas, uma vez que cada etapa introduz suas próprias suposições e fontes potenciais de erro (Lai et al. 2022; Lanzante et al. 2021; Hassanzadeh et al. 2019).
A evolução recente das metodologias de análise tem buscado mitigar essas incertezas por meio da combinação de técnicas de downscaling, correção de viés e uso de modelos climáticos de alta resolução, como os Modelos de Permissão de Convecção (CPMs). Essa integração constitui um avanço essencial para o desenvolvimento de curvas IDF não estacionárias, mais condizentes com as novas condições climáticas e com as exigências de planejamento de infraestruturas resilientes.
Downscaling / Remoção de Viés
A redução da escala entre as projeções de GCMs para gerar informações em resoluções mais finas e atender as necessidades de estudos hidrológicos locais é realizada por meio do downscaling. A literatura distingue duas abordagens principais: o downscaling dinâmico, que utiliza Modelos Climáticos Regionais (RCMs) aninhados aos GCMs para simular processos físicos com maior detalhamento; e o downscaling estatístico, que estabelece relações empíricas entre variáveis de grande e pequena escala (Lai et al. 2022).
Enquanto o método dinâmico é fisicamente consistente, mas de alto custo computacional e sujeito a vieses, o método estatístico se destaca pela eficiência e flexibilidade, permitindo o uso de múltiplos modelos e cenários para caracterizar incertezas. Entre as técnicas estatísticas, destacam-se o método do Quantile Mapping (QM) e o método do Delta Change, que constituem a base conceitual da maioria dos procedimentos atuais de downscaling e correção de viés. O Quantile Mapping ajusta as distribuições de probabilidade simuladas pelos modelos climáticos para que reproduzam as distribuições observadas, mapeando quantis correspondentes entre as séries simuladas e observadas, reduzindo vieses sistemáticos e melhorando a representação de extremos sem alterar o sinal físico de mudança climática. Já o Delta Change aplica fatores de variação média obtidos como a diferença ou razão entre o clima futuro e o histórico do modelo, transferindo essas alterações às séries observadas para gerar projeções futuras.
Uma abordagem dinâmica é apresentada por Wang et al. (2014), que desenvolveram um modelo climático regional para investigar os potenciais impactos das mudanças climáticas induzidas pelo aumento dos gases de efeito estufa sobre a intensidade e a frequência de eventos extremos de precipitação no contexto de Ontário, Canadá. Utilizando o modelo PRECIS (25 km de resolução), os autores geraram projeções regionais de 1950–2099 para estimar intensidades de chuva de curta duração. As curvas IDF projetadas foram ajustadas com a distribuição de Gumbel, expressa como:
\[ X_{T_D} = \mu_D + K_T \sigma_D, \tag{1}\]
onde, \(X_{T_D}\) representa o quantil da intensidade, ou lâmina, de precipitação para uma determinada duração \(D\) e para um determinado período de retorno \(T\); \(\mu_D\) e \(\sigma_D\) são os valores populacionais da média e do desvio padrão dos máximos anuais correspondentes à duração \((D)\), e \(K_T\) é um fator de frequência que depende do período de retorno \((T)\). Para a interpolação foi utilizada uma função de três parâmetros:
\[ I_{TD} = \frac{A_T}{(D + B_T)^{C_T}} \tag{2}\]
onde, \(I_{TD}\) representa o valor de excedência da intensidade da chuva para um dado período de retorno \((T)\) e duração \((D)\) e \(A_T\), \(B_T\) e \(C_T\) são os coeficientes correspondentes ao período de retorno \((T)\). Esses coeficientes foram estimados pelo método dos mínimos quadrados. Os resultados indicaram aumento progressivo das intensidades de precipitação extrema em todas as durações e períodos de retorno, sugerindo que eventos severos se tornarão mais frequentes e intensos ao longo do tempo.
Em contraste com as abordagens dinâmicas baseadas em modelagem física explícita, o downscaling estatístico busca traduzir os padrões climáticos de larga escala em condições locais por meio de relações empíricas entre preditores e preditandos. Nesse contexto, Alam e Elshorbagy (2015) desenvolveram uma metodologia para estimar mudanças em curvas IDF sob cenários climáticos futuros em Saskatoon, Canadá, combinando geração estocástica de precipitação e desagregação temporal. As séries diárias de oito modelos CMIP5 foram reduzidas de escala com o gerador LARS-WG, calibrado para 1961–1990, e desagregadas em escalas horárias e sub-horárias (até 5 minutos) pelo método K-NN, gerando 1000 séries sintéticas contínuas em alta resolução. A partir dessas séries, os máximos anuais foram ajustados à distribuição GEV por máxima verossimilhança, construindo curvas IDF para períodos de retorno de 2 a 100 anos. Os autores também compararam o método LARS-WG + K-NN com um modelo de programação genética, que mostrou desempenho superior para eventos raros. Os resultados indicaram aumentos mais significativos nas intensidades de curta duração (<1h) e para longos períodos de retorno (25–100 anos), com a maior incerteza associada às diferenças entre os modelos climáticos globais.
A diversidade de métodos evidencia a necessidade de estudos comparativos, como o de Hassanzadeh et al. (2019), que analisaram diferentes técnicas de downscaling estatístico voltadas à projeção de extremos de precipitação e à atualização de curvas IDF sob cenários futuros. Os autores aplicaram três abordagens paramétricas baseadas em quantis: Quantile–Quantile Downscaling (QQD), Equidistant Quantile Matching (EQM) e o método de invariância de escala. A metodologia foi aplicada à cidade de Montreal, Canadá, utilizando dados de 20 modelos climáticos globais (GCMs) corrigidos por viés e com resolução espacial de 25 km. Todos os métodos partem do ajuste da distribuição GEV aos máximos anuais observados e simulados. O QQD estabelece uma relação linear entre quantis simulados e observados via regressão, mantida invariante no tempo para projetar extremos futuros; o EQM, por sua vez, preserva a correspondência temporal entre séries e combina duas regressões para gerar máximos locais futuros; já o método de invariância de escala utiliza relações entre momentos não centrais de diferentes durações, evitando regressões e reduzindo a complexidade computacional. Os resultados mostraram desempenho semelhante entre QQD e EQM na reprodução histórica, mas divergências significativas nas projeções futuras, enquanto o método de invariância de escala apresentou resultados mais estáveis e robustos. A incerteza combinada entre GCMs, RCPs e métodos de downscaling revelou-se comparável à incerteza do próprio ajuste da GEV.
De forma similar, Napolitano et al. (2024) apresentaram uma metodologia integrada para estimar curvas IDF sob cenários de mudança climática, comparando quatro abordagens amplamente usadas: QDM-CMCC, que combina o método delta com mapeamento de quantis; QQD, EQM e o método de invariância de escala. O estudo utilizou 14 cadeias de simulação climática do EURO-CORDEX, considerando o período de referência 1981–2010 e projeções para 2036–2065 sob os cenários RCP2.6, RCP4.5 e RCP8.5, aplicando as metodologias à curva IDF de referência da Ilha de Ischia (sul da Itália). O objetivo foi avaliar como as diferentes técnicas de ajuste estatístico, cadeias climáticas e cenários de emissão influenciam as estimativas das curvas IDF e, consequentemente, o planejamento de infraestruturas hidráulicas mais resilientes.
O método EQM também é utilizando por Simonovic et al. (2017) para atualizar as curvas IDF para o Canadá. Esse método realiza o downscaling temporal, além do downscaling espacial da precipitação máxima anual (AMP derivada dos dados do GCM e dos dados subdiários observados). O EQM é aplicado diretamente à AMP para estabelecer as relações estatísticas entre as AMPs dos dados de precipitação gerados pelo GCM e os dados observados (históricos) subdiários em vez de usar registros completos de precipitação diária.
Ampliando o escopo metodológico e incorporando técnicas de aprendizado de máquina, Goly (2013) comparou diferentes abordagens de downscaling estatístico, incluindo regressão linear múltipla, regressão de coeficientes positivos, Support Vector Machine (SVM) e Stepwise Regression, aplicadas à modelagem da precipitação a partir de variáveis preditoras de larga escala obtidas de reanálises NCEP/NCAR e GCMs. O autor propôs um método de seleção ótima de preditores baseado em programação não linear inteira mista (MINLP) e redes neurais artificiais (ANN), buscando identificar a combinação mínima de variáveis com maior poder explicativo. Para reduzir vieses, avaliou e aprimorou métodos clássicos como Quantile Matching, Equidistant CDF Matching (EQM) e Equi-Ratio Quantile Matching (ERQM), além de propor um modelo híbrido ANN-QM, que combina aprendizado neural com mapeamento de quantis, otimizando os parâmetros por múltiplas funções de custo (RMSE, viés relativo e eficiência de Nash–Sutcliffe). Aplicado à Flórida, o estudo mostrou que os modelos baseados em ANN e ANN-QM reduziram o viés médio em até 25%, com melhor equilíbrio entre custo computacional e precisão em resoluções intermediárias (~0,5°).
Avançando nessa linha de integração entre métodos estatísticos e aprendizado de máquina, ME et al. (2022) desenvolveram um ensemble multi-modelo de downscaling para avaliar e projetar mudanças em médias e extremos diários de precipitação no sudeste da América do Sul (SESA). A metodologia relaciona variáveis de grande escala (reanálise ERA-Interim) com chuva observada em 86 estações (1979–2017), aplicando as relações aos preditores simulados por GCMs do CMIP5/CMIP6 sob cenários históricos e futuros (RCP8.5/SSP585). Foram testadas quatro famílias de modelos: análogos (AN), modelos lineares generalizados estocásticos (GLM_ST), GLMs condicionados por tipos de tempo (GLM_WT) e redes neurais estocásticas (NN_ST). A avaliação histórica (perfect prognosis) indicou que os métodos estatísticos reduziram vieses e melhoraram a representação de extremos diários, com destaque para AN e GLM_ST quando os preditores foram expressos por componentes principais. As projeções para 1979–2100 mostraram aumento na intensidade e na frequência de dias chuvosos e nos extremos diários (índices R95 e R95p), especialmente sob o cenário SSP585. Os resultados foram comparados a RCMs do CORDEX-CORE, confirmando a consistência dos padrões projetados pelos ESDs frente às abordagens dinâmicas.
Após o downscaling, a correção de viés é uma etapa indispensável para ajustar as distribuições estatísticas dos dados do modelo para que correspondam às observações. O desafio central é que as saídas de GCMs e RCMs são, em geral, grosseiras e enviesadas, tornando os procedimentos de correção de viés indispensáveis (Kourtis e Tsihrintzis 2022).A aplicação do quantile mapping requer cuidado, pois métodos mais simples podem alterar artificialmente o sinal de mudança climática projetado pelo modelo. Assim, para investigar isso, Lanzante et al. (2021) realizaram uma avaliação sistemática de métodos estatísticos de downscaling aplicados à precipitação diária, com foco na representação de extremos, por meio de um experimento perfect model usando um modelo de circulação geral atmosférico em duas resoluções (25 km e 200 km) para períodos histórico (1979–2008) e futuro (2086–2095, RCP8.5). As séries de alta resolução foram tratadas como “observações” e as de baixa como “modelo bruto”, permitindo testar quatro métodos de correção de viés e ajuste distribucional: Bias Correction Quantile Mapping (BCQM), Kernel Density Distribution Mapping (KDDM), Quantile Delta Mapping (QDM) e PresRat (PRAT). O BCQM corrige diretamente as CDFs; o KDDM usa densidades suavizadas via kernel; o QDM preserva o sinal de mudança climática aplicando ajustes aditivos ou multiplicativos às distribuições; e o PRAT estende o QDM incluindo um fator de correção médio.
\[K=(\bar M_f/ \bar M_h)(\bar D_f/ \bar O_h) \tag{3}\]
onde as barras indicam médias mensais de precipitação. O fator K foi multiplicado pelos valores corrigidos, garantindo que a razão média entre os períodos futuro e histórico do modelo bruto seja conservada após a aplicação da correção distribucional. Um procedimento adicional, o Limited Tail Adjustment (LIM), ajusta as caudas superiores para evitar descontinuidades nos extremos. A habilidade dos métodos foi avaliada pelo erro médio absoluto (MAE) e pela métrica de melhoria relativa (Skill), mostrando que todos reduzem significativamente o viés, mas com diferenças de desempenho: QDM e PRAT preservam melhor o sinal climático em eventos extremos, BCQM tende a supercorrigir as caudas, e KDDM é mais adequado a regimes contínuos. O estudo conclui que a escolha do método deve equilibrar a correção de viés e a preservação do sinal físico.
Focando nos extremos, Hosseinzadehtalaei et al. (2020) propuseram uma metodologia para atualizar curvas IDF de precipitação extrema de curta duração em toda a Europa, combinando dados de alta resolução de sensoriamento remoto (CMORPH, MSWEP) e simulações regionais EURO-CORDEX sob RCP4.5 e RCP8.5. Os extremos foram identificados pelo método Peak-Over-Threshold (POT) com ajuste da distribuição Pareto generalizada (GPD), cujos parâmetros foram estimados por inferência bayesiana via algoritmo Differential Evolution Markov Chain (DE-MC), permitindo quantificar incertezas. As curvas IDF futuras foram derivadas com o método Quantile Perturbation Downscaling (QPD), que aplica fatores de correção específicos por quantil e duração às projeções dos RCMs, mantendo a estrutura de variabilidade dos extremos. Os fatores de correção são obtidos em cada célula de grade reamostrada (via interpolação bilinear). Para durações sub-horárias, utilizou-se desagregação estatística baseada em razões observadas entre quantis de 3 h e 30 min ou 1 h. A análise de incerteza mostrou que os componentes dominantes são os de modelo e cenário (~40%), enquanto os de distribuição e estimação variam entre 5–15%. Os resultados indicaram aumento dos parâmetros de localização e escala da GPD em mais de 97% da Europa, resultando em elevação média de 16–27% nas intensidades e 17–25% na inclinação das curvas IDF, especialmente para durações curtas e longos períodos de retorno, tornando eventos de 50 e 100 anos até três vezes mais frequentes sob o cenário RCP8.5.
Muitos métodos de downscaling focam na desagregação temporal, dessa forma, Nguyen et al. (2020) apresentaram uma abordagem de downscaling estatístico para relacionar chuvas extremas diárias em escala regional com eventos diários e subdiários locais, aplicada a Ontário (Canadá) empregando pluviômetros e GCMs reduzidos. Duas estratégias foram testadas: (i) correção por fator de escala entre médias regionais, \(X\), e locais, \(X_i\); e (ii) função de correção de viés entre distribuições cumulativas empíricas. A partir das séries diárias locais estimadas, as chuvas subdiárias foram derivadas por distribuição GEV com L-momentos ponderados (PWM), assumindo invariância de escala. A metodologia foi avaliada com seis métricas de desempenho (RMSE, RMSEr, MAD, MADr, \(R_{adj}^2\), CC), apresentando excelente ajuste (RMSEr e MADr de 3–10% e CC>0.98). As projeções dos 21 GCMs indicaram aumentos significativos nas precipitações extremas de projeto entre o período de referência e três horizontes futuros, especialmente para períodos de retorno de 25 a 50 anos, confirmando a robustez do método para atualizar relações IDF em cenários de mudança climática.
Buscando avaliar a capacidade dos modelos globais de reproduzir a lei de escala da precipitação máxima em diferentes resoluções, Zhang & Fraedrich (2013) analisaram simulações dos modelos ECHAM5/MPI-OM, ECHAM6/MPI-OM e HadGEM2-ES, considerando períodos históricos (1860–2005) e projeções futuras sob o cenário RCP8.5, sem aplicar correção de viés, a fim de investigar o comportamento de escala não linear dos extremos de precipitação. Baseando-se na relação empírica proposta por Jennings (1950), segundo a qual a precipitação máxima cresce com a duração do evento (\(P \sim d^b\)), os autores verificaram que o expoente clássico (\(b = 0{,}5\)) foi reproduzido em grande parte das grades terrestres e oceânicas, enquanto modelos de menor resolução apresentaram valores mais altos (\(b \approx 0{,}7\)), indicando memória de longo prazo. Em cenários mais quentes (RCP8.5), as simulações de alta resolução (ECHAM6 e HadGEM) apontaram para extremos mais intensos em escalas curtas sobre a terra, enquanto sobre o oceano o aumento foi mais moderado. Os autores concluem que compreender essa lei de escala nos modelos climáticos pode subsidiar o desenvolvimento de correções de viés dependentes de escala aplicáveis à modelagem de eventos extremos.
Ainda, a propriedade de invariância de escala fundamenta métodos como o de Kianfar et al. (2016) que propuseram uma metodologia para quantificar o impacto das mudanças climáticas sobre extremos de precipitação em alta resolução temporal (10 min), combinando simulações regionais (ENSEMBLES, cenário A1B) e modelagem estocástica multiescala. O método utiliza um simulador de chuva baseado no modelo Neyman–Scott Rectangular Pulse (NSRP) para gerar precipitação diária e no Multiplicative Random Cascade (MRC) para desagregar até 10 min, calibrado com dados de 22 estações suíças (1981–2010) da rede SwissMetNet (MeteoSwiss). As projeções de mudança são incorporadas por fatores de mudança (Factors of Change, FC), razões entre estatísticas futuras e históricas dos GCM–RCMs, aplicadas à parametrização do NSRP, enquanto o MRC mantém propriedades subdiárias constantes. Foram geradas 100 simulações de 30 anos para cada cenário (atual, 2035–2064 e 2070–2099), permitindo separar a variabilidade climática interna da forçada. Os resultados mostraram grande sobreposição entre as distribuições de extremos atuais e futuros, indicando que a variabilidade interna domina o comportamento das chuvas intensas em escalas de minutos a horas. Assim, o sinal climático projetado mostrou baixa razão sinal-ruído, e as mudanças significativas foram limitadas e inconsistentes entre modelos, destacando que, em drenagem urbana, a incerteza natural do clima já cobre grande parte da variabilidade esperada sob cenários futuros.
Em um estudo desenvolvido para o Canadá por Requena et al. (2021), é proposto um método de “grid-scale temporal downscaling” para obter quantis subdiários a partir de saídas diárias/RCM, baseado na hipótese de escala e no uso da GEV/PWM (L-momentos ponderados). A abordagem proposta consiste em quatro etapas: (i) estimativa de quebras em grade e expoentes de escala a partir de observações; (ii) estimativa e avaliação de quantis de intensidade de chuva em grade com base em observações com redução de escala temporal; (iii) correção de viés de séries de máximos anuais de RCM; e (iv) estimativa e avaliação de quantis de intensidade de chuva em grade com base em RCM com redução de escala temporal. A estimação dos expoentes de escala envolveu ajustar relações de potência entre momentos (ou quantis) de durações distintas e localizar possíveis quebras (piecewise scaling). Para o ajuste das distribuições de extremos foi usada a GEV e o PWM para robustez em amostras curtas.
Recentemente, Vorobevskii et al. (2023) apresentaram dois modelos estatísticos para desagregar precipitação diária em resoluções sub-horárias: WayDown, um modelo condicional baseado em cadeias de Markov de 1ª ordem e cópulas, e LetItRain, um gerador incondicional fundamentado em processo de Poisson duplo. Ambos foram calibrados com dados de radar de 10 min e validados em múltiplos climas. O WayDown preserva o total diário ao gerar séries de 5 min, utilizando uma cadeia de Markov para a ocorrência (“chuva”/“não chuva”) e uma cópula beta empírica para manter a dependência entre intensidades sucessivas, aplicando correções proporcionais e garantindo continuidade entre dias. Já o LetItRain gera séries futuras com base em estatísticas históricas (média, variância, proporção de períodos úmidos), ajustadas por fatores de mudança e regressões empíricas que preservam a estrutura multiescalar da chuva. A validação, realizada via bootstrap, avaliou médias, variâncias, autocorrelações, quantis subdiários e máximos anuais, mostrando que o WayDown reproduz melhor as medianas condicionadas ao total diário, enquanto o LetItRain gera maior variabilidade entre simulações, capturando uma gama mais ampla de possíveis cenários futuros. O estudo foi realizado em dois países distintos, Alemanha e Coreia do Sul, e pra cada área foi utilizada uma técnica de downscaling EPISODES (impírico-estatístico) e PRIDE, respectivamente.
A seleção de modelos antes mesmo do downscaling também é uma etapa essencial. Infanti et al. (2020) propuseram uma metodologia de seleção de modelos climáticos voltada à redução da incerteza nas projeções de precipitação para o sul da Flórida, priorizando a coerência física em relação às teleconexões que controlam o regime regional de chuvas (principalmente ENSO, AMO e PDO) e às forçantes locais de temperatura do ar. O método baseia-se em regressões entre anomalias de temperatura da superfície do mar (SSTA), temperatura a 2 m e o índice padronizado de precipitação (SPI6), aplicadas a dados observados e a 32 modelos CMIP5. A comparação entre os padrões simulados e observados, por meio da correlação espacial de Pearson, permitiu identificar um subconjunto de modelos “de maior confiança”, aqueles com melhor desempenho simultâneo para SSTA e temperatura a 2 m. As projeções futuras (RCP4.5 e RCP8.5) mostraram maior coerência física, sem reduzir artificialmente a variabilidade intermodelo. Os resultados indicam aumento robusto da precipitação no inverno, associado a um padrão El Niño–like, e um gradiente “seco ao sul e úmido ao norte” no verão. As análises de componentes principais confirmaram que as variáveis oceânicas e atmosféricas explicam cerca de 75 % da variância da precipitação invernal, validando sua escolha como critérios-chave de seleção.
Madsen et al. (2014) afirmaram que para o downscaling estatístico, o método mais difundido é o delta change/perturbação, inicialmente aplicado a mudanças mensais de média e depois estendido para variância e quantis – um avanço crucial para capturar alterações nos extremos. Em paralelo, há geradores estocásticos de chuva, weather typing/rean amostragem e análogos climáticos, com evidências de que certos geradores representam melhor as caudas do que um delta simples. Já a correção de viés evolui de ajustes de média para abordagens que também tratam desvio-padrão, mapeamento quantil-a-quantil e correções baseadas em distribuições (gamma/duplo-gamma), acompanhadas de uma estratégia explícita para ajustar o número de dias chuvosos.
Para superar a baixa resolução espacial dos GCMs (tipicamente acima de 100 km), Lai et al. (2022) discutem o uso de técnicas de downscaling, tanto dinâmicas (via modelos regionais RCMs, como NARCCAP ou NA-CORDEX) quanto estatísticas (por exemplo, métodos BCCA, LOCA e MACA). Essas técnicas produzem projeções ajustadas a resoluções de 4 a 25 km, possibilitando análises mais detalhadas em nível regional ou urbano. Outra etapa do estudo Lai et al. (2022) foi o pós-processamento das projeções climáticas, que buscou corrigir vieses e ajustar as séries simuladas às observações locais. Entre as técnicas mais utilizadas estão o método do fator de mudança (change factor) e o mapeamento quantílico (quantile mapping). O primeiro aplica fatores multiplicativos ou aditivos para ajustar as médias futuras com base em diferenças entre o clima histórico e o simulado; o segundo corrige as distribuições de probabilidade das variáveis projetadas para que correspondam melhor às observadas. Esses procedimentos podem também incluir a geração de arquivos meteorológicos sintéticos (weather generators), usados em análises de desempenho de edificações ou pavimentos.
O método de correção estocástica de razão de reescala (Stochastic Ratio Rescaling) foi utilizada por Yu et al. (2020) no modelos CPMs. Os autores afirmam que esses modelos ainda apresentam vieses sistemáticos, especialmente subestimando chuvas intensas. O método utilizado compara as séries simuladas com o produto de radar NOAA Stage IV, ajustando as distribuições de precipitação de modo a preservar suas propriedades estatísticas (média, variância e correlação). A correção foi aplicada aos meses de junho a setembro (JJA), período dominado por convecção.
O método resumido é:
- Primeiro, a distribuição empírica \(\hat{R}\) foi estimada diretamente a partir da distribuição empírica das relações de redimensionamento:
\[ \hat{R}^k = \frac{X_{\text{obs}}^k}{X_{\text{RCM}}^k}, \quad k = 1, 2, \ldots, n \tag{4}\]
onde \({X_{\text{obs}}^k}\) e \({X_{\text{RCM}}^k}\) são valores ordenados por k-ésima ordem nas funções de densidade cumulativa empírica do Estágio IV e precipitação extrema do RCM para uma resolução temporal e espacial específica.
- Os autores afirmam que os parâmetros da distribuição podem ser estimados diretamente a partir dos dois primeiros momentos de \(X_{obs}\) e \(X_{RCM}\) e sua covariância. Assim, a distribuição ajustada (R) é:
\[ R \sim \ln \mathcal{N}(\mu_R, \sigma_R^2) \tag{5}\]
- Se \(X_{obs}\) e \(X_{RCM}\) forem distribuídos de forma idêntica, então \(E[R] = 1, Var[R] = 0\), e nenhum reescalonamento será realizado. Se houver viés, \(Var[R]\) será diferente de zero e \(E[R]\) poderá diferir de 1. Assim, Yu et al. (2020) utilizaram essa razão para caracterizar e corrigir vieses de RCM na precipitação de junho a setembro:
\[ \tilde{X}_{RCM} = r X_{RCM} \tag{6}\]
onde, \(r\) é uma variável amostrada aleatoriamente de \(R\) e \(\hat{X}_{RCM}\) é a precipitação corrigida pelo viés.
Entretanto, Yu et al. (2020) concluem que a técnica de correção de viés estocástico, apesar de poder ajustar a precipitação em uma escala espaço-temporal específica, não implica que necessariamente corrigirá o viés em outras escalas e pode, de fato, exacerbá-lo. Os autores ainda afirmam que o viés dependente da escala é problemático para muitas aplicações hidrológicas, incluindo inundações, devido à complexidade das respostas hidrológicas aos processos de precipitação e escoamento a montante.
Tayşi e Özger (2021) combinaram técnicas de correção de viés e métodos estatísticos não paramétricos para gerar séries de precipitação de alta resolução a partir de dados diários ou horários de GCMs/RCMs. Utilizando o software CMhyd (Texas A&M University) e dados observados da Turkish State Meteorological Service (1980–2005) para calibração, os autores aplicaram uma versão aprimorada do modelo HYETOS para desagregar precipitação diária futura em escalas sub-horárias, com parâmetros derivados de 14 anos de registros horários mensais. Com base em quatro modelos climáticos globais (HadGEM2-ES, ICHEC-ECEARTH, IPSL-CM5A-MR e NorESM1-M) e nos cenários RCP4.5 e RCP8.5, foram estimadas curvas IDF futuras para os períodos 2036–2065 e 2066–2095, ajustadas pela distribuição de Gumbel com parâmetros obtidos pelo método dos momentos. Os resultados mostraram forte concordância entre as precipitações máximas observadas e as desagregadas, indicando que séries diárias podem ser desagregadas de forma confiável usando registros horários curtos. As projeções apontam aumento nas chuvas de longa duração para períodos de retorno de 10 anos e redução para 100 anos em quase todos os modelos, exceto o HadGEM2-ES.
Destaca-se que dois estudos de caso conduzidos por Lai et al. (2022), um voltado ao dimensionamento de pavimentos em Los Angeles e outro a projetos de drenagem pluvial em Nova York, avaliaram a sensibilidade dos resultados a diferentes escolhas metodológicas, incluindo versões do CMIP (5 e 6), tipos de downscaling (dinâmico e estatístico), cenários de emissão (RCP4.5 e RCP8.5) e técnicas de pós-processamento. Os autores observaram que o downscaling reduz substancialmente o viés dos modelos, sobretudo para temperatura, embora persistam incertezas relevantes para precipitação. Constatou-se ainda que as escolhas metodológicas influenciam significativamente parâmetros de projeto, como temperatura de pavimento e diâmetro de tubulações. Com base nesses resultados, os autores recomendam que a incorporação de projeções climáticas em obras de engenharia siga um processo estruturado e documentado, com avaliação crítica em cada etapa e uso de ensembles multimodelo para capturar a variabilidade e reduzir vieses de interpretação.
Em sua revisão, Kourtis e Tsihrintzis (2022) destacaram o papel central das técnicas de downscaling estatístico e correção de viés, especialmente o quantile mapping, bem como dos métodos de desagregação temporal, como cascatas multiplicativas, fragmentos e invariância de escala, na geração de séries sub-horárias necessárias à construção de curvas IDF. Os autores observaram que a maioria dos estudos adota o método de máximos anuais (AMS) e a distribuição GEV como principais abordagens para modelagem de extremos, embora o uso de modelos não estacionários, em que os parâmetros variam no tempo ou em função de covariáveis climáticas, venha crescendo, com calibração via inferência bayesiana ou máxima verossimilhança e seleção pelo critério de Akaike (AIC).
O estudo ressalta que a incerteza é o principal desafio na atualização das curvas IDF, resultando não apenas dos modelos climáticos e cenários de emissão, mas também das etapas de downscaling, correção de viés, desagregação e escolha da distribuição de probabilidade. Diferentes pesquisas buscam quantificá-la por meio de bootstrapping, inferência bayesiana e análises multimodelo. Os autores enfatizam o uso de conjuntos multi-modelo e multi-cenário como estratégia essencial para reduzir vieses e capturar a variabilidade entre simulações, além de recomendarem janelas móveis de 30 anos para estimativas mais robustas e a realização prévia de análises de tendência a fim de identificar componentes determinísticos antes do ajuste estatístico.
O efeito combinado da não estacionariedade e das mudanças climáticas nas IDFs futuras para o Canadá foram analisadas por Silva et al. (2021). O estudo utilizou dados de seis estações pluviométricas representando diferentes contextos climáticos (grandes lagos, regiões costeiras, pradarias e montanhosas) e projeções de 24 GCMs do CMIP5, corrigidas por viés via downscaling estatístico com o método BCCAQv2. Para gerar curvas IDF não estacionárias, os autores aplicaram o método \(EQM_{NS}\) (Equidistant Quantile Matching non-stationary), que integra modelagem estatística, correção de viés e reavaliação da não estacionariedade no período projetado, adotando a distribuição GEV em nove configurações (uma estacionária e oito não estacionárias), com parâmetros estimados por máxima verossimilhança. Os resultados indicaram ausência de um padrão espacial uniforme nas tendências de precipitação, com comportamento não estacionário significativo apenas na estação de Moncton. Em geral, as estimativas obtidas sob suposição estacionária subestimaram os valores derivados de modelos não estacionários, evidenciando a importância de incorporar a variabilidade temporal dos parâmetros nas projeções de precipitação extrema.
O método semi-parametric quantile mapping (SPQM) foi utilizado por Abdelmoaty e Papalexiou (2023) para corrigir os vieses das séries estudadas com objetivo de analisarem as projeções do CMIP6 com foco na Precipitação Máxima Anual (AMP). O SPQM é um processo em cinco etapas que remove a tendência linear das séries, ajusta uma distribuição GEV estacionária aos dados observados, mapeia os quantis projetados para essa GEV e, por fim, reinsere a tendência original. Essa abordagem garante a manutenção simultânea das tendências e das probabilidades empíricas após a correção de viés. A presença de não estacionariedade foi testada pelos testes de Mann-Kendall (tendências monotônicas) e KPSS (mudanças na variância), confirmando que o SPQM preserva essas características nas projeções. Em seguida, os autores ajustaram versões estacionárias e não estacionárias da distribuição GEV, estimando os parâmetros por máxima verossimilhança e selecionando os melhores modelos com base nos critérios AICC, BIC e Anderson–Darling. Para séries com parâmetros variando no tempo, os níveis de retorno não estacionários foram calculados de modo a avaliar como eventos que atualmente apresentam determinado período de retorno podem se tornar mais ou menos frequentes no futuro.
Modelos que Permitem Resolução da Convecção (CPMs)
Os processos físicos responsáveis pela formação e evolução das nuvens e da precipitação podem ser representados, com maior precisão, pelos modelos de convecção atmosférica. Diferentemente dos modelos climáticos convencionais, que parametrizam a convecção devido às limitações de resolução espacial, os Convection-Permitting Models (CPMs) resolvem explicitamente esses processos, o que permite capturar a variabilidade espacial e temporal das chuvas intensas de curta duração.
Esses modelos de alta resolução (CPMs) foram usados por Fosser et al. (2024) para investigar as mudanças futuras em extremos de precipitação horária sobre a região de estudo, comparando simulações de modelos regionais convencionais (RCMs). O estudo foi conduzido dentro do projeto CORDEX Flagship Pilot Study on Convective Phenomena (FPS Convection), utilizando um conjunto multimodelo composto por nove simulações CPM (com resolução entre 2,2 e 3 km) e seus respectivos RCMs acoplados (com resolução entre 12 e 25 km), todos forçados sob o cenário RCP8.5. Cada simulação cobriu períodos de 10 anos para o clima presente (1996–2005) e futuro (2090–2099), permitindo avaliar a resposta dos extremos de precipitação à intensificação das condições termodinâmicas em escala regional. Os autores aplicaram uma estratégia de reamostragem (bootstrap) para decompor as incertezas associadas às projeções de precipitação extrema. A incerteza total é obtida combinando todas as amostras geradas (9 modelos × 1000 reamostragens). Os resultados mostram que os CPMs reduzem substancialmente a contribuição da incerteza de modelo em comparação aos RCMs, tanto no clima presente, quanto nas projeções futuras. Em média, a contribuição da incerteza de modelo cai de aproximadamente 45% nos RCMs para 30% nos CPMs. Para eventos de alta intensidade (> 50 mm/h), essa proporção se reduz ainda mais, chegando a cerca de 20%. Por outro lado, a variabilidade natural representa uma parcela maior da incerteza total nos CPMs, especialmente para eventos extremos, o que indica que a física explícita da convecção melhora a consistência entre modelos, mas evidencia a influência do caos interno do sistema climático. Além disso, o estudo demonstra que os CPMs projetam um aumento de cerca de 29% na intensidade dos eventos de precipitação extrema de curta duração até o final do século, enquanto os RCMs projetam um aumento menor (24%).
No estudo de Yu et al. (2020), os CPMs foram avaliados em como podem melhorar a representação dos extremos de precipitação e apoiar análises não estacionárias de frequência de cheias. Os autores utilizaram o modelo WRF (Weather Research and Forecasting) configurado em resolução de 4 km, o que permite a representação explícita da convecção, sem necessidade de parametrização convectiva. Foram conduzidos dois experimentos: CTRL (2001–2013): representa o clima atual, forçado pelo reanálise ERA-Interim; PGW (2088–2100): representa um clima futuro sob cenário RCP8.5, usando o método de Pseudo Global Warming (PGW), no qual são adicionados aos campos de contorno os deltas de temperatura e umidade derivados de projeções do CMIP5. Os autores afirmam que essa abordagem mantém a coerência dinâmica entre os experimentos, permitindo isolar o efeito do aquecimento global sobre a convecção e os extremos de chuva (Yu, Wright, e Li 2020). Para ampliar a amostra de eventos extremos, foi usada a técnica Stochastic Storm Transposition (SST), que desloca espacial e temporalmente tempestades simuladas para gerar séries sintéticas longas de precipitação coerentes com a climatologia local. Essas séries foram usadas como entrada em um modelo hidrológico distribuído (WRF-Hydro), calibrado para bacias representativas dos Estados Unidos, permitindo a estimativa de picos de vazão sob diferentes condições climáticas.
Os resultados mostraram que usando saídas do RCM climático futuro observa-se um aumento extremo na precipitação tanto na escala de rede única, de 24 horas, quanto na escala de bacia hidrográfica, de 72 horas. Entretanto, os autores chegaram a conslusão de são necessárias mais simulações de RCM em escala decenal que permitam a convecção, utilizando diferentes modelos e forçantes, para melhorar nossa compreensão da variabilidade climática interna e do modelo e seus impactos, incluindo inundações, em escalas locais.
O uso de modelos de alta resolução permite análises detalhadas das mudanças na estatística dos extremos. Moustakis et al. (2021) investigam como um clima mais quente altera a estatística de extremos horários. Eles analisaram séries horárias de mais de 3.000 pluviômetros dos EUA e simulações do modelo WRF (cenário controle e pseudoaquecido RCP8.5) para avaliar o impacto do aquecimento global nos extremos horários de precipitação e nas curvas IDF. Os extremos (acima do p95) foram ajustados com distribuições Lomax e Weibull, avaliando mudanças nos parâmetros de forma e escala, além da sazonalidade e duração das tempestades. Os resultados indicam que, no cenário aquecido, o evento de 20 anos torna-se equivalente a um de ~7 anos em 75% dos EUA. Observou-se um padrão de intensificação regional: aumento das intensidades médias no Sul e Sudeste e maior peso de cauda, extremos mais raros e intensos, no Oeste e Atlântico Norte. As tempestades tendem a ser mais curtas e intensas, com menor sazonalidade, implicando maior risco para o dimensionamento hidráulico.
A tendência para modelos de maior resolução também é vista nos GCMs e RCMs de última geração. De Jong et al. (2023) investigaram as mudanças projetadas na precipitação extrema no nordeste dos EUA usando simulações de alta resolução do modelo climático global SPEAR (NOAA/GFDL), que integra componentes atmosféricos, oceânicos, terrestres e de gelo marinho. O estudo concentrou-se na versão SPEAR_HI (resolução de 25 km), capaz de representar processos convectivos e eventos intensos, como ciclones tropicais e rios atmosféricos, fundamentais para os extremos regionais. As simulações cobriram 1921–2100 sob os cenários SSP2-4.5 e SSP5-8.5, com ensembles de até 30 membros para capturar a variabilidade interna. A análise baseou-se em percentis superiores (P99 e P99.9) da precipitação diária para comparar o período histórico (1976–2005) e o futuro (2071–2100), estimando o aumento na intensidade e frequência dos eventos extremos e calculando o tempo de emergência (ToE), o ponto em que o sinal antropogênico supera a variabilidade natural. Os resultados mostraram que, sob SSP5-8.5, eventos acima de 150 mm/dia tornam-se até seis vezes mais frequentes até o fim do século, com o ToE entre 2041 e 2060; sob SSP2-4.5, o sinal emerge cerca de uma década depois. As taxas de intensificação variam entre 6% e 10% por grau Celsius, em concordância com a relação termodinâmica de Clausius–Clapeyron, confirmando o aumento expressivo dos extremos de precipitação em um clima mais quente.
A metodologia do estudo de Poschlod & Koh (2024) basearam-se na integração entre modelos climáticos de alta resolução com permissão explícita de convecção (CPMs) e modelos estatísticos de valores extremos, visando melhorar a regionalização dos quantis de precipitação extrema. Assim, o modelo WRF (Weather Research and Forecasting) foi utilizado em modo climático, com resolução de 1,5 km. Essa resolução permite a representação explícita dos processos convectivos, sem necessidade de parametrização, capturando com maior realismo os eventos de chuva intensa em regiões de topografia complexa. A simulação cobre 30 anos (1988–2017) e fornece variáveis climáticas de superfície e precipitação diária. A partir dessas simulações e das observações de 1.132 pluviômetros, os autores construíram três famílias de modelos espaciais de GEV para estimar os quantis.
O desenvolvimento e uso de CPMs para fins de modelgem de chuvas intensas e suas respectivas mudanças devido à mudança do clima ainda são bastante recentes, e existe um inteso esforço para melhor compreender suas potencialidades. Por exemplo, recentemente, Correa-Sánchez et al. (2025) apresentaram um estudo detalhado sobre a capacidade de tais modelos representarem os quantis de chuva para diversos tempos de recorrência na Itália para durações sub-diárias, empregando um total de 7 modelos e fazendo uso de observações em estações pluvográficas. Os resultados mostram que o desempenho de tais modelos melhora à medida que as durações variam de 1 h para 24 h, com tendência à subestimativa nas regiões mais baixas, e sobreestimativa nas regiões mias elevadas, especialmente para duraões curtas. O conjunto de modelos CPM utilizados, aparentemente, foi capaz de capturar os efeitos da orografia da região, porém com uma subestimação da taxa de variação da intensidade da chuva com o aumento da elevação.
Os estudos com CMPs na América do Sul são bastante incipientes até o momento. Salvo engano, as primeiras simulações de um CPM no continente sul-americano foram apresentadas em Halladay et al. (2023), onde é feita, entre outras coisas, uma comparação com a capacidade de representar chuvas intensas na Amazônia e no sudeste brasileiro, em comparação com as estimativas oriundas de modelos regionais tradicionais, com resolução espacial mais baixa. As avaliações apresentadas eram preliminares, e ainda não era possível entender muito bem o valor do seu uso naquele momento na definição de curvas IDF, embora seja racional pensar que o seu uso para esse fim no futuro pode ser bastante promissor. Apesar de ainda não haver um entendimento muito claro acerca do desempenho de tais modelos em representar chuvas intensas, Kahana et al. (2024) apresentam um estudo, baseado no mesmo modelo apresentado por Halladay et al. (2023), em que são apresentados os resultados de um prognóstico de mudanças na frequência e intensidade de precipitações na escala temporal de 3 horas. As avaliações são baseadas em 10 anos de simulação no clima presente e 10 anos no clima futuro (RCP8.5), próximo de 2100, e são focadas mais nas diferenças entre o CPM e os GCMs, muito embora o trabalho apresente comparações no clima presenete com dados provenientes de estações e dados de satélite.
Para finalizar a questão dos CPMs na América do Sul, vale notar o esforço coordenado que vem sendo realizado para realizar simulações com modelos regionais capazes de simular a convecção, de forma a responder um conjunto de perguntas científicas relacionadas aos recursos hídricos, incluindo aí a questão das possíveis mudanças de frequência e intensidade de chuvas intensas oriundas do aquecimento global. Esses esforços estão bem descritos e analisados em Dominguez et al. (2024). É possível que num futuro não muito distante, esses CPMs venham apresentar claramente benefícios em relação a modelos climáticos regioanais e venham a ser empregados tanto na definição de curvas IDF na região, como para compreender melhor as mudanças do comportamento de extremos de cuvas nas escalas subdiárias e sub-horárias.
Análise de Extremos Não Estacionários
A etapa final do processo é a análise de frequência dos extremos, que deve levar em conta a não estacionariedade. Esta abordagem modela os parâmetros da distribuição de valores extremos (EVD), como a localização \((\mu)\) ou escala \((\sigma)\), como funções que dependem de covariáveis que variam no tempo.Uma forma de incorporar a não-estacionariedade é detectar quebras estruturais na série temporal. Mo et al. (2019) propõem um arcabouço para atualizar a componente diária das curvas IDF quando a série apresenta não-estacionariedade. Eles constroem séries de extremos por máximos anuais (AM) ou picos-acima-do-limiar (POT) e aplicam um “sistema de diagnóstico de variação hidrológica” para detectar quebras estruturais. Uma vez identificada a quebra, a amostra é segmentada em conjuntos pré e pós-quebra, e os parâmetros das distribuições (GEV ou GPD) são estimados para cada regime, permitindo quantificar a deriva temporal. Papalexiou & Montanari (2019), em uma análise global de 8.730 registros diários, forneceram fortes evidências de não-estacionariedade, mostrando um aumento acentuado na frequência de extremos, o que justifica a necessidade desses métodos.
A partir de uma revisão metodológica Schlef et al. (2023) analisaram como incorporar a não estacionariedade decorrente das mudanças climáticas na estimativa de curvas IDF. Os autores classificaram as abordagens em duas categorias principais: (i) abordagem baseada em precipitação simulada (Simulated precipitation approach), que utiliza GCMs ou modelos regionais (RCMs), frequentemente com downscaling (estatístico ou dinâmico) e remoção de vieses; (ii) abordagem baseada em covariáveis (Covariate-based approach), que introduz a não estacionariedade explicitamente ao permitir que os parâmetros da distribuição (\(\mu\), \(\sigma\), \(\xi\)) variem com o tempo ou com covariáveis climáticas.
Finalmente, a não-estacionariedade também pode ser explorada através das propriedades estatísticas da precipitação. Martinez-Villalobos e Neelin (2023) atualizam a componente diária das curvas IDF partindo da forma estatística da precipitação em dias chuvosos, que é governada por uma escala característica de precipitação, \(P_L\). Eles decompõem a mudança futura em duas parcelas: a variação fracionária da escala e o ajuste associado ao expoente de cauda, mostrando que pequenas mudanças em \(P_L\) se traduzem em grandes mudanças nos quantis raros. De forma semelhante, De Luca et al. (2024) desenvolvem uma metodologia teórica para quantificar os efeitos das mudanças climáticas sobre os valores extremos, destacando o papel da assimetria das distribuições. O método se baseia no conceito de fator de mudança \(CF\), definido como a razão entre os quantis futuros e históricos, e utiliza as distribuições GEV e TCEV (Two-Component Extreme Value) para modelar o impacto climático sobre eventos ordinários e extremos raros.
Experiências Internacionais
Nas últimas duas décadas, um crescente corpo de estudos internacionais tem investigado os impactos das mudanças climáticas sobre eventos de precipitação extrema, visando compreender suas implicações para a engenharia de drenagem urbana e a necessária atualização das curvas Intensidade-Duração-Frequência (IDF). Pesquisas realizadas no Canadá (Simonovic, Schardong, e Sandink 2017; Nguyen e Nguyen 2020; Silva et al. 2021); Alemanha (Poschlod e Koh 2024); Estados Unidos (Yu, Wright, e Li 2020; Infanti et al. 2020); Índia (Upadhyay, Mohapatra, e Bhatia 2021); Itália (Napolitano et al. 2024) e Turquia (Tayşi e Özger 2021) revelam tendências de intensificação das chuvas extremas e alterações no regime pluviométrico, refletindo a influência do aquecimento global em diferentes escalas espaciais. Em nível continental, análises conduzidas na América do Norte (Cannon e Innocenti 2018) e América do Sul (ME, Balmaceda-Huarte, e Bettolli 2022) apontam variações significativas na frequência e magnitude dos extremos hidrometeorológicos. Em escala global (Zhang et al. 2013; Pendergrass e Hartmann 2014; Papalexiou e Montanari 2019), estudos demonstram que o aumento da temperatura média do planeta intensifica o ciclo hidrológico, promovendo maior variabilidade e intensidade das precipitações.
A complexidade de traduzir projeções climáticas de larga escala para estimativas de chuva localizadas exige uma cadeia metodológica robusta. Madsen et al. (2014) descrevem essa cadeia como uma sequência interligada de modelos: inicia-se com projeções de Modelos Climáticos Globais (GCMs), que são então refinadas por meio de downscaling (dinâmico ou estatístico) e correção de viés, para finalmente alimentar modelos hidrológicos que simulam a resposta em escala de bacia. Dado que a malha de um GCM (≈100–250 km) é inadequada para capturar extremos locais, o downscaling e a correção de viés são etapas indispensáveis. De forma complementar, Goly et al. (2013) propuseram uma estrutura metodológica abrangente para a Flórida (EUA), que não só aborda o downscaling de projeções futuras, mas também investiga a influência da variabilidade climática natural (como AMO e ENSO) nos extremos de precipitação, reconhecendo que as mudanças observadas são uma superposição de tendências de longo prazo e oscilações de baixa frequência.
Dentro dessa cadeia, a evolução das técnicas de pós-processamento tem sido crucial. No downscaling estatístico, o método delta change é um avanço fundamental para capturar alterações nos extremos. Em paralelo, a correção de viés evoluiu de simples ajustes de média para abordagens mais sofisticadas como o mapeamento quantil-a-quantil e correções baseadas em distribuições de probabilidade, que ajustam não só a intensidade, mas também o número de dias chuvosos. Uma vez refinadas as projeções de chuva através dessas técnicas, elas são usadas como entrada em uma variedade de modelos hidrológicos, desde conceituais agregados (como HBV e GR4J) até modelos distribuídos em grade (como LISFLOOD e MIKE SHE), para converter a precipitação em risco de inundação.
A evidência de alteração nos regimes de chuva, processada por essa cadeia de modelos, impõe a necessidade de abandonar a premissa de estacionariedade. Em uma análise global com 8.730 registros diários, Papalexiou & Montanari (2019) demonstraram, através de simulações de Monte Carlo, que as mudanças na frequência dos eventos extremos são muito mais significativas estatisticamente do que as mudanças em sua magnitude, reforçando a urgência de atualizar as práticas de engenharia. Diante dessa não-estacionariedade, Mo et al. (2019) propuseram um arcabouço prático para atualizar a componente diária das curvas IDF na China, que utiliza um sistema de diagnóstico para detectar pontos de mudança nas séries de precipitação e, a partir daí, derivar fatores de ajuste que incorporam a deriva temporal diretamente nas curvas históricas. Indo além da análise estatística, Martinez-Villalobos e Neelin (2023) conectaram essas mudanças a mecanismos físicos, mostrando que o aumento na frequência dos extremos está exponencialmente ligado a variações em uma escala característica da precipitação (\(P_L\)), oferecendo uma compreensão mais profunda do porquê os extremos estão se intensificando.A aplicação dessas metodologias resulta em alterações quantificáveis e expressivas. Os resultados para precipitação extrema na Europa, por exemplo, convergem para aumentos significativos: até ~30% em Bruxelas até 2100, incrementos de 30–50% para eventos diários de 50–100 anos na República Tcheca, e até a duplicação do evento de 100 anos em Copenhague. Contudo, para cheias de rios o quadro é mais heterogêneo; estudos pan-europeus com o modelo LISFLOOD confirmam aumentos nos níveis de retorno em grande parte da Europa ocidental, mas também decréscimos em setores do leste e do Báltico, refletindo a complexa interação entre o tipo de chuva, o tamanho da bacia e a influência do degelo.
A tradução desses resultados para a prática de engenharia se materializa nos “fatores climáticos” (climate factors), como documentado por Madsen et al. (2014). Vários países e regiões europeias já adotam fatores de correção percentuais sobre as estimativas de projeto. Para chuvas de projeto e drenagem urbana, por exemplo, a Bélgica aplica aumentos de até 30% nas intensidades; a Dinamarca recomenda acréscimos de +20%, +30% e +40% para os períodos de retorno de 2, 10 e 100 anos, respectivamente; e o Reino Unido orienta aumentar a chuva de pico em +10%, +20% e +30% para os horizontes de 2055, 2085 e 2115. Para cheias, os ajustes são igualmente explícitos: a Baviera (Alemanha) adiciona +15% à cheia de 100 anos, enquanto a Noruega recomenda fatores de até +40% dependendo da região e do porte da bacia.
Contudo, como destaca Martel et al. (2021), a variabilidade natural pode mascarar o sinal da mudança climática em séries locais por décadas, e a detecção estatística robusta pode não ocorrer antes de meados do século XXI. Portanto, a ausência de uma tendência observada hoje não implica ausência de risco futuro. A recomendação para projetistas é implementar fatores de adaptação e atualizações periódicas das curvas IDF mesmo quando a evidência local ainda é inconclusiva, priorizando a resiliência de ativos de longa vida útil. Esta abordagem proativa é confirmada por revisões sistemáticas como as de Kourtis e Tsihrintzis (2022) e Lai et al. (2022), que mostram um claro movimento do campo da engenharia de uma análise estacionária para uma que reconhece e quantifica os efeitos da não-estacionariedade climática, um passo fundamental para garantir a segurança da infraestrutura urbana futura.
A pesquisa de Xu et al. (2024) aborda esses desafios investigando as razões por trás das evidências do relatório climático do IPCC sobre a validade de que a precipitação segue a relação Clausius-Clapeyron (CC), que sugere um aumento de 7% na precipitação por 1°C de aumento na temperatura. Assim, foi Calculada as mudanças extremas de precipitação e fatores de escala para pequenas bacias hidrográficas urbanas em Barranquilla, Colômbia. Aplicou-se a equação adaptada de Martel et al. (2021) para projetar as intensidades futuras das chuvas nas curvas IDF:
\[ I_{fut,D,T} = I_{ref,D,T} \times F_T \times F_D \times \left( \frac{100 + R_{sc,24,2}}{100} \right)^{\Delta T} \tag{7}\]
onde \(I_{fut,D,T}\) representa a intensidade de chuva futura projetada para uma dada duração \(D\) e período de retorno \(T\). \(I_{ref,D,T}\) representa a intensidade de chuva do período de referência para a mesma duração \(D\) e período de retorno \(T\). \(F_T\) é o fator de ajuste para o período de retorno \(T\), onde \(F_T\) é igual ou maior que 1 para períodos de retorno superiores a 2 anos (\(T > 2\) anos).\(F_D\) é o fator de ajuste para durações menores que 24 h (\(D < 24\) horas), onde \(F_D\) é igual ou maior que1. \(R_{sc,24,2}\) representa o fator de escala de precipitação (%/°C) para o evento de precipitação com período de retorno de 24 h e 2 anos. \(ΔT\) representa a mudança projetada na temperatura média sazonal (em graus Celsius).
Os resultados foram comparados ao valor teórico de 7%/°C da relação de Clausius–Clapeyron e validados em uma cidade de clima temperado (Champaign, EUA). Os resultados mostraram que em Barranquilla houve uma relação sub-CC, ou seja, a taxa de aumento da precipitação extrema com a temperatura foi menor que 7%/°C.
Wasko et al. (2024) realizaram uma revisão sistemática da literatura sobre mudanças de chuva extrema relevantes à estimativa de cheias de projeto na Austrália. Os autores analisaram as publicações quanto à relação entre intensidade da precipitação e aumento de temperatura, adotando como base: (i) Quantificação da mudança extrema de chuva por grau de aquecimento global, considerando variação com duração, severidade (AEP) e localização; (ii) Uso do aquecimento médio global (terra + oceano) para compatibilizar com as projeções do IPCC; (iii) Para estudos de scaling chuva–temperatura, utilizou-se temperatura local como variável representativa do aquecimento; e (iv) Cada estudo foi ponderado por tipo (observacional, modelado), número de locais e robustez metodológica. Também foi analisado como os padrões temporais de tempestades mudam com a temperatura, aspecto fundamental para o formato das curvas IDF. Foram usadas duas abordagens: Método da variabilidade média (average variability method): mede como a fração da chuva em intervalos curtos varia com o aumento da temperatura e Modelagem estocástica: ajusta modelos geradores de chuva a dados históricos e aplica regressões com temperatura.
Dentre os resultados foi observado que os padrões temporais estão se tornando mais “front-loaded” (chuva concentrada no início) com temperaturas mais altas. Na revisão sistemática os autores observaram que há também um aumento na proporção de chuva caindo no período mais chuvoso da tempestade, levando a um aumento na intensidade dos picos (menor uniformidade) dos padrões temporais. A projeção até o fim do século (RCP8.5) indica aumento da fração de chuva de pico em cidades como Sydney e Brisbane. Os autores concluem que o aquecimento leva a chuvas mais intensas e concentradas, exigindo ajuste das curvas IDF e revisão das práticas de projeto.