Acessibilidade / Reportar erro

Previsões incertas

Uncertain predictions

Resumos

Neste trabalho estudamos a dificuldade de predizer a evolução temporal de um fenômeno, como uma pandemia ou uma epidemia, quando os dados são afetados por flutuações estatísticas, mesmo que conheçamos a função que rege tal evolução. As flutuações iniciais no processo provocam grandes incertezas dos parâmetros ajustados e na função extrapolada e, consequentemente, na previsão quantitativa da evolução de uma epidemia. Além das flutuações estatísticas, as covariâncias dos parâmetros ajustados contribuem para as incertezas e dúvidas sobre a evolução do fenômeno estudado. O problema é introduzido usando um fenômeno familiar aos estudantes de física.

Palavras-chave
Tratamento estatístico de dados; ajuste de parâmetros; variâncias e covariâncias; evolução de uma pandemia ou epidemia.


In this work, we study the difficulty of predicting the time evolution of a phenomenon, as a pandemic or an epidemic, when the data are affected by statistical fluctuation, even if we know the function governing the evolution of that phenomenon. The initial fluctuations in the process imply great uncertainties of the fitted parameters and in the extrapolated function and, consequently, in the quantitative forecast of the evolution of the pandemic. Besides the statistical fluctuations, covariances of the adjusted parameters contribute to the uncertainties and doubts about the evolution of the studied phenomenon. The discussed problem is introduced using a phenomenon familiar to physics students.

Keywords
Statistical treatment of data; parameter fitting; variances and covariances; pandemic and epidemic evolution


1. Introdução

Considere a seguinte situação. O resultado de um experimento que durou um dia inteiro usando um acelerador de partículas mostrou dois eventos correspondentes a um novo fenômeno. Suponha que para incorporar esse resultado em uma teoria, usá-lo em algum cálculo posterior ou planejar um novo experimento, seja necessária uma precisão da ordem de 10%. Eventos aleatórios, tais como aqueles previstos pela mecânica quântica, nos quais algo pode ocorrer, com dada probabilidade, ou não ocorrer, com probabilidade complementar, e há uma enorme quantidade de candidatos a dar origem a eles, obedecem a distribuições de Poisson. O desvio padrão de tais distribuições, desde que haja uma quantidade grande de dados, é aproximadamente igual à raiz quadrada do número de eventos observados, N.1 1 O desvio padrão do número de eventos observados em um processo que obedece a uma distribuição de Poisson, com média a, é a. Quando o número observado de eventos é suficientemente grande, o valor de a pode ser aproximado pelo próprio valor observado. A precisão relativa é, então, N/N e para obter aqueles 10% de precisão são necessários cerca de 100 eventos.

Quantos dias de uso do acelerador são necessários para obter 100 eventos? Como em um dia foram observados dois eventos, a resposta aparentemente óbvia é 50 dias. Mas aqueles dois eventos podem ter ocorrido por acaso, e o número médio de eventos por dia pode ser muito diferente de dois. Aqueles eventos podem corresponder a um fenômeno cujo número de eventos que ocorrem em média por dia naquele experimento seja, por exemplo, 0,5. Em um caso como esse, o número de eventos observados em um dia poderia ser zero (com 61% de chance), um (com 30% de chance), dois (8%), três (1%), etc. Ou seja, a probabilidade de obter dois eventos ou mais é da ordem de 9%, portanto não desprezível. Caso a média de eventos seja realmente 0,5, seriam necessários 200 dias de duração para obter aqueles 100 eventos.

Mas o número de eventos esperados por dia naquele experimento poderia ser bem maior do que dois. Por exemplo, se o número de eventos esperados for 5, a probabilidade de ocorrerem 2 eventos ou até menos é pouco mais do que 10%. Nesse caso, três semanas seriam suficientes para conseguir os desejados 100 eventos.

Enfim, há uma infinidade de valores médios possíveis para a ocorrência de eventos em um dia que podem ter dado origem aos dois eventos daquele experimento. Esse exemplo ilustra algumas dificuldades para se prever o que pode acontecer quando a observação inicial de um processo está sujeita a flutuações estatísticas: para obter os 100 eventos desejados, bastam três semanas, precisamos esperar 50 dias ou seriam necessários 200 dias?

Essa faixa de incerteza, alguma coisa entre três semanas e 200 dias, é muito significativa. Um experimento exige a disponibilidade de pessoas, provoca despesas com compra de materiais, exige esforços para operação do laboratório, entre muitas outras coisas. Além disso, o uso de um laboratório pode ter alta demanda por outros pesquisadores e grupos de pesquisa, sendo necessário convencer esses demais usuários a concordarem com a demanda, o que pode ser fácil se essa necessidade é de três semanas, mas muito mais difícil se é de 200 dias. Uma decisão errada – planejar um experimento para duzentos dias quando em duas semanas se consegue o resultado desejado – pode ter consequências desagradáveis, como ter impedido que outros utilizassem os equipamentos e provocar a arregimentação de pessoas sem necessidade, comprar materiais que não serão usados, etc.

Nesse exemplo, talvez o melhor caminho seja fazer inicialmente uma experiência com poucos dias de duração para obter uma melhor precisão do número médio de eventos por dia e, posteriormente, estimar com menor incerteza o número total de dias necessários para obter os 100 dados desejados.

A pandemia de COVID-19 fornece um exemplo prático e dramático de uma situação similar a essa, ou seja, estimar o que poderá ocorrer a partir de uma observação inicial. Considerando o que ocorreu nas primeiras semanas após o surgimento da doença em um país ou o início de um novo surto, é preciso estimar o que poderia ocorrer nos dias e nas semanas seguintes. Afinal, as decisões e o planejamento necessários para enfrentar e conter a doença dependem dessa informação.

Entretanto, ainda que possamos conhecer as equações básicas que descrevem a evolução de uma doença, as flutuações estatísticas iniciais no número de óbitos ou de novos casos não permitem obter resultados tão precisos quanto gostaríamos. E não há dúvidas que erros, para mais ou para menos, têm consequências graves, como hospitalizações, mortes, sofrimentos, mobilização de recursos da área de saúde (como profissionais, hospitais e insumos variados) retirados de outras necessidades da própria área ou de outros setores.

O caso da COVID-19 tem em comum com o exemplo do experimento com o acelerador de partículas a necessidade de se fazer previsão a partir de observações iniciais sujeitas a flutuações estatísticas. Veremos que essas dificuldades, mesmo quando as flutuações são apenas as estatísticas, não havendo outros efeitos que possam fazer variar a quantidade de dados observados, podem ser muito grandes, levando a também grandes incertezas nas previsões.

Como fazer previsões sobre a evolução de uma pandemia é fundamental, o assunto motivou muitos trabalhos acadêmicos no mundo todo. As referências [1E. Massad, M. Amaku, A. Wilder-Smith, P.C.C. Santos, C.J. Struchiner e F.A.B. Coutinho, Epidemiology & Infection 148, e109 (2020)., 2T. Rodrigues e O. Helene, Physical Review Research 2, 043381 (2020)., 3T. Tomé, M.J. Oliveira, Rev. Bras. de Ensino de Física 42, e20200259 (2020)., 4A.M. Batista, S.L.T. Souza, K.C. Iarosz, A.C.L. Almeida, J.D. Szezech Jr., E.C. Gabrick et al., Rev, Bras. Ensino de Física 43, e20210171 (2021)., 5L.P. Garcia, J. Traebert, A.C. Boing, G.F.Z. Santos, L.A. Pedebôs, E. d’Orsi, P.I. Prado, M.A.S.M. Veras, G. Boava, A.F. Boing, Rev. Bras. Epidemiol. 23, e200091 (2020)., 6M. Abbasi, A.L. Bollini, J.L.B. Castillo, A. Deppman, J.P. Guidio, P.T. Matuoka et al., Chaos, Solitons & Fractals 140, 110119 (2020).] correspondem a alguns dos muitos trabalhos desenvolvidos por cientistas brasileiros (em todos esses trabalhos, pelo menos um autor é físico), procurando colaborar com o enfrentamento das condições sanitárias provocadas pela COVID-19. A referência [1E. Massad, M. Amaku, A. Wilder-Smith, P.C.C. Santos, C.J. Struchiner e F.A.B. Coutinho, Epidemiology & Infection 148, e109 (2020).], fruto de um trabalho desenvolvido no período inicial da pandemia, tinha como motivação o estudo dos riscos de espalhamento da epidemia que surgira em uma cidade e sua transformação em uma pandemia. Esse estudo combinava duas abordagens diferentes do problema, uma adequada à exportação da doença, então localizada, e outra em sua dispersão em outra localidade. A referência [2T. Rodrigues e O. Helene, Physical Review Research 2, 043381 (2020).] adota uma função usada para descrever a evolução de uma série temporal, em particular, uma epidemia, ajustando empiricamente alguns parâmetros. Essa função, conhecida por função de Gompertz, em homenagem àquele que primeiro a propôs, descreve um fenômeno que aumenta de intensidade, perdura por algum tempo e começa a desaparecer, reproduz bem o que ocorre em cada um dos vários surtos de uma epidemia, como a COVID-19. Explicações didáticas para a evolução de uma epidemia aparecem nas referências [3T. Tomé, M.J. Oliveira, Rev. Bras. de Ensino de Física 42, e20200259 (2020)., 4A.M. Batista, S.L.T. Souza, K.C. Iarosz, A.C.L. Almeida, J.D. Szezech Jr., E.C. Gabrick et al., Rev, Bras. Ensino de Física 43, e20210171 (2021).]. Nesses trabalhos, a população é dividida em quatro grupos, pessoas susceptíveis, infecciosas, recuperadas e infectadas que não transmitem a doença. Esses trabalhos exploram modelos diferentes que relacionam, por meio de equações diferenciais, a quantidade de pessoas em cada um desses grupos, cada um dos modelos correspondendo a um tipo diferente de mecanismo de propagação da doença. A referência [5L.P. Garcia, J. Traebert, A.C. Boing, G.F.Z. Santos, L.A. Pedebôs, E. d’Orsi, P.I. Prado, M.A.S.M. Veras, G. Boava, A.F. Boing, Rev. Bras. Epidemiol. 23, e200091 (2020).] é um trabalho desenvolvido por um grupo de pesquisadores que têm como objetivo gerar informações relevantes para a tomada de decisões por parte das pessoas e dos organismos responsáveis pelo controle da propagação de uma doença. Finalmente, a referência [6M. Abbasi, A.L. Bollini, J.L.B. Castillo, A. Deppman, J.P. Guidio, P.T. Matuoka et al., Chaos, Solitons & Fractals 140, 110119 (2020).] encontra uma característica fractal na propagação da epidemia de COVID-19. Tal característica permite descrever a dispersão da doença bem como sua evolução no tempo.

Esse breve resumo de algumas das maneiras de se abordar o estudo de um fenômeno que evolui com o tempo está longe de esgotar todas as possibilidades ou todas as contribuições que cientistas têm oferecido para o entendimento dos processos, mecanismos e evolução de uma epidemia ou uma pandemia. Ele apenas ilustra algumas das possibilidades para se atacar o problema.

Para estudar as dificuldades de se fazer uma previsão do que poderá acontecer no futuro a partir de observações iniciais da evolução de uma epidemia ou uma pandemia, vamos fazer uma simulação de uma situação que imita a realidade, reproduzindo suas características aleatórias. A partir do conhecimento dos primeiros dados gerados nessa simulação, vamos estimar o que poderia acontecer. Comparando o que foi estimado com o que de fato ocorreu – afinal é uma simulação e podemos saber seu resultado –, veremos as dificuldades que podem ocorrer em casos reais.

A forma funcional adotada neste trabalho para descrever o surgimento e o desaparecimento de uma epidemia (ou pandemia), uma função gaussiana, tem as mesmas características descritas por uma função de Gompertz. A diferença mais significativa entre as duas formas matemáticas talvez seja o fato que, no caso da gaussiana, a escala de tempo de surgimento da doença e seu desaparecimento são iguais, o que não ocorre com a função de Gompertz. Apesar dessa similaridade entre as duas funções, este trabalho não deve ser interpretado como uma proposta de modelo epidemiológico. Ademais, os ajustes apresentados na referência [2T. Rodrigues e O. Helene, Physical Review Research 2, 043381 (2020).] utilizam os dados de óbitos em alguns países, ao invés dos dados de casos confirmados. Por causa disso, há a necessidade de se fazer uma convolução das curvas Gompertz, que estimam as distribuições dos infectados ao longo do tempo, com os intervalos temporais relativos ao período de incubação e ao período do início dos sintomas até o óbito [2T. Rodrigues e O. Helene, Physical Review Research 2, 043381 (2020).], procedimento que não foi realizado no presente trabalho.

Dessa forma, a contribuição proposta neste artigo não visa interpretar quantitativamente a evolução temporal de uma pandemia, tal qual a COVID-19, e sim expor as dificuldades estatísticas em se fazer previsões a partir de um conhecimento muito limitado das condições iniciais do problema, mesmo considerando-se o caso no qual se conhece a função que deu origem aos dados. Essas dificuldades se refletem não apenas na incerteza dos parâmetros ajustados, mas também na correlação entre eles. De fato, verifica-se que mesmo nos modelos epidemiológicos bastante sofisticados e com características bem realistas, as previsões quantitativas ainda continuarão dependendo significativamente do conhecimento satisfatório dos parâmetros relevantes.

2. Simulações

Nesta seção, vamos descrever a simulação da evolução de uma doença supondo conhecidas as leis que a regem. Para facilitar a análise, vamos escolher regras bem simples. Na seção seguinte, vamos considerar os resultados observados nos primeiros dias e estimar a evolução dessa doença, ou seja, estimar quão intensa ela será quando atingir a pior situação, em que momento isso ocorrerá e quanto tempo ela irá durar.

Na simulação vamos supor que a quantidade de pessoas que adquirem a doença a cada dia aumenta gradativamente com o tempo, atingindo um máximo. A partir daí, essa quantidade de novos casos começa a ser reduzida, até que a doença desapareça. Vamos supor que a forma da função que descreve essa situação seja uma distribuição normal (ou gaussiana),

(1) n ( t ) = A 2 π σ e - ( t - t 0 ) 2 2 σ 2 .

Nessa equação n(t) é o número de novos casos no dia t, A é o número total de pessoas que foram contaminadas durante todo o tempo em que a doença se manifestou, t 0 é o instante em que que ocorre o maior número de casos e σ um fator que descreve a forma com que as novas contaminações aumentam durante o estabelecimento e diminuem até o desaparecimento da doença.

A distribuição descrita pela Equação (1) foi usada para gerar dados que imitam uma situação real. A simulação foi feita usando-se a técnica de sorteio aleatório para determinar a quantidade de novos casos a cada dia. Ou seja, a Equação (1), calculada no tempo t, corresponde ao número esperado de casos em um determinado dia; conhecendo esse valor, é gerado um número aleatório com média igual ao número esperado de casos. Esse número aleatório obedece a uma distribuição de Poisson, tipo de distribuição que descreve eventos que podem ocorrer ou não (no caso, adquirir ou não a doença), são exclusivos (não há possibilidade de as duas hipóteses ocorreram simultaneamente), a probabilidade de ocorrência com uma pessoa em um dia é extremamente pequena (uma pequeníssima fração das pessoas de uma população adoece em um dia determinado) e a quantidade de pessoas que podem ou não adoecer, ou seja, a população total susceptível, é muito grande.

Esse método de simular uma situação real a partir de um modelo é conhecido pelo nome de Método de Monte Carlo [7F.J. Dellajustina e L.C. Martins, Rev. Bras. Ens. Fís. 36, 1 (2014)., 8https://pdg.lbl.gov/2021/reviews/contents_sports.html.
https://pdg.lbl.gov/2021/reviews/content...
] e permite resolver um problema determinístico como, também, mostrar como seria o comportamento médio de um fenômeno e qual será sua variação aleatória, caso típico do exemplo aqui desenvolvido.

Vamos usar o resultado dessa simulação correspondente aos primeiros dias e, a partir dele, prever como essa doença evoluirá, ignorando-se, claro, os valores dos parâmetros usados na simulação.

3. Fazendo Previsões

Considere a seguinte situação, resultado de uma simulação com base na função da Equação (1) com t 0 = 82,45 d, σ = 12,94 d e A = 19800. Um primeiro caso da doença surge no 27° dia; no 30° dia surge um segundo caso; mais um caso no dia 33 e assim sucessivamente. A quantidade de novos casos a cada dia está mostrada no Apêndice.

O número de casos – nulo antes do 27° dia – cresce com o tempo, atinge um máximo e começa a decrescer, como apresentado na Figura 1. A questão é prever o que vai acontecer após um determinado dia a partir do que ocorreu até aquele dia, ou seja, fazer estimativas da evolução desse fenômeno. Vamos, portanto, estimar o número total de casos, A, em qual dia o número de novos casos deverá ser maior (o pico da infecção), t0, e quanto tempo levará para a doença se instalar, atingir esse máximo e começar a ser reduzida (característica associada ao parâmetro σ).

Figura 1:
Círculos e pontos: resultados da simulação de uma doença. Os dados representados pelos círculos foram os usados para ajustar os parâmetros de uma curva gaussiana correspondente à linha contínua. O pequeno gráfico inserido mostra detalhes até o dia 60.

As estimativas serão feitas a partir do que vimos acontecer até o 60° dia, ignorando, evidentemente, os valores dos parâmetros t 0, σ e A usados na simulação. Para fazer as estimativas, vamos realizar um ajuste dos parâmetros da função da Equação (1) usando o método dos mínimos quadrados [9O. Helene, Método dos Mínimos: Quadrados com formalismo matricial (Livraria da Física, São Paulo, 2012), 2ª ed.] e considerando os dados disponíveis até o 60° dia.

Os parâmetros ajustados aos dados disponíveis até o 60° dia foram 115 para o dia no qual a curva atingiria seu máximo (t0), cerca de 600 mil para o número total de casos (A ) e 18 dias para o valor do parâmetro σ. Na Figura 1, são mostrados os dados usados no ajuste (representados pelos círculos), a quantidade de casos nos dias subsequentes ao 60° dia obtidos na simulação (e não usados no ajuste) e a curva calculada com os parâmetros ajustados.

É necessário observar que o método dos mínimos quadrados tem suas propriedades ótimas (como não tendenciosidade e mínima variância) quando as relações entre os parâmetros a serem ajustados e os dados experimentais são lineares. Essas propriedades também são razoavelmente satisfeitas quando aquelas relações são aproximadamente lineares em uma região de alguns desvios padrões em torno dos valores dos parâmetros ajustados, o que não é o caso quando temos poucos dados. Essa não linearidade implica não apenas em problemas com os valores estimados como com as estimativas das variâncias e covariância.

Neste exemplo, o ajuste levou a uma enorme superestimação da quantidade total de casos, cerca de 600 mil contra o valor usado na simulação de 19,8 mil. No caso de uma epidemia, essa superestimação teria consequências importantes, pois é a partir dela que são definidos os recursos materiais e humanos e as providências para controlar sua propagação.

Assim como houve superestimação no número total de casos, poderia ter havido subestimação. E ambos os casos, subestimação e superestimação, podem ter consequências graves.

4. Aumento do Número de Dias Usados no Ajuste Melhora a Qualidade da Estimativa

Na medida em que novas informações são adicionadas, ou seja, o número de dias observados de ocorrência da doença aumenta, as previsões do que poderá ocorrer no futuro ficam cada vez mais precisas, como ilustrado a seguir. Isso, claro, desde que conheçamos as equações que regem o fenômeno, o que pode não ocorrer em uma situação real.

Com base nos mesmos dados simulados, foram ajustados os parâmetros da função que descreve a evolução da doença, considerando o ocorrido até o 65° dia e, posteriormente, até os 70°, 80° e 120° dias. Os resultados aparecem na Tabela 1. Quando são considerados os dados até o 65º dia, as incertezas das estimativas são muito grandes, em especial da quantidade total de casos: um valor entre 15 mil e 57 mil, se considerarmos apenas um desvio padrão. Na medida em que mais dias são considerados, melhores se tornam as previsões.

Tabela 1:
Valores médios e desvios padrões obtidos2 2 Quando o primeiro algarismo não nulo da incerteza é 4 ou menor, foram preservados dois algarismos significativos; nos demais casos, apenas um. A razão disso é que os algarismos seguintes não têm qualquer significado prático. quando são considerados os dados dos primeiros 65, 70, 80 e 120 dias. Na medida em que mais dados são incluídos no ajuste, mais próximas ficam as estimativas dos valores usados na simulação (t0 = 82,45 d, σ = 12,94 d e A = 19800) e menores ficam os desvios padrões portanto, melhores as previsões.

A Figura 2 ilustra, de outra forma, as incertezas nas previsões. Essa figura corresponde a uma nova simulação feita com os mesmos parâmetros, sendo que estes foram ajustados considerando o ocorrido até o 60° dia. Por ser uma nova simulação, os dados gerados são diferentes dos dados da simulação anterior e, portanto, o resultado do ajuste também é diferente. A linha central da figura corresponde aos valores extrapolados usando-se os parâmetros ajustados da função. As curvas inferior e superior são os limites de um desvio padrão para menos e um desvio padrão para mais dos valores extrapolados, respectivamente. Note que não apenas há uma grande incerteza no dia em que ocorreria a maior quantidade de casos – um pouco além do 70° dia quando consideramos a curva inferior e um pouco antes do 90° dia, se consideramos a curva superior –, como a epidemia poderia já ter acabado perto do 85° dia, ou ter atingido cerca de 12 mil casos nesse mesmo dia.

Figura 2:
Linha central: função ajustada considerando apenas os dados até o 60° dia. As linhas superior e inferior correspondem à função ajustada mais um desvio padrão e menos um desvio padrão, respectivamente.

Vale a pena notar que, na Figura 2, a linha correspondente à função ajustada menos um desvio padrão pode ficar negativa. Como a grandeza, número da casos, não pode ser negativa, a linha foi truncada em zero. Entretanto, é necessário observar que, embora não aceitável logicamente, os valores negativos devem ser preservados para garantir as propriedades estatísticas das estimativas.

5. Variâncias e Covariâncias

Além do fato de as incertezas diminuírem na medida em que mais dias são considerados no ajuste, a matriz de covariância também muda significativamente.

Quando dados de muitos dias são considerados, não apenas os desvios padrões são reduzidos; o mesmo ocorre com o valor absoluto dos coeficientes de correlação entre os parâmetros. (Lembre-se que coeficiente de correlação entre duas grandezas é a razão entre a covariância entre essas duas grandezas dividida pelos respectivos desvios padrões.)

Quanto menos dados são usados no ajuste, mais significativas são as correlações. Quando os primeiros 65 dias são usados, a matriz dos coeficientes de correlação dos valores ajustados dos parâmetros t o, A e σ é, aproximadamente,

[ 1 0 , 997 0 , 992 0 , 997 1 0 , 980 0 , 992 0 , 980 1 ]

indicando fortíssimas correlações entre os parâmetros. Quando são usados os dados até o 80° dia, a matriz de correlação estimada é

[ 1 0 , 981 0 , 953 0 , 981 1 0 , 926 0 , 953 0 , 926 1 ] ,

ainda com valores bastante significativos dos coeficientes de correlação.

Coeficientes de correlação assim tão próximos de 1,0 (coeficientes de correlação só podem variar entre −1 e +1) mostram que uma subestimativa (ou superestimativa) de um parâmetro implica em grande probabilidade de haver também uma subestimativa (ou superestimativa) do outro parâmetro. Caso o coeficiente de correlação entre dois parâmetros fosse próximo a −1, a subestimativa (ou superestimativa) de um parâmetro implica em grande probabilidade de haver uma superestimativa (ou subestimativa) do outro parâmetro.

Para ilustrar essa interpretação do coeficiente de correlação, foram feitas 1.000 simulações da evolução da epidemia, usando-se o mesmo modelo da Equação (1) e com os mesmos parâmetros. Para cada uma dessas simulações foram ajustados valores dos parâmetros considerando-se o que ocorreu nos primeiros cem dias. Os valores ajustados dos parâmetros aparecem representados na Figura 3. Os círculos representam, em uma perspectiva tridimensional de uma figura com três eixos ortogonais, os valores dos parâmetros ajustados. Os pontos mostram projeções nos três planos definidos pelos três pares de parâmetros.

Figura 3:
Valores dos parâmetros ajustados em 1.000 simulações com os mesmos parâmetros, quando são usados no ajuste dados dos primeiros cem dias. Os círculos apresentam os resultados em uma perspectiva tridimensional e os pontos são projeções nos três planos definidos pelos parâmetros.

Esse exemplo ilustra que as dificuldades que encontramos ao estimar parâmetros não estão apenas nas incertezas dos valores ajustados, mas, também, nos valores dos coeficientes de correlação, como pode ser percebido na Figura 3. Por exemplo, um valor ajustado do dia de maior incidência mais elevado está associado a um valor também mais elevado do número total de casos (o coeficiente de correlação é positivo). Os mesmos tipos de comportamento ocorrem com os outros dois pares de parâmetros, sempre indicando, neste exemplo, correlações positivas.

É importante observar que quanto menor a quantidade de dados usados no ajuste, maiores os coeficientes de correlação, como já afirmado. Eles atingem ou mesmo superam o valor 0,99 quando são considerados menos do que os primeiros 70 dias. Por outro lado, na medida em que mais dias são considerados, menores são, em termos absolutos, os coeficientes de correlação. No caso de ajustes considerando-se os primeiros cem dias, os coeficientes de correlação estão na faixa entre 0,3 e 0,5.

No caso de uma epidemia cuja quantidade de casos a cada dia obedece a uma função como a da Equação (1), as enormes correlações entre os parâmetros ajustados significam que se errarmos para mais o dia do máximo, t0, provavelmente erraremos para mais o desvio padrão e o número total de casos.

6. Discussão

Este trabalho ilustra as dificuldades que encontramos para fazer previsões da evolução de um processo considerando os casos observados em seu início, mesmo quando se conhece a forma funcional que descreve o processo (gaussianas, nos exemplos explorados) e as flutuações são apenas de caráter estatístico. Essas dificuldades dizem respeito tanto aos valores ajustados dos parâmetros como a suas incertezas e aos coeficientes de correlação entre eles.

Em uma epidemia real, a situação é muito mais complexa, pois a forma funcional que descreve a evolução da doença pode não ser conhecida e as flutuações podem ser muito diferentes das meramente estatísticas, por causa de falhas nos sistemas de notificação, de variações ao longo de tempo dos rigores (ou falta de rigores) de quarentenas, confinamentos, cuidados farmacológicos e não farmacológicos (uso de proteções pessoais, como máscaras, ou cuidados sanitários, como arejamento de ambientes, limpeza frequente das mãos, etc.), mutações do agente patológico, entre muitas outras causas.

Esses fatores explicam as razões pelas quais, em uma epidemia ou uma pandemia, tentativas de previsões esbarram em enormes dificuldades e estas obrigam os países a reajustar com frequência as limitações impostas à população bem como a alocação de recursos necessários (equipamentos, medicamentos, profissionais, etc.) para enfrentá-la, bem como acompanhar detalhadamente a evolução da doença.

Referênces

  • E. Massad, M. Amaku, A. Wilder-Smith, P.C.C. Santos, C.J. Struchiner e F.A.B. Coutinho, Epidemiology & Infection 148, e109 (2020).
  • T. Rodrigues e O. Helene, Physical Review Research 2, 043381 (2020).
  • T. Tomé, M.J. Oliveira, Rev. Bras. de Ensino de Física 42, e20200259 (2020).
  • A.M. Batista, S.L.T. Souza, K.C. Iarosz, A.C.L. Almeida, J.D. Szezech Jr., E.C. Gabrick et al., Rev, Bras. Ensino de Física 43, e20210171 (2021).
  • L.P. Garcia, J. Traebert, A.C. Boing, G.F.Z. Santos, L.A. Pedebôs, E. d’Orsi, P.I. Prado, M.A.S.M. Veras, G. Boava, A.F. Boing, Rev. Bras. Epidemiol. 23, e200091 (2020).
  • M. Abbasi, A.L. Bollini, J.L.B. Castillo, A. Deppman, J.P. Guidio, P.T. Matuoka et al., Chaos, Solitons & Fractals 140, 110119 (2020).
  • F.J. Dellajustina e L.C. Martins, Rev. Bras. Ens. Fís. 36, 1 (2014).
  • https://pdg.lbl.gov/2021/reviews/contents_sports.html
    » https://pdg.lbl.gov/2021/reviews/contents_sports.html
  • O. Helene, Método dos Mínimos: Quadrados com formalismo matricial (Livraria da Física, São Paulo, 2012), 2ª ed.
  • 1
    O desvio padrão do número de eventos observados em um processo que obedece a uma distribuição de Poisson, com média a, é a. Quando o número observado de eventos é suficientemente grande, o valor de a pode ser aproximado pelo próprio valor observado.
  • 2
    Quando o primeiro algarismo não nulo da incerteza é 4 ou menor, foram preservados dois algarismos significativos; nos demais casos, apenas um. A razão disso é que os algarismos seguintes não têm qualquer significado prático.

Datas de Publicação

  • Publicação nesta coleção
    27 Out 2021
  • Data do Fascículo
    2021

Histórico

  • Recebido
    23 Ago 2021
  • Revisado
    27 Set 2021
  • Aceito
    28 Set 2021
Sociedade Brasileira de Física Caixa Postal 66328, 05389-970 São Paulo SP - Brazil - São Paulo - SP - Brazil
E-mail: marcio@sbfisica.org.br