Brownstone » Diário Brownstone » Filosofia » A plausibilidade, mas não a ciência, dominou as discussões públicas sobre a pandemia de Covid
plausibilidade não ciência

A plausibilidade, mas não a ciência, dominou as discussões públicas sobre a pandemia de Covid

COMPARTILHAR | IMPRIMIR | O EMAIL

“Ataques contra mim, francamente, são ataques contra ciência.” ~ Anthony Fauci, 9 de junho de 2021 (MSNBC).

Absurdo.

Por um lado, o Dr. Fauci não relatou com precisão questões científicas durante a pandemia de Covid-19. Para outro, a dialética essencial da ciência é argumentar, questionar, debater. Sem debate, a ciência nada mais é do que propaganda. 

No entanto, pode-se perguntar, como foi possível apresentar material técnico ao público americano, se não ao público internacional, por quase três anos e chegar a um entendimento geral de que os assuntos eram “científicos”, quando na verdade não eram? ? Afirmo que o que foi fornecido a esse público por meio da mídia tradicional ao longo da pandemia foi em grande parte plausível, mas não ciência, e que tanto o público americano quanto o internacional, bem como a maioria dos médicos e os próprios cientistas, não podem dizer A diferença. No entanto, a diferença é fundamental e profunda.

A ciência começa com teorias, hipóteses, que têm ramificações empíricas passíveis de exame. No entanto, essas teorias não são ciência; elas motivar Ciência. A ciência ocorre quando os indivíduos fazem experimentos ou observações que se relacionam com as implicações ou ramificações das teorias. Essas descobertas tendem a apoiar ou refutar as teorias, que são então modificadas ou atualizadas para se ajustar às novas observações ou descartadas se evidências convincentes mostrarem que elas falham em descrever a natureza. O ciclo é então repetido. Ciência é a realização de trabalho empírico ou observacional para obter evidências que confirmem ou refutem teorias.

Em geral, as teorias tendem a ser declarações plausíveis que descrevem algo específico sobre como a natureza opera. A plausibilidade está nos olhos de quem vê, uma vez que o que é plausível para um especialista com conhecimento técnico pode não ser plausível para um leigo. Por exemplo - talvez simplificado demais - o heliocentrismo não era plausível antes de Nicolau Copérnico publicar sua teoria em 1543, e não era particularmente plausível depois por algum tempo, até que Johannes Kepler entendeu que as medições astronômicas feitas por Tycho Brahe sugeriam refinar as órbitas circulares copernicanas para elipses. , bem como que as regras matemáticas pareciam governar os movimentos planetários ao longo dessas elipses - ainda que as razões para essas regras matemáticas, mesmo que fossem boas descrições dos movimentos, não eram plausíveis até que Isaac Newton em 1687 postulou a existência de um universo gravitacional força entre as massas, juntamente com uma lei de distância proporcional à massa e inverso do quadrado que governa a magnitude da atração gravitacional, e observou numerosos fenômenos quantitativos consistentes e que apóiam essa teoria.

Para nós hoje, dificilmente pensamos sobre a plausibilidade das órbitas elípticas heliocêntricas do sistema solar, porque os dados observacionais de 335 anos têm sido altamente consistentes com essa teoria. Mas podemos hesitar em pensar que é plausível que a luz viaje simultaneamente como partículas e ondas, e que fazer medições na luz, o que fazemos como observadores, determina se vemos o comportamento das partículas ou das ondas, e podemos optar por observar as partículas ou ondas, mas não os dois ao mesmo tempo. A natureza não é necessariamente plausível.

Mesmo assim, as teorias plausíveis são fáceis de acreditar, e esse é o problema. É com isso que nos alimentamos há quase três anos da pandemia de Covid-19. Na verdade, porém, fomos alimentados com plausibilidade em vez de ciência por muito mais tempo.

Mantenha-se informado com o Instituto Brownstone

Ciência do culto à carga

Charlatães que pretendem entortar colheres com suas mentes, ou alegam estudar “percepção extra-sensorial” inconfirmável e irreplicável, eram muito populares nas décadas de 1960 e 1970. Crenças estranhas no que a “ciência” poderia estabelecer atingiram tal nível que o Prêmio Nobel de Física Richard Feynman fez o discurso de formatura do Caltech em 1974 (Feynman, 1974) lamentando tais crenças irracionais. Suas observações não foram dirigidas ao público em geral, mas aos alunos de graduação do Caltech, muitos dos quais estavam destinados a se tornarem cientistas acadêmicos.

Em seu discurso, Feynman descreveu como os ilhéus do Mar do Sul, após a Segunda Guerra Mundial, imitaram os soldados americanos estacionados lá durante a guerra que guiaram o desembarque de suprimentos de aviões. Os residentes da ilha, usando materiais locais, reproduziram a forma e os comportamentos do que haviam testemunhado dos soldados americanos, mas nenhum suprimento chegou.

Em nosso contexto, o argumento de Feynman seria que, até que uma teoria tenha evidências empíricas objetivas, ela permanece apenas uma teoria, não importa o quão plausível possa parecer para todos que a consideram. Os ilhéus estavam perdendo o fato crucial de que não entendiam como o sistema de abastecimento funcionava, apesar de quão plausível era a reprodução dele para eles. Que Feynman se sentiu compelido a alertar os alunos de graduação do Caltech sobre a diferença entre plausibilidade e ciência, sugerindo que essa diferença não foi adequadamente aprendida em suas educações no Instituto. Não foi explicitamente ensinado quando este autor era aluno de graduação naqueles anos, mas, de alguma forma, esperávamos que o tivéssemos aprendido “por osmose”.

Medicina baseada em evidências

Talvez não haja maior plausibilidade hoje do que “Medicina baseada em evidências” (EBM). Este termo foi cunhado por Gordon Guyatt em 1990, depois que sua primeira tentativa, “Medicina Científica”, não obteve aceitação no ano anterior. Como epidemiologista universitário em 1991, fui insultado pela arrogância e ignorância no uso desse termo, EBM, como se as evidências médicas fossem de alguma forma “não científicas” até proclamar uma nova disciplina com novas regras para evidências. Não fui o único a criticar a EBM (Sackett et al., 1996), embora grande parte dessa resposta negativa pareça ter sido baseada na perda do controle narrativo, e não na revisão objetiva do que a pesquisa médica realmente realizou sem a “EBM”.

O conhecimento médico ocidental se acumulou por milhares de anos. Na Bíblia Hebraica (Êxodo 21:19), “Quando duas partes brigam e uma fere a outra… eficácia inerente. Hipócrates, no quinto-quarto século aC, sugeriu que o desenvolvimento da doença pode não ser aleatório, mas relacionado a exposições do ambiente ou a certos comportamentos. Naquela época, havia muito do que hoje consideramos contra-exemplos para a boa prática médica. No entanto, foi um começo, para pensar em evidências racionais para o conhecimento médico.

James Lind (1716-1794) defendeu a proteção contra o escorbuto através da ingestão de frutas cítricas. Esse tratamento era conhecido dos antigos e, em particular, havia sido recomendado anteriormente pelo cirurgião militar inglês John Woodall (1570-1643) - mas Woodall foi ignorado. Lind recebe o crédito porque em 1747 ele realizou um pequeno, mas bem-sucedido, ensaio não randomizado e controlado de laranjas e limões versus outras substâncias entre 12 pacientes com escorbuto.

Durante o século XIX, o uso da varíola bovina por Edward Jenner como vacina contra a varíola foi elaborado por cultivo em outros animais e colocado em uso geral em surtos, de modo que, na época do caso da Suprema Corte de 1800, Jacobson v. Massachusetts, o Chief Justice poderia afirmar que a vacinação contra a varíola foi aceita pelas autoridades médicas como um procedimento comumente aceito. As revistas médicas começaram a publicar regularmente também em 1800. Por exemplo, o Lanceta começou a publicar em 1824. O conhecimento médico agregado começou a ser compartilhado e debatido de forma mais geral e ampla.

Avanço rápido para os anos 1900. Em 1914-15, Joseph Goldberger (1915) realizou um estudo não randomizado de intervenção dietética que concluiu que a pelagra era causada pela falta de niacina na dieta. Na década de 1920, foram desenvolvidas vacinas para difteria, coqueluche, tuberculose e tétano. A insulina foi extraída. Vitaminas, incluindo a vitamina D para prevenir o raquitismo, foram desenvolvidas. Na década de 1930, os antibióticos começaram a ser criados e usados ​​de forma eficaz. Na década de 1940, o paracetamol foi desenvolvido, assim como as quimioterapias, e o estrogênio conjugado começou a ser usado para tratar as ondas de calor da menopausa. Novos medicamentos eficazes, vacinas e dispositivos médicos cresceram exponencialmente em número nas décadas de 1950 e 1960. Tudo sem EBM.

Em 1996, respondendo às críticas da EBM, David Sackett et al. (1996) tentou explicar seus princípios gerais. Sackett afirmou que a MBE decorre de “bons médicos usam tanto a experiência clínica individual quanto a melhor evidência externa disponível”. Esta é uma implicação de plausibilidade anódina, mas ambos os componentes estão basicamente errados ou pelo menos enganosos. Ao formular essa definição em termos do que os médicos individuais deveriam fazer, Sackett estava sugerindo que os profissionais individuais deveriam usar suas próprias observações e experiências clínicas. No entanto, a representatividade evidencial geral da experiência clínica de um indivíduo provavelmente será fraca. Assim como outras formas de evidência, a evidência clínica precisa ser sistematicamente coletada, revisada e analisada, para formar uma síntese do raciocínio clínico, que então forneceria o componente clínico da evidência médica científica.

Uma falha maior do raciocínio evidencial é a afirmação de Sackett de que se deve usar “a melhor evidência externa disponível” em vez de todos os evidências externas válidas. Julgamentos sobre o que constitui a “melhor” evidência são altamente subjetivos e não necessariamente produzem resultados globais que são quantitativamente os mais precisos e precisos (Hartling et al., 2013; Bae, 2016). Ao formular seus agora canônicos “aspectos” do raciocínio causal evidencial, Sir Austin Bradford Hill (1965) não incluiu um aspecto do que constituiria a “melhor” evidência, nem sugeriu que os estudos deveriam ser medidos ou categorizados pela “qualidade do estudo”. ” nem mesmo que alguns tipos de projetos de estudo possam ser intrinsecamente melhores que outros. No Manual de referência em evidências científicas, Margaret Berger (2011) afirma explicitamente: “... muitos dos órgãos científicos mais respeitados e prestigiados (como a Agência Internacional de Pesquisa sobre o Câncer (IARC), o Instituto de Medicina, o Conselho Nacional de Pesquisa e o Instituto Nacional para Ciências da Saúde Ambiental) consideram todas as evidências científicas relevantes disponíveis, tomadas como um todo, para determinar qual conclusão ou hipótese em relação a uma alegação causal é melhor apoiada pelo corpo de evidências”. Esta é exatamente a abordagem de Hill; seus aspectos do raciocínio causal têm sido amplamente utilizados por mais de 50 anos para raciocinar da observação à causação, tanto na ciência quanto no direito. O fato de a EBM ter como premissa a escolha subjetiva da “melhor” evidência é um método plausível, mas não científico.

Com o tempo, a abordagem EBM para considerar seletivamente a “melhor” evidência parece ter sido “emburrecida”, primeiro colocando ensaios clínicos randomizados (RCTs) no topo de uma pirâmide de todos os projetos de estudo como o suposto projeto “padrão ouro”, e mais tarde, como o único tipo de estudo declarado que pode ser confiável para obter estimativas imparciais de efeitos. Todas as outras formas de evidência empírica são “potencialmente tendenciosas” e, portanto, não confiáveis. Este é um conceito de plausibilidade, como mostrarei a seguir.

Mas é tão plausível que é rotineiramente ensinado na educação médica moderna, de modo que a maioria dos médicos considera apenas a evidência RCT e descarta todas as outras formas de evidência empírica. É tão plausível que este autor tenha travado uma batalha verbal no ar sobre isso com um comentarista de televisão sem formação médica que não forneceu nenhuma evidência além da plausibilidade (Whelan, 2020): Não é “simplesmente óbvio” que se você randomizar assuntos, qualquer diferenças devem ser causadas pelo tratamento, e nenhum outro tipo de estudo pode ser confiável? Óbvio, sim; verdade, não.

Quem se beneficia de um foco único e obsessivo nas evidências RCT? Os RCTs são muito caros de serem conduzidos para serem epidemiologicamente válidos e estatisticamente adequados. Eles podem custar milhões ou dezenas de milhões de dólares, o que limita seu apelo em grande parte a empresas que promovem produtos médicos com probabilidade de gerar lucros substancialmente maiores do que esses custos. Historicamente, o controle farmacêutico e a manipulação de evidências RCT no processo de regulamentação forneceram um enorme impulso na capacidade de empurrar produtos por meio de aprovação regulatória para o mercado, e a motivação para fazer isso continua até hoje.

Este problema foi reconhecido pelo Congresso, que aprovou a Lei de Modernização da Administração de Alimentos e Medicamentos de 1997 (FDAMA) que estabeleceu em 2000 a ClinicalTrials.gov site para registro de todos os ensaios clínicos realizados sob novas aplicações de medicamentos em investigação para examinar a eficácia de medicamentos experimentais para pacientes com condições graves ou com risco de vida (National Library of Medicine, 2021). Por razões relacionadas envolvendo conflitos de interesses em ensaios clínicos, o site ProPublica “Dollars for Docs” (Tigas et al., 2019) que cobre pagamentos de empresas farmacêuticas a médicos durante os anos de 2009-2018 e o site OpenPayments (Centers for Medicare & Medicaid Services , 2022) cobrindo pagamentos de 2013 a 2021 foram estabelecidos e disponibilizados publicamente para pesquisa. Esses sistemas de informação foram criados porque a “plausibilidade” de que a randomização automaticamente torna os resultados do estudo precisos e imparciais foi reconhecida como insuficiente para lidar com a trapaça da pesquisa e os motivos de conflito de interesses inadequados do investigador.

Embora essas tentativas de reformar ou limitar a corrupção na pesquisa médica tenham ajudado, a deturpação das evidências sob o disfarce de EBM persiste. Um dos piores exemplos foi um artigo publicado no New England Journal of Medicine 13 de fevereiro de 2020, no início da pandemia de Covid-19, intitulado “The Magic of Randomization versus the Myth of Real-World Evidence”, por quatro conhecidos estatísticos médicos britânicos com laços substanciais com empresas farmacêuticas (Collins et al ., 2020). Provavelmente foi escrito em janeiro de 2020, antes que a maioria das pessoas soubesse que a pandemia estava chegando. Este artigo afirma que a randomização cria automaticamente estudos fortes e que todos os estudos não randomizados são lixo probatório. Na hora de lê-lo, senti que era uma arenga contra toda a minha disciplina, a epidemiologia. Fiquei imediatamente ofendido com isso, mas depois compreendi os sérios conflitos de interesse dos autores. Representar que apenas evidências RCT altamente inacessíveis são apropriadas para aprovações regulatórias fornece uma ferramenta para as empresas farmacêuticas protegerem seus produtos patenteados caros e altamente lucrativos contra a concorrência por medicamentos genéricos aprovados off-label eficazes e baratos, cujos fabricantes não seriam capazes de pagar em larga escala RCTs.

Randomization

Então, qual é a falha da randomização à qual tenho aludido, que requer um exame mais profundo para entender a validade relativa dos estudos RCT versus outros desenhos de estudo? O problema está na compreensão confuso. Confundimento é uma circunstância epidemiológica em que uma relação entre uma exposição e um resultado não se deve à exposição, mas a um terceiro fator (o fator de confusão), pelo menos em parte. O fator de confusão está de alguma forma associado à exposição, mas não é resultado da exposição.

Nesses casos, a aparente relação exposição-resultado deve-se, na verdade, à relação confundidora-resultado. Por exemplo, um estudo de consumo de álcool e risco de câncer pode ser potencialmente confundido pelo histórico de tabagismo que se correlaciona com o uso de álcool (e não é causado pelo uso de álcool), mas está realmente levando ao aumento do risco de câncer. Uma simples análise do risco de álcool e câncer, ignorando o tabagismo, mostraria uma relação. No entanto, uma vez que o efeito do tabagismo fosse controlado ou ajustado, a relação do álcool com o risco de câncer diminuiria ou desapareceria.

O objetivo da randomização, de equilibrar tudo entre os grupos de tratamento e controle, é remover possíveis fatores de confusão. Existe alguma outra maneira de remover possíveis fatores de confusão? Sim: meça os fatores em questão e ajuste ou controle para eles em análises estatísticas. Portanto, é aparente que a randomização tem exatamente um possível benefício não disponível para estudos não randomizados: o controle de unfatores de confusão medidos. Se as relações biológicas, médicas ou epidemiológicas forem incompletamente compreendidas sobre um resultado de interesse, nem todos os fatores relevantes podem ser medidos, e alguns desses fatores não medidos ainda podem confundir uma associação de interesse.

Assim, a randomização, em teoria, remove a confusão potencial por fatores não medidos como uma explicação para uma associação observada. Esse é o argumento da plausibilidade. A questão, porém, diz respeito a quão bem a randomização funciona na realidade e quem exatamente precisa ser equilibrado pela randomização. Os ensaios clínicos aplicam a randomização a todos os indivíduos participantes para determinar as atribuições do grupo de tratamento. Se no evento de resultado do estudo os indivíduos compreendem um subconjunto do estudo total, então essas pessoas de resultado também precisam ser balanceadas em seus potenciais fatores de confusão. Por exemplo, se todas as mortes no grupo de tratamento forem do sexo masculino e todas do grupo do placebo forem do sexo feminino, então o gênero provavelmente confunde o efeito do tratamento. 

O problema é que os estudos RCT essencialmente nunca demonstram explicitamente a randomização adequada de seus sujeitos de resultados, e o que eles pretendem mostrar sobre a randomização para seus grupos de tratamento total é quase sempre cientificamente irrelevante. Esse problema provavelmente surge porque os indivíduos que realizam estudos RCT e os revisores e editores de periódicos que consideram seus artigos não entendem suficientemente os princípios epidemiológicos.

Na maioria das publicações RCT, os investigadores fornecem uma tabela descritiva inicial superficial dos grupos de tratamento e placebo (como colunas) versus vários fatores medidos (como linhas). Ou seja, as distribuições percentuais de indivíduos em tratamento e placebo por gênero, faixa etária, raça/etnia, etc. A terceira coluna nessas tabelas é geralmente a estatística de valor p para a diferença de frequência entre os indivíduos em tratamento e placebo em cada fator medido. Falando vagamente, esta estatística estima uma probabilidade de que uma diferença de frequência entre os indivíduos do tratamento e do placebo tão grande possa ter ocorrido por acaso. Dado que os indivíduos receberam seus grupos de tratamento totalmente por acaso, o exame estatístico do processo de randomização aleatório é tautológico e irrelevante. Que em alguns RCTs, alguns fatores podem parecer mais extremos do que o acaso permitiria sob randomização é apenas porque vários fatores abaixo das linhas foram examinados para diferenças distributivas e, em tais circunstâncias, o controle estatístico de comparações múltiplas deve ser invocado.

O que é necessário na terceira coluna da tabela descritiva do RCT não é o valor-p, mas uma medida da magnitude da confusão do fator de linha específico. A confusão não é medida por como ocorreu, mas por quão ruim é. Em minha experiência como epidemiologista de carreira, a melhor medida isolada de confusão é a variação percentual na magnitude da relação tratamento-resultado com vs. sem ajuste para o fator de confusão. Assim, por exemplo, se com ajuste para gênero, o tratamento reduz a mortalidade em 25% (risco relativo = 0.75), mas sem ajuste reduz em 50%, então a magnitude da confusão por gênero seria (0.75 – 0.50)/0.75 = 33 %. Os epidemiologistas geralmente consideram uma mudança de mais de 10% com esse ajuste para indicar que a confusão está presente e precisa ser controlada.

Como observei, a maioria das publicações de RCT não fornece a magnitude das estimativas de confusão para seus grupos de tratamento gerais e nunca para seus sujeitos de desfecho. Portanto, não é possível dizer que os sujeitos do resultado foram adequadamente randomizados para todos os fatores fornecidos na tabela descritiva do artigo. Mas a falha fatal potencial dos estudos RCT, o que pode torná-los não melhores do que os estudos não randomizados e, em alguns casos, piores, é que a randomização só funciona quando um grande número de indivíduos foi randomizado (Deaton e Cartwright, 2018), e isso se aplica especificamente a os assuntos de resultado, não apenas para o estudo total. 

Considere jogar uma moeda dez vezes. Pode dar pelo menos sete caras e três coroas, ou vice-versa, facilmente por acaso (34%). No entanto, a magnitude dessa diferença, 7/3 = 2.33, é potencialmente muito grande em termos de possível confusão. Por outro lado, a ocorrência da mesma magnitude de 2.33 em 70 ou mais caras em 100 lançamentos seria rara, p=000078. Para que a randomização funcione, é necessário que haja um número considerável de eventos de resultado nos grupos de tratamento e placebo, digamos 50 ou mais em cada grupo. Essa é a principal falha potencial não dita dos estudos RCT que torna inútil seu argumento de plausibilidade, porque os estudos RCT geralmente são projetados para ter poder estatístico suficiente para encontrar significância estatística de seu resultado primário se o tratamento funcionar como previsto, mas não projetado para ter resultado suficiente sujeitos para reduzir o potencial de confusão para menos de 10%, dizem.

Um exemplo importante dessa questão pode ser visto no primeiro resultado de RCT de eficácia publicado para a vacina Pfizer BNT162b2 mRNA Covid-19 (Polack et al., 2020). Este estudo foi considerado grande o suficiente (43,548 participantes randomizados) e importante o suficiente (Covid-19) que, devido à plausibilidade do ECR assumida, garantiu a publicação no “prestigiado” New England Journal of Medicine. O desfecho primário do estudo foi a ocorrência de Covid-19 com início pelo menos sete dias após a segunda dose da vacina ou injeção de placebo. No entanto, embora tenha observado 162 casos entre os participantes do placebo, o suficiente para uma boa randomização, encontrou apenas oito casos entre os participantes da vacina, nem de longe o suficiente para a randomização ter feito algo para controlar a confusão. 

A partir da experiência epidemiológica geral, é improvável que um risco relativo estimado tão grande (aproximadamente 162/8 = 20) seja inteiramente devido a confusão, mas a precisão do risco relativo ou sua eficácia implícita ((20 – 1)/20 = 95 %) está em dúvida. O fato de esta vacina em uso não ser tão eficaz na redução do risco de infecção não é surpreendente, dada a fraqueza do resultado do estudo devido ao tamanho inadequado da amostra para garantir que a randomização funcionasse para os sujeitos do resultado nos grupos de tratamento e placebo.

Este “mergulho nas ervas daninhas” da epidemiologia esclarece por que um estudo RCT com menos de, digamos, 50 participantes em cada braço de tratamento do estudo tem pouca ou nenhuma pretensão de evitar possíveis confundimentos por fatores não medidos. Mas também torna evidente por que tal julgamento pode ser pior do que um estudo controlado não randomizado da mesma exposição e resultado. Em ensaios não randomizados, os investigadores sabem que muitos fatores podem, como possíveis fatores de confusão, influenciar a ocorrência do desfecho, então medem tudo o que acham relevante, para então ajustar e controlar esses fatores nas análises estatísticas. 

No entanto, em RCTs, os investigadores rotineiramente pensam que a randomização foi bem-sucedida e, portanto, realizam análises estatísticas não ajustadas, fornecendo resultados potencialmente confusos. Quando você vir RCTs exibidos como “grandes” estudos por causa de suas dezenas de milhares de participantes, olhe além disso, para o número de eventos de resultados primários nos braços de tratamento do estudo. Ensaios com pequeno número de eventos de resultados primários são inúteis e não devem ser publicados, muito menos considerados para saúde pública ou considerações de políticas.

Evidência empírica

Depois de ler tudo o que foi dito acima, você pode pensar que esses argumentos sobre ensaios randomizados versus não randomizados são muito plausíveis, mas e as evidências empíricas para apoiá-los? Para isso, foi realizada uma análise bastante minuciosa pelo Cochrane Library Database of Systematic Reviews (Anglemyer et al., 2014). Este estudo pesquisou de forma abrangente sete bancos de dados de publicações eletrônicas no período de janeiro de 1990 a dezembro de 2013, para identificar todos os artigos de revisão sistemática que compararam “estimativas quantitativas do tamanho do efeito medindo a eficácia ou eficácia das intervenções testadas em ensaios [randomizados] com aquelas testadas em estudos observacionais. ” Com efeito, uma meta-análise de meta-análises, a análise incluiu muitos milhares de comparações de estudos individuais, conforme resumido em 14 artigos de revisão. 

O resultado final: uma diferença média de apenas 8% (limites de confiança de 95%, -4% a 22%, não estatisticamente significativa) entre os RCTs e seus correspondentes resultados de ensaios não randomizados. Em resumo, esse corpo de conhecimento – tanto o empírico quanto o baseado em princípios epidemiológicos – demonstra que, ao contrário da chamada “plausibilidade”, os ensaios randomizados não têm classificação automática como padrão-ouro de evidência médica ou como a única forma aceitável de evidências médicas, e que todo estudo precisa ser examinado de forma crítica e objetiva quanto aos seus próprios pontos fortes e fracos, e quanto esses pontos fortes e fracos importam para as conclusões tiradas.

Outras Plausibilidades

Durante a pandemia de Covid-19, inúmeras outras afirmações de evidências científicas têm sido utilizadas para justificar as políticas públicas de saúde, inclusive para a própria declaração de emergência pandêmica. Subjacente a muitos deles, está o princípio plausível, mas falacioso, de que o objetivo do gerenciamento da pandemia de saúde pública é minimizar o número de pessoas infectadas pelo vírus SARS-CoV-2. 

Essa política pode parecer óbvia, mas é errada como política geral. O que precisa ser minimizado são as consequências nefastas da pandemia. Se a infecção levar a sintomas desagradáveis ​​ou irritantes para a maioria das pessoas, mas sem problemas sérios ou de longo prazo - como geralmente é o caso do SARS-CoV-2, particularmente na era Omicron -, não haveria benefício tangível de saúde pública geral intervenções e limitações que infrinjam os direitos naturais ou econômicos de tais indivíduos e causem danos a si mesmos. 

As sociedades ocidentais, incluindo os EUA, lidam com as ondas anuais de infecções respiratórias sem declarar emergências pandêmicas, embora produzam milhões de indivíduos infectados a cada ano, porque as consequências da infecção são geralmente consideradas menores do ponto de vista médico, mesmo permitindo algumas dezenas de milhares de mortes anualmente. 

Foi estabelecido nos primeiros meses da pandemia de Covid-19 que o risco de mortalidade por infecção variou mais de 1,000 vezes ao longo da faixa etária e que pessoas sem condições crônicas de saúde, como diabetes, obesidade, doenças cardíacas, doenças renais, histórico de câncer, etc., apresentavam risco insignificante de mortalidade e risco muito baixo de hospitalização. Nesse ponto, era simples definir categorias de indivíduos de alto risco que, em média, se beneficiariam de intervenções de saúde pública, em comparação com indivíduos de baixo risco que resistiriam com sucesso à infecção sem problemas consideráveis ​​ou de longo prazo. Assim, um esquema obsessivo de gerenciamento de pandemia de tamanho único que não distinguia categorias de risco era irracional e opressivo desde o início.

Assim, as medidas promovidas pela plausibilidade para reduzir a transmissão da infecção, mesmo que fossem eficazes para esse fim, não têm servido para uma boa gestão da pandemia. Essas medidas, no entanto, nunca foram justificadas por evidências científicas em primeiro lugar. A regra de distanciamento social de um metro e oitenta foi uma mistura arbitrária do CDC (Dangor, 2021). Alegações de benefício pelo uso de máscaras faciais raramente distinguem o benefício potencial para o usuário - para quem tal uso seria uma escolha pessoal de aceitar ou não um risco mais teórico - versus benefício para os espectadores, o chamado "controle de origem", em que o público considerações de saúde podem ser aplicadas adequadamente. Estudos de controle de fonte baseado em máscara para vírus respiratórios, onde os estudos não apresentam falhas fatais, não mostraram nenhum benefício apreciável na redução da transmissão de infecções (Alexander, 2021; Alexander, 2022; Burns, 2022).

Os bloqueios populacionais em geral nunca foram usados ​​nos países ocidentais e não têm evidências de efeito para fazer outra coisa senão adiar o inevitável (Meunier, 2020), como os dados populacionais da Austrália deixam claro (Worldometer, 2022). Na discussão definitiva das medidas de saúde pública para o controle da influenza pandêmica (Inglesby e outros, 2006), afirmam os autores: “Não há observações históricas ou estudos científicos que apoiem o confinamento por quarentena de grupos de pessoas possivelmente infectadas por períodos prolongados, a fim de retardar a propagação da gripe. Um grupo de redação da Organização Mundial da Saúde (OMS), após revisar a literatura e considerar a experiência internacional contemporânea, concluiu que 'o isolamento forçado e a quarentena são ineficazes e impraticáveis'. … As consequências negativas da quarentena em grande escala são tão extremas (confinamento forçado de pessoas doentes junto com o poço; restrição completa do movimento de grandes populações; dificuldade em fornecer suprimentos, remédios e alimentos essenciais para as pessoas dentro da zona de quarentena) que essa mitigação medida deve ser eliminada de consideração séria”.

Sobre as restrições de viagem, Inglesby et al. (2006) observam: “Restrições de viagem, como fechamento de aeroportos e triagem de viajantes nas fronteiras, têm sido historicamente ineficazes. O Grupo de Redação da Organização Mundial da Saúde concluiu que 'a triagem e a quarentena dos viajantes que entram nas fronteiras internacionais não retardaram substancialmente a introdução do vírus em pandemias passadas... e provavelmente serão ainda menos eficazes na era moderna.'” Sobre o fechamento de escolas (Inglesby et al., 2006): “Em epidemias anteriores de influenza, o impacto do fechamento de escolas nas taxas de doenças foi misto. Um estudo de Israel relatou uma diminuição nas infecções respiratórias após uma greve de professores de 2 semanas, mas a diminuição foi evidente apenas por um único dia. Por outro lado, quando as escolas fecharam para as férias de inverno durante a pandemia de 1918 em Chicago, 'mais casos de gripe se desenvolveram entre os alunos... do que quando as escolas estavam em funcionamento.'”

Essa discussão deixa claro que essas ações que supostamente interferem na transmissão do vírus com base em argumentos de plausibilidade para sua eficácia foram equivocadas para o gerenciamento da pandemia e infundadas por evidências científicas de eficácia na redução da disseminação. Sua promoção em larga escala demonstrou o fracasso das políticas de saúde pública na era do Covid-19.

Plausibilidade vs má ciência

Pode-se argumentar que várias políticas de saúde pública, bem como informações disponibilizadas ao público em geral, não foram apoiadas por plausibilidade, mas sim por ciência ruim ou fatalmente falha, posando como ciência real. Por exemplo, em seu jornal interno, sem revisão por pares, Relatórios Semanais de Morbidade e Mortalidade, o CDC publicou uma série de análises da eficácia da vacina. Esses relatórios descreviam estudos transversais, mas os analisavam como se fossem estudos de caso-controle, usando sistematicamente parâmetros de odds ratio estimados em vez de riscos relativos para calcular a eficácia da vacina. Quando os resultados do estudo são infrequentes, digamos menos de 10% dos sujeitos do estudo, então as razões de chances podem se aproximar dos riscos relativos, mas, caso contrário, as razões de chances tendem a ser superestimadas. No entanto, em estudos transversais, os riscos relativos podem ser calculados diretamente e podem ser ajustados para possíveis fatores de confusão por regressão de risco relativo (Wacholder, 1986), semelhante ao uso de regressão logística em estudos de caso-controle.

Um exemplo representativo é um estudo sobre a eficácia das vacinas de terceira dose contra a Covid-19 (Tenforde et al., 2022). Neste estudo, “… a Rede IVY inscreveu 4,094 adultos com idade ≥18 anos” e, após exclusões de sujeitos relevantes, “2,952 pacientes hospitalizados foram incluídos (1,385 casos de pacientes e 1,567 controles não COVID-19)”. Estudos transversais—por design—identificam o número total de indivíduos, enquanto os números de casos e controles, e expostos e não expostos, acontecem fora da intervenção do investigador, ou seja, por quaisquer processos naturais subjacentes aos mecanismos médicos, biológicos e epidemiológicos sob exame. Ao selecionar um número total de sujeitos, o teste de Tenforde et al. estudo é, por definição, um desenho transversal. Este estudo relatou uma eficácia vacinal de 82% entre pacientes sem condições imunocomprometidas. Essa estimativa reflete uma razão de chances ajustada de 1 – 0.82 = 0.18. No entanto, a fração de casos entre os vacinados foi de 31% e entre os não vacinados foi de 70%, nenhum dos quais é suficientemente infrequente para permitir o uso da aproximação da razão de chances para calcular a eficácia da vacina. Pelos números na Tabela 3 do relatório do estudo, calculo um risco relativo não ajustado de 0.45 e um risco relativo aproximadamente ajustado de 0.43, dando a verdadeira eficácia da vacina de 1 – 0.43 = 57%, que é substancialmente diferente e muito pior do que os 82% apresentado no papel.

Em um contexto diferente, depois que publiquei um artigo de revisão resumido sobre o uso de hidroxicloroquina (HCQ) para tratamento ambulatorial precoce de Covid-19 (Risch, 2020), vários artigos de ensaios clínicos foram publicados na tentativa de mostrar que o HCQ é ineficaz . A primeira dessas chamadas “refutações” foi realizada em pacientes hospitalizados, cuja doença é quase totalmente diferente em fisiopatologia e tratamento da doença ambulatorial precoce (Park et al., 2020). Os resultados importantes que abordei em minha revisão, riscos de hospitalização e mortalidade, foram distraídos nesses trabalhos pelo foco em resultados subjetivos e menores, como duração da positividade do teste viral ou tempo de internação.

Posteriormente, ECRs de uso ambulatorial de HCQ começaram a ser publicados. Um exemplo típico é o de Caleb Skipper et al. (2020). O endpoint primário deste estudo foi uma mudança na gravidade geral dos sintomas auto-relatados ao longo de 14 dias. Esse ponto final subjetivo foi de pouca importância pandêmica, especialmente considerando que os participantes dos estudos desse grupo de pesquisa foram moderadamente capazes de dizer se estavam nos braços HCQ ou placebo do estudo (Rajasingham et al., 2021) e, portanto, a autoavaliação os resultados relatados não eram totalmente cegos para os braços de medicação. A partir de suas análises estatísticas, os autores concluíram apropriadamente que “a hidroxicloroquina não reduziu substancialmente a gravidade dos sintomas em pacientes ambulatoriais com COVID-19 leve e precoce”. No entanto, a mídia em geral relatou este estudo como mostrando que “a hidroxicloroquina não funciona”. Por exemplo, Jen Christensen (2020) em CNN Health afirmou sobre este estudo: “O medicamento antimalárico hidroxicloroquina não beneficiou pacientes não hospitalizados com sintomas leves de Covid-19 que foram tratados no início de sua infecção, de acordo com um estudo publicado quinta-feira na revista médica Annals of Internal Medicine. " 

Mas, na verdade, o estudo Skipper relatou os dois resultados importantes, riscos de hospitalização e mortalidade: com placebo, 10 hospitalizações e 1 morte; com HCQ, 4 internações e 1 óbito. Esses números mostram uma redução de 60% no risco de hospitalização que, embora não seja estatisticamente significativo (p = 0.11), é totalmente consistente com todos os outros estudos de risco de hospitalização para uso de HCQ em pacientes ambulatoriais (Risch, 2021). No entanto, esses pequenos números de eventos de resultado não são suficientes para a randomização equilibrar quaisquer fatores, e o estudo é essencialmente inútil com base nisso. Mas ainda foi mal interpretado na literatura leiga como mostrando que o HCQ não oferece nenhum benefício no uso ambulatorial.

Conclusões

Muitos outros casos de besteira científica plausível ou má ciência ocorreram durante a pandemia de Covid-19. Como foi visto com os artigos retratados do Surgisphere, as revistas médicas rotineira e acriticamente publicam esse absurdo, desde que as conclusões se alinhem com as políticas governamentais. Este corpo de conhecimento falso foi promulgado nos níveis mais altos, pelo NSC, FDA, CDC, NIH, OMS, Wellcome Trust, AMA, conselhos de especialidades médicas, agências estaduais e locais de saúde pública, empresas farmacêuticas multinacionais e outras organizações em todo o mundo que violaram suas responsabilidades para com o público ou escolheram propositadamente não entender a falsa ciência. 

O Senado dos EUA votou recentemente, pela terceira vez, o fim do estado de emergência da Covid-19, mas o Presidente Biden afirmou que vetaria a medida por “medo” de recorrência números de casos. Meus colegas e eu argumentamos há quase um ano que a emergência pandêmica havia acabado (Risch et al., 2022), mas a confiança espúria na contagem de casos para justificar a supressão dos direitos humanos sob o disfarce de “emergência” continua inabalável.

A censura maciça da mídia tradicional e de grande parte da mídia social bloqueou a maior parte da discussão pública dessa ciência falsa e ruim. A censura é a ferramenta do indefensável, uma vez que a ciência válida se defende inerentemente. Até que o público comece a entender a diferença entre plausibilidade e ciência e quão grande tem sido o esforço para produzir em massa um “produto” científico que parece ciência mas não é, o processo continuará e os líderes que buscam o poder autoritário continuarão a confiar nele por justificativa falsa.

Referências

Alexandre, PE (2021, 20 de dezembro). Mais de 150 estudos comparativos e artigos sobre ineficácia e danos das máscaras. Instituto Brownstone. https://brownstone.org/articles/more-than-150-comparative-studies-and-articles-on-mask-ineffectiveness-and-harms/

Alexander, PE (2022, 3 de junho). CDC se recusa a publicar a correção para seu estudo de máscara. Instituto Brownstone. https://brownstone.org/articles/cdc-refuses-to-post-the-fix-to-its-mask-study/

Anglemyer, A., Horvath, HT, Bero, L. (2014). Resultados de saúde avaliados com desenhos de estudos observacionais em comparação com aqueles avaliados em ensaios randomizados (Revisão). Banco de Dados Cochrane de Revisões Sistemáticas, 4, Artigo MR000034. https://doi.org/10.1002/14651858.MR000034.pub2

Bae, J.-M. (2016). Uma sugestão para avaliação da qualidade em revisões sistemáticas de estudos observacionais em epidemiologia nutricional. Epidemiologia e Saúde, 38, Artigo e2016014. https://doi.org/10.4178/epih.e2016014

Berger, MA (2011). A admissibilidade da prova pericial. No National Research Council, Committee on the Development of the Third Edition of the Reference Manual on Scientific Evidence, Manual de referência em evidências científicas, Terceira Edição (pp. 11-36). Imprensa das Academias Nacionais. https://nap.nationalacademies.org/catalog/13163/reference-manual-on-scientific-evidence-third-edition

Burns, E. (2022, 10 de novembro). Outro dia, outro terrível estudo de máscara. Vamos olhar sob o capô do mais novo pedaço de ciência de baixa qualidade em máscaras. Subpilha. https://emilyburns.substack.com/p/another-day-another-terrible-mask

Centros de Serviços Medicare e Medicaid. (2022, junho). Pesquisar pagamentos em aberto. Departamento de Saúde e Serviços Humanos dos EUA, Centros de Serviços Medicare e Medicaid. https://openpaymentsdata.cms.gov/

Christensen, J. (2020, 16 de julho). Hidroxicloroquina também não ajuda pacientes com Covid-19 que não estão hospitalizados, segundo novo estudo. CNN Saúde. https://www.cnn.com/2020/07/16/health/hydroxychloroquine-doesnt-work-hospitalized-patients/

Collins, R., Bowman, L., Landray, M., & Peto, R. (2020). A mágica da randomização versus o mito das evidências do mundo real. New England Journal of Medicine, 382 (7), 674-678. https://www.nejm.org/doi/10.1056/NEJMsb1901642

Dangor, G. (2021, 19 de setembro). Regra de distanciamento social de um metro e oitenta do CDC era 'arbitrária', diz ex-comissário da FDA. Forbes. https://www.forbes.com/sites/graisondangor/2021/09/19/cdcs-six-foot-social-distancing-rule-was-arbitrary-says-former-fda-commissioner/

Deaton, A., & Cartwright, N. (2018). Compreender e interpretar mal os ensaios controlados randomizados. Ciências Sociais e Medicina, 210, 2-21. https://doi.org/10.1016/j.socscimed.2017.12.005

Feynman, RP (1974). Ciência do Culto de Carga. Engenharia e Ciência, 37 (7), 10-13. https://resolver.caltech.edu/CaltechES:37.7.CargoCult

Goldberger, J., Waring, CH, & Willets, DG (1915). A prevenção da pelagra: um teste de dieta entre internos institucionais. Relatórios de Saúde Pública, 30 (43), 3117-3131. https://www.jstor.org/stable/4572932

Hartling, L., Milne, A., Hamm, MP, Vandermeer, B., Ansari, M., Tsertsvadze, A., Dryden, DM (2013). Testar a Escala de Newcastle Ottawa mostrou baixa confiabilidade entre revisores individuais. Journal of Clinical Epidemiology, 66, 982-993. https://doi.org/10.1016/j.jclinepi.2013.03.003

Colina, AB (1965). O ambiente e a doença: associação ou causalidade. Anais da Royal Society of Medicine, 58 (5), 295-300. https://doi.org/10.1177/003591576505800503

Inglesby, TV, Nuzzo, JB, O'Toole, T., Henderson, DA (2006). Medidas de mitigação de doenças no controle da influenza pandêmica. Biossegurança e bioterrorismo: estratégia, prática e ciência de biodefesa4 (4): 366-375. https://doi.org/10.1089/bsp.2006.4.366

Meunier, T. (2020, 1º de maio). Políticas de bloqueio total nos países da Europa Ocidental não têm impactos evidentes na epidemia de COVID-19. medRxiv. https://doi.org/10.1101/2020.04.24.20078717

MSNBC. (2021, 9 de junho). Fauci responde a ataques de republicanos [Vídeo]. Youtube. https://www.youtube.com/watch?v=z-tfZr8Iv0s

Biblioteca Nacional de Medicina (2021, maio). ClinicalTrials.gov. História, políticas e leis. Departamento de Saúde e Serviços Humanos dos EUA, Institutos Nacionais de Saúde, Biblioteca Nacional de Medicina. https://clinicaltrials.gov/ct2/about-site/history

Park, JJH, Decloedt, EH, Rayner, CR, Cotton, M., Mills, EJ (2020). Ensaios clínicos dos estágios da doença no COVID 19: complicados e frequentemente mal interpretados. Lancet Saúde Global, 8 (10), e1249-e1250. https://doi.org/10.1016/S2214-109X(20)30365-X

Polack, FP, Thomas, SJ, Kitchin, N., Absalon, J., Gurtman, A., Lockhart, S., Perez, JL, Pérez Marc, G., Moreira, ED, Zerbini, C., Bailey, R ., Swanson, KA, Roychoudhury, S., Koury, K., Li, P., Kalina, WV, Cooper, D., Frenck, RW, Jr., Hammitt, LL, …, Gruber, WC (2020). Segurança e eficácia da vacina BNT162b2 mRNA Covid-19. New England Journal of Medicine, 383 (27), 2603-2615. https://www.nejm.org/doi/full/10.1056/nejmoa2034577

Rajasingham, R., Bangdiwala, AS, Nicol, MR, Skipper, CP, Pastick, KA, Axelrod, ML, Pullen, MF, Nascene, AA, Williams, DA, Engen, NW, Okafor, EC, Rini, BI, Mayer , IA, McDonald, EG, Lee, TC, Li P., MacKenzie, LJ, Balko, JM, Dunlop, SJ, …, Lofgren, SM (2021). Hidroxicloroquina como profilaxia pré-exposição para doença de coronavírus 2019 (COVID-19) em profissionais de saúde: um estudo randomizado. Clinical Infectious Diseases, 72 (11), e835-e843. https://doi.org/10.1093/cid/ciaa1571

Risch, HA (2020). Tratamento ambulatorial precoce de pacientes sintomáticos e de alto risco com COVID-19 que devem ser intensificados imediatamente como chave para a crise pandêmica. American Journal of Epidemiology, 189 (11), 1218-1226. https://doi.org/10.1093/aje/kwaa093

Risch, HA (2021, 17 de junho). Hidroxicloroquina no tratamento precoce de pacientes ambulatoriais de alto risco com COVID-19: evidências de eficácia e segurança. EarlyCovidCare.org, https://earlycovidcare.org/wp-content/uploads/2021/09/Evidence-Brief-Risch-v6.pdf

Risch, H., Bhattacharya, J., Alexander, PE (2022, 23 de janeiro). A emergência deve ser encerrada, agora. Instituto Brownstone. https://brownstone.org/articles/the-emergency-must-be-ended-now/

Sackett, DL, Rosenberg, WMC, Gray, JAM, Haynes, RB e Richardson, WS (1996). Medicina baseada em evidências: o que é e o que não é. BMJ, 312, artigo 71. https://doi.org/10.1136/bmj.312.7023.71

Skipper, CP, Pastick, KA, Engen, NW, Bangdiwala, AS, Abassi, M., Lofgren, SM, Williams, DA, Okafor, EC, Pullen, MF, Nicol, MR, Nascene, AA, Hullsiek, KH, Cheng , MP, Luke, D., Lother, SA, MacKenzie, LJ, Drobot, G., Kelly, LE, Schwartz, IS, …, Boulware, DR (2020). Hidroxicloroquina em adultos não hospitalizados com COVID-19 inicial: um estudo randomizado. Annals of Internal Medicine, 173 (8), 623-631. https://doi.org/10.7326/M20-4207

Tenforde, MW, Patel, MM, Gaglani, M., Ginde, AA, Douin, DJ, Talbot, HK, Casey, JD, Mohr, NM, Zepeski, A., McNeal, T., Ghamande, S., Gibbs, KW, Files, DC, Hager, DN, Shehu, A., Prekker, ME, Erickson, HL, Gong, MN, Mohamed, A., …, Self, WH (2022). Relatório Semanal de Morbidade e Mortalidade, 71(4), 118-124. https://www.cdc.gov/mmwr/volumes/71/wr/mm7104a2.htm

Tigas, M., Jones, RG, Ornstein, C., & Groeger, L. (2019, 17 de outubro). Dólares para documentos. Como os dólares da indústria chegaram aos seus médicos. ProPublica. https://projects.propublica.org/docdollars/

Wacholder, S. (1986). Regressão binomial em GLIM: estimando razões de risco e diferenças de risco. American Journal of Epidemiology, 123 (1), 174-184. https://doi.org/10.1093/oxfordjournals.aje.a114212

Whelan, R. (2020, 3 de agosto). 2020/08/03 – CNN COVID com entrevista Harvey Risch, epidemiologista de Yale [Vídeo]. Youtube. https://www.youtube.com/watch?v=gGO6Ke81bUQ

Worldometer. (2022, 15 de novembro). Total de casos de coronavírus na Austrália. Mundialômetro. https://www.worldometers.info/coronavirus/country/australia/



Publicado sob um Licença Internacional Creative Commons Attribution 4.0
Para reimpressões, defina o link canônico de volta ao original Instituto Brownstone Artigo e Autor.

Autor

  • Harvey Risch

    Harvey Risch, acadêmico sênior do Brownstone Institute, é médico e professor emérito de epidemiologia na Yale School of Public Health e na Yale School of Medicine. Seus principais interesses de pesquisa são na etiologia do câncer, prevenção e diagnóstico precoce e em métodos epidemiológicos.

    Ver todos os posts

Doe hoje

Seu apoio financeiro ao Instituto Brownstone vai para apoiar escritores, advogados, cientistas, economistas e outras pessoas de coragem que foram expurgadas e deslocadas profissionalmente durante a turbulência de nossos tempos. Você pode ajudar a divulgar a verdade por meio de seu trabalho contínuo.

Assine Brownstone para mais notícias

Mantenha-se informado com o Instituto Brownstone