Marcel Ribeiro-Dantas, PhD🔎📊🌿 Profile picture
@nextflowio @nf_core Dev Advocate @SeqeraLabs. ScientificComm @PortalDeviante. Former @Institut_Curie @Sorbonne_Univ_ @laishuol @bioinfo_UFRN

Sep 23, 2020, 11 tweets

1/11 Após escrever esse tweet, peguei-me pensando sobre muitas pessoas de fora da academia ñ saberem o q significa crença dentro da ciência. Isso me lembrou inclusive de um episódio do #SciCast (@PortalDeviante) que gravei há alguns meses onde brincávamos q iríamos falar sobre

2/11 crença, e o uso de um teorema matemático q usa crença para validar a hipótese de Jesus ter ressuscitado. Estou falando do Teorema de Bayes. Se quiser saber mais, recomendo ouvir o episódio! Ficou super legal. Se acha q estou brincando sobre a palavra deviante.com.br/podcasts/scica…

3/11 crença, trago aqui um print da página da Wikipédia. E digo mais, vai além disso! Em várias metodologias científicas nós utilizamos de pressupostos. Alguns pressupostos podem ser checados, de modo a identificar violações. Outros, NÃO. Ou seja, vai na base da fé. Por exemplo,

4/11 na imagem abaixo claramente uma reta consegue se ajustar bem e representar aqueles dados. É possível visualizar a distribuição dos dados para ver se não estamos tentando ajustar uma reta a um fenômeno que claramente não é linear. Mas isso não impede de tentar ajustar uma

5/11 reta aos dados da figura abaixo. Vai ter uma reta, vai ter as informações do ajuste, só que não faz sentido. A crença de que o fenômeno era linear, portanto, aparentemente está errada. Tem uma outra crença ainda: De que esses dados são representativos da população. Talvez

6/11 justamente a amostra que coletamos pareça aleatória, como a figura acima, mas analisando os dados da população, temos os dados se comportando de forma linear. Existem vários outros casos onde podemos verificar se nosso pressuposto foi violado, mas em vários outros isso não é

7/11 possível. O legal, no entanto, é que essas crenças da ciência podem ser *reavaliadas*. Funciona assim também no Estatística Bayesiana. Você pensou que o fenômeno observado era linear, por causa da sua amostragem, mas um outro estudo fez uma coleta melhor e mostrou q ñ, ñ é

8/11 linear. Ou o inverso. E nós “recalibramos” o conhecimento científico a todo instante com coisas desse tipo. Exemplo de pressuposto ñ verificável é o de unconfoundedness. Se você está querendo estudar o efeito de X em Y, um dos problemas q vc precisa se preocupar é o de uma

9/11 terceira variável Z (ou variáveiS) q causa tanto X como Y. Se existir essa variável, a sua estimativa de efeito de X em Y vai estar enviesada, incorreta. Existem várias técnicas p/ tentar verificar isso, mas vc nunca saberá se existe uma variável *q vc ñ mediu* q confunde a

10/11 estimativa do efeito de A em B. Após uma reflexão sobre o fenômeno, discussão com especialistas, vc pode declarar unconfoundedness, q vcs acham q mediram tudo q era importante, mas é uma crença q ñ é possível verificar. Existem técnicas como sensitivity analysis q podem

11/11 diminuir tua incerteza sobre essa impossibilidade, mas é uma crença de algo q vai se construindo, cientificamente. Portanto, ter uma crença não é problemático. Problemático é não “atualizar” a tua crença quando munido de mais/novas evidências científicas.

Share this Scrolly Tale with your friends.

A Scrolly Tale is a new way to read Twitter threads with a more visually immersive experience.
Discover more beautiful Scrolly Tales like this.

Keep scrolling