Open-access DA CONDUTA ÉTICA À CIÊNCIA RESPONSÁVEL NA PESQUISA EM ADMINISTRAÇÃO

RESUMO

Esta pensata examina como o p-hacking e o HARKing comprometem a integridade na pesquisa em gestão. Pressões competitivas e a cultura do “publicar ou perecer” incentivam práticas questionáveis, levando a achados distorcidos e baixa reprodutibilidade. A discussão critica a dependência excessiva do p-valor, a negligência dos tamanhos de efeito e propõe soluções por meio de transparência, pré-registro e ciência aberta. Defendem-se reformas sistêmicas para fortalecer a confiabilidade e promover uma ciência responsável, com maior impacto social e relevância científica.

Palavras-chave:
ética em pesquisa; HARKing; pesquisa em Administração; pesquisa questionável; p-hacking.

ABSTRACT

This essay examines how p-hacking and HARKing compromise integrity in management research. Competitive pressures and the “publish or perish” culture often foster questionable practices, resulting in distorted findings and low reproducibility. The discussion critiques overreliance on p-values and neglect of effect sizes and proposes solutions through transparency, preregistration, and open science. Systemic reforms are advocated to strengthen reliability, promote responsible science, and enhance the societal relevance of scientific contributions.

Keywords:
HARKing; management research; p-hacking; questionable research; research ethics.

RESUMEN

Este ensayo examina cómo el p-hacking y el HARKing comprometen la integridad de la investigación en gestión. Las presiones competitivas y la cultura de «publicar o perecer» fomentan prácticas cuestionables, lo que conduce a hallazgos distorsionados y a una baja reproducibilidad. Asimismo, el ensayo critica la dependencia excesiva del valor p, la negligencia de los tamaños del efecto y propone soluciones a través de la transparencia, el prerregistro y la ciencia abierta. Se defienden reformas sistémicas para fortalecer la fiabilidad y promover una ciencia responsable, con mayor impacto social y relevancia científica.

Palabras clave
HARKing; investigación en gestión; p-hacking; investigación cuestionable; ética en la investigación.

INTRODUÇÃO

Práticas de Pesquisa Questionáveis (PPQs) referem-se a comportamentos de pesquisa que, embora não configurem má conduta científica, comprometem a integridade e a validade dos resultados (Ioannidis, 2022; National Academies of Sciences, Engineering, and Medicine, 2017). Essas práticas incluem desvios em relação aos padrões éticos estabelecidos e às normas aceitas de conduta científica, com potencial para gerar resultados enganosos ou não reproduzíveis (Kepes et al., 2022). Entre as principais PPQs estão o relato seletivo, a exploração excessiva de dados (data dredging), a omissão de condições do estudo, a documentação inadequada dos métodos, a falta de transparência, as análises post hoc excessivas, os tamanhos de amostra mal justificados, e as práticas de p-hacking e HARKing, ou Hypothesizing After the Results are Known (formulação das hipóteses após conhecer os resultados). Este estudo examina o impacto dos métodos estatísticos na pesquisa em gestão, destacando as pressões e os desafios que eles impõem, bem como sua influência no avanço científico. No contexto da pesquisa científica, práticas como o HARKing configuram um desvio ético e metodológico frequentemente invisível, mas prejudicial. A Figura 1 ilustra a prática de HARKing, em que o pesquisador atinge um resultado e depois desenha um alvo (representando as hipóteses) em torno dele, o que é uma evidente inversão da lógica científica convencional. Trata-se de uma metáfora do processo de reformulação post hoc de hipóteses para ajustá-las a descobertas consideradas desejáveis.

Figura 1
Representação Metafórica da Prática de HARKing

A integridade é essencial, e métodos estatísticos convertem observações em dados numéricos (Huang & Wang, 2023). Apesar de pressões como competitividade, mudanças sociais e rápida disseminação de informações (Zhao et al., 2021), mudanças efetivas são imperativas (Wood et al., 2022). No entanto, informações não confiáveis persistem devido as PPQs, onde interesses particulares levam a resultados fabricados que minam a credibilidade de uma revista científica (Aguinis et al., 2020).

A competição entre periódicos de alto impacto fomenta, ao mesmo tempo, pesquisas rigorosas e comportamentos antiéticos, a ponto de ameaçar a credibilidade (Hudson, 2024; Nair & Ascani, 2022). A pressão de “publicar ou perecer” (Dalen, 2021; Tsui, 2022) tem restringido a liberdade e a responsabilidade científicas. Enquanto a ciência busca a verdade (Popper, 2017), as decisões editoriais priorizam a relevância da pesquisa e o rigor metodológico em detrimento da significância dos resultados (Promoting reproducibility with registered reports, 2017).

Algumas das PPQs levam a resultados convincentes que impressionam os revisores, mas comprometem a integridade da pesquisa (Bruton et al., 2020). É uma pressão que cria dilemas envolvendo as expectativas do editor, a concorrência e até mesmo demandas institucionais (Bouter, 2023), enfraquecendo a credibilidade (Stefan & Schönbrodt, 2023). As PPQs, como a prática de p-hacking ou HARKing, envolvem a manipulação de hipóteses e ajustes estatísticos, distorcendo os resultados (Kepes et al., 2022; Syrjänen, 2023). Outras práticas como o controle de variáveis de confusão podem enviesar achados (Speicher, 2021). A significância estatística avaliada com um p-valor menor que 0,05 denota a probabilidade de que os resultados não são aleatórios (Schwab & Starbuck, 2024). Entretanto, uma supervalorização desse patamar pode distorcer a literatura científica (Amrhein et al., 2019).

A reprodutibilidade é crucial para o progresso científico, mas enfrenta desafios, incluindo clareza teórica, importância substantiva e significância estatística (Moody et al., 2022). Ainda, a má gestão de dados representa uma ameaça à confiabilidade da pesquisa (Bouter, 2023). Estudos revelam que PPQs vêm sendo adotadas de maneira crescente, sendo que muitos acadêmicos paquistaneses (Fahim et al., 2024), e 40% dos pesquisadores noruegueses (Kaiser et al., 2022), por exemplo, admitiram fazer uso dessas práticas. Bottesini et al. (2022) relataram que 74% dos pesquisadores rejeitaram o p-hacking e a HARKing, favorecendo a transparência. Mas, como podemos garantir que nossas práticas de pesquisa em gestão sejam rigorosas e éticas, contribuam para o avanço do conhecimento e evitem armadilhas como p-hacking e HARKing? Este ensaio examina essas PPQs e discute as consequências de ações antiéticas para a integridade científica no campo da gestão.

P-HACKING

O p-hacking prejudica a credibilidade da pesquisa ao manipular análises para obter significância estatística (Elliott et al., 2022), distorcendo os resultados e levando a políticas e decisões equivocadas (Guo & Ma, 2022). As práticas de pesquisa questionáveis (PPQs) ajustam métodos, adicionam controles ou removem outliers post hoc sem justificativa teórica, inflando artificialmente variáveis estatisticamente significativas (Syrjänen, 2023). Ao alterar testes estatísticos, os pesquisadores apresentam resultados não significativos como se fossem significativos (Stefan & Schönbrodt, 2023). P-valores extremamente baixos via p-hacking são raros, mas amplamente difundidos (Bruns & Ioannidis, 2016). A abordagem frequentista tradicional, em que um p-valor abaixo de 0,05 indica significância, incentiva a manipulação para atingir esse ponto de corte (Stefan & Schönbrodt, 2023).

Os métodos bayesianos oferecem uma alternativa complementar aos testes de significância tradicionais, incorporando conhecimento prévio e expressando os resultados como distribuições de probabilidade (Kelter, 2020). A inferência bayesiana é frequentemente vista como uma abordagem complementar aos limiares fixos de p-valor, permitindo a atualização de crenças com novos dados e apoiando interpretações mais sutis (Pereira & Stern, 2022). Mesmo métodos bem conceituados, como as técnicas bayesianas, podem ser vulneráveis ao uso indevido na ausência de transparência e replicabilidade, reforçando a importância do compromisso ético e das práticas de ciência aberta em todas as abordagens.

Na estatística bayesiana, riscos como a má especificação dos priors (distribuições a priori, ou suposições iniciais sobre parâmetros antes da observação dos dados) e a limitação de replicações podem afetar a confiabilidade dos resultados, especialmente em amostras pequenas ou modelos complexos (Banner et al., 2020; Ni & Sun, 2003; Röver et al., 2021; Smid & Winter, 2020). Essas preocupações destacam a importância de relatórios transparentes, da seleção cuidadosa das distribuições a priori e da verificação completa dos modelos. Como todos os priors refletem escolhas subjetivas, justificativas inadequadas ou limitações técnicas na sua implementação podem levar a mal-entendidos ou dificultar a reprodutibilidade (Banner et al., 2020; Merkle et al., 2023). No entanto, vale ressaltar que abordagens bayesianas não garantem imunidade contra o uso indevido. Sem transparência e rigor, elas também podem ser manipuladas, por exemplo, pela seleção de priors inadequados. Quando as especificações das distribuições a priori não são comunicadas claramente, a replicação das análises bayesianas torna-se mais difícil, aumentando o risco de resultados irreprodutíveis (Depaoli & Schoot, 2017). Alguns autores propõem abordagens bayesianas para mitigar a ênfase excessiva em p-valores; contudo, é crucial notar que, sozinho, nenhum método estatístico previne PPQs.

A integridade da pesquisa depende mais da ética do pesquisador do que dos métodos, visto que os incentivos institucionais frequentemente moldam a transparência mais do que as ferramentas estatísticas (Nosek et al., 2015). Conforme observado por Kelter (2020) e Sijtsma (2016), priors tendenciosos em modelos bayesianos e o sobreajuste em regressões frequentistas podem comprometer os resultados. O pré-registro, em que os pesquisadores definem hipóteses e métodos antes da coleta de dados, aumenta a transparência e reduz vieses de relato (Bruton et al., 2020; Promoting reproducibility with registered reports, 2017). A ciência aberta promove a credibilidade por meio do acesso aberto, compartilhamento de dados e uma revisão por pares transparente (Martins & Mendes-da-Silva, 2024). Periódicos que adotam práticas de ciência aberta podem reduzir o viés de publicação e a prática de p-hacking (Brodeur et al., 2024), sendo que integridade da pesquisa requer rigoroso desenho do estudo, replicação, treinamento estatístico e colaboração de especialistas (Sijtsma et al., 2016).

As consequências de p-hacking estendem-se à pesquisa em gestão, resultando em conclusões não confiáveis e desperdício de recursos (Ioannidis, 2022). A ênfase em p-valores em detrimento da replicação prejudica o progresso científico (Barth & Lourenço, 2020) e evidências empíricas revelam sua prevalência: 42% dos pesquisadores admitiram coletar dados extras para alcançar significância estatística (Fraser et al., 2018), enquanto 88% dos pesquisadores italianos admitiram ter adotado ao menos uma PPQ (Agnoli et al., 2017). Práticas transparentes, ciência aberta e educação ética são essenciais para mitigar essas práticas.

Harlow et al. (1997) enfatizam a importância de relatar o poder estatístico, particularmente em estudos com amostras pequenas e propensos a erros do Tipo II. O tamanho do efeito, em vez dos p-valores isoladamente, fornece uma interpretação mais substancial dos resultados. A dependência excessiva de significância estatística leva a conclusões fracas, que frequentemente carecem de relevância científica. A replicação fortalece o desenvolvimento teórico, e a credibilidade científica permanece subutilizada devido a barreiras editoriais e à conscientização limitada entre os pesquisadores (Harlow et al., 1997).

Embora o p-hacking ameace a integridade da pesquisa por meio da manipulação estatística, a prática é frequentemente associada ao HARKing, agravando o desafio do rigor científico. Nesse sentido, pesquisadores que lançam mão de p-hacking podem ajustar hipóteses para corresponder a descobertas significativas (Murphy & Aguinis, 2019), comprometendo a análise estatística e o arcabouço teórico enquanto produzem resultados com maior chance de publicação (Kepes et al., 2022). A análise do HARKing revela como essas práticas minam a investigação científica na pesquisa em administração.

HARKING

A prática de HARKing ocorre quando pesquisadores formulam hipóteses post hoc, apresentando-as como pré-planejadas (Kerr, 1998). Essa deturpação compromete a integridade da pesquisa, levando ao desenvolvimento de políticas enganosas e prejudicando a replicabilidade dos resultados (Limongi, 2024). Adaptar hipóteses aos dados, em vez de testá-los objetivamente, distorce as evidências científicas e reduz a confiabilidade (Baruch, 2023). Para manter a credibilidade, a formulação de hipóteses e a análise de dados devem permanecer separadas.

A transparência nos métodos e o pré-registro são cruciais para distinguir entre estudos confiáveis e tendenciosos. O HARKing implica falsamente que as hipóteses precederam a coleta de dados, priorizando resultados significativos em detrimento de resultados nulos e reduzindo a generalização (Corneille et al., 2023). Combater isso requer o pré-registro de hipóteses e a divulgação completa dos processos analíticos. Revisores e editores desempenham um papel fundamental na aplicação da transparência e na prevenção de relatórios tendenciosos (Blincoe & Buchert, 2020). Essas medidas também abordam a crise de replicação (Balafoutas et al., 2025).

Estudos sobre má conduta indicaram a prevalência de PPQs: até 34% dos pesquisadores admitiram ter adotado ao menos uma PPQ (Fanelli, 2009), e pesquisas com psicólogos nos EUA mostraram HARKing generalizado e coleta de dados post-hoc (John et al., 2012). Da mesma forma, 51% dos pesquisadores relataram descobertas inesperadas como hipóteses pré-planejadas (Fraser et al., 2018). Essa prática inflaciona os tamanhos dos efeitos, distorce a literatura e enfraquece o desenvolvimento teórico (Murphy & Aguinis, 2019). Na pesquisa em gestão, o HARKing corrói a credibilidade, dificulta a replicação e amplia a lacuna entre a academia e a prática (Baruch, 2023; Kepes et al., 2022).

A interação entre p-hacking e HARKing cria uma rede disseminada de PPQs que sistematicamente comprometem a credibilidade da pesquisa em gestão (Murphy & Aguinis, 2019). Essas práticas distorcem os resultados e geram efeitos em cascata: meta-análises não confiáveis, desenvolvimento teórico prejudicado e uma lacuna crescente entre a pesquisa acadêmica e a prática (Kepes et al., 2022). Combinadas com a pressão por publicações e a cultura de “publicar ou perecer” (Dalen, 2021), essas ameaças minam os fundamentos da investigação científica. Como alerta Ioannidis (2005), esse acúmulo de resultados questionáveis pode tornar a maioria das pesquisas publicadas falsas. Lidar com essa conjuntura crítica requer compromisso ético e reforma sistêmica (Bruton et al., 2020).

Com base na discussão anterior, a interação entre HARKing e p-hacking não apenas distorce os resultados científicos, mas também revela falhas sistêmicas mais profundas que vão além da má conduta individual. Portanto, passar da crítica diagnóstica para reformas acionáveis torna-se essencial para restaurar a credibilidade científica e reforçar a integridade da pesquisa no campo da administração.

APRIMORAMENTO DA INTEGRIDADE CIENTÍFICA E DA TRANSPARÊNCIA NA PESQUISA

As práticas de HARKing e p-hacking são frequentemente discutidas dentro do paradigma hipotético-dedutivo, onde as hipóteses precedem a análise dos dados. No entanto, modificações post hoc no modelo são pouco exploradas, envolvendo adequações que ajustam os dados após a análise. Enquanto algumas dessas adequações melhoram a apropriação dos dados, a transparência e a justificativa são cruciais para a integridade da pesquisa. Fatores estruturais influenciam as práticas de pesquisa questionáveis (PPQs), incluindo a) a preferência por resultados inéditos (neofilia); b) o efeito gaveta de arquivo; e c) a pressão editorial por descobertas significativas (Kline, 2023). O uso indevido de p-valores e deixar de lado o tamanho dos efeitos são condutas que contribuem para essas distorções. A integração desses efeitos, dos intervalos de confiança e levar em consideração as análises de poder são medidas que podem aumentar a confiabilidade da pesquisa e mitigar esses problemas.

Abordar as PPQs requer reformas sistêmicas como, por exemplo, demandar a publicação de resultados nulos, análises transparentes e padrões editoriais que enfatizem a replicação. Sarstedt e Adler (2023), propuseram práticas de ciência aberta tais como registro, compartilhamento de dados e métodos bayesianos, para reduzir a dependência excessiva de p-valores. Os autores também destacaram o papel do treinamento, de ferramentas estatísticas (por exemplo, “statcheck” e o “teste GRIM”) e da educação ética na detecção e prevenção da manipulação de dados.

Para evitar sobreajuste e melhorias artificiais, modificações post-hoc no modelo devem ser limitadas na análise fatorial confirmatória. Ajustes excessivos, como a remoção excessiva de variáveis medidas, requerem justificativa teórica e validação com novas amostras (Hair et al., 2014). Modificações significativas frequentemente indicam sobreajuste, produzindo modelos específicos para cada amostra e não generalizáveis (Adler et al., 2023). Práticas de pré-registro e ciência aberta ajudam a mitigar os riscos de sobreajuste, garantindo transparência nas modificações. Ainda, pesquisadores devem documentar as mudanças, fornecer justificativa teórica e validar os modelos revisados usando novos dados e, quando descobertas inesperadas exigem respeito, a transparência nos relatórios atua minimizando o viés e aumentando a validade do modelo (Page et al., 2018). Plataformas como a Open Science Framework (OSF) facilitam o rastreamento de modificações, distinguindo entre ajustes planejados e baseados em dados.

A crise de replicação em psicologia expôs problemas sistêmicos na pesquisa acadêmica (Open Science Collaboration, 2015). Casos de grande repercussão, como as replicações fracassadas do estudo de percepção extrassensorial de Daryl Bem, ilustram como práticas inadequadas distorcem a credibilidade científica (Galak et al., 2012). Livros como Science Fiction (Ritchie, 2020) e Seven Deadly Sins of Psychology (Chambers, 2017) exploram os fatores estruturais mais amplos que sustentam esses problemas.

Na prática científica, muitas descobertas metodologicamente fracas ou irrelevantes passaram despercebidas por anos, enquanto estudos com alta visibilidade rapidamente se tornam o foco de tentativas de replicação e escrutínio público. Essa dinâmica pós-publicação desempenha um papel vital na validação científica, como ilustrado pelo caso do estudo de percepção extrassensorial de Daryl Bem (Galak et al., 2012), cujos resultados foram amplamente contestados e não foram replicados. Enfrentar esses desafios exige rigor metodológico, transparência e reformas sistêmicas na prática de pesquisa. Embora os revisores por pares atuem como um filtro de controle de qualidade, seu papel nem sempre é suficiente para impedir a publicação de estudos com PPQs, especialmente quando tais estudos se alinham com narrativas dominantes ou apresentam achados “interessantes”.

Promover a integridade e a transparência na pesquisa também requer uma reflexão teórica mais ampla sobre como a credibilidade científica é socialmente construída e sustentada. Essa credibilidade não é apenas um fato técnico, mas é socialmente construída por meio de normas, justificativas e práticas de transparência, que exigem reflexão teórica e comunitária (Banner et al., 2020; Depaoli & Schoot, 2017; Merkle et al., 2023). O sistema de revisão por pares, embora essencial, não pode ser concebido como um mecanismo de validação neutro ou infalível (Atherton et al., 2024). Ela não opera de forma neutra, mas sim dentro de uma teia de julgamentos socialmente construídos, onde fatores como prestígio institucional, familiaridade temática e diversidade de avaliadores influenciam quais estudos ganham destaque, são replicados ou permanecem marginais ao debate científico.

A comunidade científica desempenha um papel duplo: controlar a publicação antes da publicação e filtrar o que se torna conhecimento aceito posteriormente. A correção de erros e a exposição de PPQs frequentemente dependem mais da visibilidade das descobertas do que de procedimentos formais. Assim, promover a ciência responsável requer não apenas soluções técnicas, mas também uma reconfiguração sistêmica de como a confiança, a responsabilização e a legitimidade epistêmica são distribuídas. Essa assimetria destaca um paradoxo central no processo de validação científica. Estudos com baixa visibilidade, mesmo que marcados por fragilidades metodológicas ou pelo uso de práticas questionáveis, ganham notoriedade; por outro lado, estudos com repercussões significativas tornam-se alvo de replicação e crítica somente após alcançarem ampla disseminação (Merkle et al., 2023). Pesquisa sobre liderança transformacional, comportamento organizacional e estratégias de motivação, por exemplo, tem sido criticado por sua solidez metodológica e pela robustez das descobertas (Hensel, 2021).

O escrutínio científico frequentemente depende do impacto percebido, não apenas da qualidade metodológica. Aliado a isso, a preferência editorial por resultados estatisticamente significativos e narrativas inovadoras reforça uma lógica de visibilidade que pode obscurecer uma avaliação rigorosa, como apontam Depaoli e Schoot (2017) e Banner et al. (2020). Portanto, o fortalecimento da integridade científica requer mecanismos que promovam a revisão crítica e a replicação, independentemente do prestígio ou apelo dos resultados.

REFLEXÃO, CRÍTICA E RECOMENDAÇÕES

As práticas de pesquisa questionáveis (PPQs) impactam significativamente o progresso científico, reduzindo a reprodutibilidade e a credibilidade da pesquisa (Ioannidis, 2005). As práticas de HARKing e p-hacking minam a confiabilidade da literatura, enganam formuladores de políticas e desperdiçam recursos com resultados falso-positivos (Nosek et al., 2015). Essas práticas corroem a confiança pública, o que, por sua vez, afeta o financiamento e o papel da ciência como fonte confiável de conhecimento. Além disso, comprometem meta-análises e revisões sistemáticas ao distorcer resultados agregados (Simmons et al., 2011).

Abordar PPQs como p-hacking e HARKing requer mudanças sistêmicas, incluindo transparência, pré-registro e compartilhamento aberto de dados. Adler et al. (2023) enfatizaram a importância do pré-registro estruturado, que abrange o desenho do estudo, os métodos de análise e o relato de desvios. Tais estruturas aumentam a replicabilidade e a responsabilização, particularmente para PLS-SEM. No entanto, a ênfase acadêmica na quantidade de publicações em detrimento da qualidade fomenta PPQs, demonstrando a necessidade de educação ética em programas de pós-graduação (Simmons et al., 2011). A integração de cursos de integridade em pesquisa pode incutir práticas responsáveis e mitigar distorções metodológicas (Honig et al., 2018).

Plataformas como o Open Science Framework (OSF) e AsPredicted apoiam a transparência, permitindo o pré-registro e distinguindo análises exploratórias das confirmatórias. Os currículos de pós-graduação devem incorporar workshops práticos para demonstrar essas ferramentas e promover uma cultura de ciência aberta (Limongi & Marcolin, 2024). Relatórios transparentes, incluindo justificativas para modificações no modelo, previnem o sobreajuste e garantem a consistência teórica (Adler et al., 2023). A crise de replicação destaca a necessidade de tais reformas (Open Science Collaboration, 2015).

Pesquisadores frequentemente não reconhecem as PPQs como problemáticos (Linder & Farahbakhsh, 2020). No entanto, a supervisão sistêmica, com auditorias e verificações estatísticas, pode impedir práticas inadequadas (Bottesini et al., 2022; Bouter, 2023). Ainda, alinhar os incentivos à pesquisa com as práticas éticas é crucial para manter a credibilidade e avançar o conhecimento (Sijtsma, 2016), e as instituições devem promover a transparência dos dados, o rigor metodológico e a responsabilização para melhorar a qualidade da pesquisa e sua aplicação na tomada de decisões gerenciais (Harvey & Liu, 2021).

Iniciativas de ciência aberta abordam as PPQs incentivando a divulgação completa dos resultados e reduzindo o viés de publicação (Neoh et al., 2023). O pré-registro de estudos e o compartilhamento de dados aumentam a transparência e fortalecem a integridade científica (Akker et al., 2023), enquanto escolas de negócios e instituições acadêmicas estão adotando cada vez mais essas reformas, promovendo um ambiente que valoriza a liberdade de pesquisa juntamente com a responsabilidade (Miller et al., 2024; Tsui, 2022).

Hu et al. (2023) defenderam maior transparência no desenvolvimento de modelos e na análise estatística para combater resultados inflacionados. A supervisão estatística, como o envolvimento de estatísticos em equipes de pesquisa, reduz erros e melhora a validade dos resultados (Sijtsma, 2016). Garantir clareza nas revisões por meio de estruturas como o PRISMA aumenta a reprodutibilidade e minimiza vieses (Page et al., 2021). Editores e revisores também devem avaliar se as hipóteses são robustas ou derivadas de PPQs para promover um ambiente acadêmico mais confiável.

A educação em nível de pós-graduação é vital para a integridade da pesquisa, pois aborda as práticas de p-hacking, HARKing e preocupações com a reprodutibilidade. Treinamento prático, estudos de caso e índices de transparência podem ajudar os alunos a reconhecer e evitar PPQs (Limongi, 2024). Ensinar o valor de resultados nulos também é essencial, visto que a pesquisa frequentemente superestima p-valores significativos, negligenciando os tamanhos de efeito (Rigdon, 2023). Uma mudança em direção a relatórios estatísticos abrangentes aumentará a robustez e a aplicabilidade das descobertas científicas.

Apesar das vulnerabilidades sistêmicas, a revisão por pares e o escrutínio comunitário preservam a integridade científica, mas artigos que utilizam PPQs podem passar despercebidos, a menos que suas descobertas sejam impactantes, levando ao escrutínio e à replicação pós-publicação. Essa função de filtragem, embora imperfeita, ajuda a ciência a se autocorrigir e priorizar os avanços no conhecimento (Bruns & Ioannidis, 2016; Nosek et al., 2015). Esse caso emblemático destaca a importância do escrutínio pós-publicação como um complemento à revisão por pares tradicional, refletindo a natureza autocorretiva da ciência, que se baseia no ceticismo organizado. Na pesquisa em gestão, onde as descobertas frequentemente reivindicam relevância prática, essa filtragem coletiva torna-se essencial para distinguir contribuições impactantes de resultados enganosos.

Portanto, aprimorar a integridade da pesquisa requer o fortalecimento da avaliação coletiva e a promoção da abertura, o que permite a crítica, a replicação e a responsabilização. Embora as PPQs continuem prevalentes, reformas educacionais e institucionais podem reduzir seu impacto. A crise de replicação representa uma oportunidade para refinar a metodologia e aumentar a credibilidade científica (Frias-Navarro et al., 2020). O engajamento crítico, a transparência nos relatórios e os padrões metodológicos rigorosos fortalecem a confiabilidade da pesquisa e garantem contribuições significativas para o conhecimento (Bühner et al., 2022).

  • O relatório de revisão por pares está disponível neste link
  • Avaliadores: Diogenes de Souza Bido , Universidade Presbiteriana Mackenzie, Centro de Ciências Sociais e Aplicadas, São Paulo, SP, Brasil. Leonardo Vils https://orcid.org/0000-0003-3059-1967 , Universidade Nove de Julho, Programa de Pós-Graduação em Administração, São Paulo, SP, Brasil. O/A terceiro/a avaliador/a não autorizou a
  • Avaliado pelo sistema de revisão duplo-anônimo. Editor Associado ad hoc: Marcelo Luiz Dias da Silva Gabriel
  • FINANCIAMENTO
    Este estudo foi financiado em parte pela Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - Brasil (CAPES) - Código de Financiamento 001.
    Os autores agradecem à Fundação de Apoio à Pesquisa do Estado de Goiás (FAPEG) pelo apoio financeiro concedido para o desenvolvimento desta pesquisa.

AGRADECIMENTOS

Os autores agradecem ao Instituto Federal Goiano e ao Grupo de Pesquisa em Saúde da Criança e do Adolescente (GPSaCA - https://www.gpsaca.com.br) pelo apoio a este estudo.

Os autores agradecem à Universidade Federal de Goiás e ao Grupo de Pesquisa AJUS - UFG pelo apoio a este estudo.

DISPONIBILIDADE DOS DADOS

Não aplicável. Este manuscrito é uma pensata e não envolve a geração ou análise de conjuntos de dados.

Referências bibliográficas

  • Adler, S. J., Sharma, P. N., & Radomir, L. (2023). Toward open science in PLS-SEM: Assessing the state of the art and future perspectives. Journal of Business Research, 169, 114291. https://doi.org/10.1016/j.jbusres.2023.114291
    » https://doi.org/10.1016/j.jbusres.2023.114291
  • Agnoli, F., Wicherts, J. M., Veldkamp, C. L. S., Albiero, P., & Cubelli, R. (2017). Questionable research practices among italian research psychologists. PLOS ONE, 12(3), e0172792. https://doi.org/10.1371/journal.pone.0172792
    » https://doi.org/10.1371/journal.pone.0172792
  • Aguinis, H., Banks, G. C., Rogelberg, S. G., & Cascio, W. F. (2020). Actionable recommendations for narrowing the science-practice gap in open science. Organizational Behavior and Human Decision Processes, 158, 27-35. https://doi.org/10.1016/j.obhdp.2020.02.007
    » https://doi.org/10.1016/j.obhdp.2020.02.007
  • Akker, O. R. van der, Assen, M. A. L. M. van, Bakker, M., Elsherif, M., Wong, T. K., & Wicherts, J. M. (2023). Preregistration in practice: A comparison of preregistered and non-preregistered studies in psychology. Behavior Research Methods, 56, 5424-5433 https://doi.org/10.3758/s13428-023-02277-0
    » https://doi.org/10.3758/s13428-023-02277-0
  • Amrhein, V., Greenland, S., & McShane, B. (2019). Scientists rise up against statistical significance. Nature, 567(7748), 305-307. https://doi.org/10.1038/d41586-019-00857-9
    » https://doi.org/10.1038/d41586-019-00857-9
  • Atherton, O. E., Westberg, D. W., Perkins, V., Lawson, K. M., Jeftic, A., Jayawickreme, E., Zhang, S., Hu, Z., McLean, K. C., Bottesini, J. G., Syed, M., & Chung, J. M. (2024). Examining personality psychology to unpack the peer review system: Towards a more diverse, inclusive, and equitable psychological science. European Journal of Personality, 0(0) 1-27 https://doi.org/10.1177/08902070241301629
    » https://doi.org/10.1177/08902070241301629
  • Balafoutas, L., Celse, J., Karakostas, A., & Umashev, N. (2025). Incentives and the replication crisis in social sciences: A critical review of open science practices. Journal of Behavioral and Experimental Economics, 114, 102327. https://doi.org/10.1016/j.socec.2024.102327
    » https://doi.org/10.1016/j.socec.2024.102327
  • Banner, K. M., Irvine, K. M., & Rodhouse, T. J. (2020). The use of Bayesian priors in Ecology: The good, the bad and the not great. Methods in Ecology and Evolution, 11(8), 882-889. https://doi.org/10.1111/2041-210X.13407
    » https://doi.org/10.1111/2041-210X.13407
  • Barth, N. L., & Lourenço, C. E. (2020). O P ainda tem valor? RAE-Revista de Administração de Empresas, 60(3), 235-241. https://doi.org/10.1590/s0034-759020200306
    » https://doi.org/10.1590/s0034-759020200306
  • Baruch, Y. (2023). HARKing can be good for science: Why, when, and how c/should we hypothesizing after results are known or proposing research questions after results are known. Human Resource Management Journal, 34(4), 865-878 https://doi.org/10.1111/1748-8583.12534
    » https://doi.org/10.1111/1748-8583.12534
  • Blincoe, S., & Buchert, S. (2020). Research preregistration as a teaching and learning tool in undergraduate psychology courses. Psychology Learning & Teaching, 19(1), 107-115. https://doi.org/10.1177/1475725719875844
    » https://doi.org/10.1177/1475725719875844
  • Bottesini, J. G., Rhemtulla, M., & Vazire, S. (2022). What do participants think of our research practices? An examination of behavioural psychology participants’ preferences. Royal Society Open Science, 9(4), 1-24. https://doi.org/10.1098/rsos.200048
    » https://doi.org/10.1098/rsos.200048
  • Bouter, L. (2023). Research misconduct and questionable research practices form a continuum. Accountability in Research, 31(8), 1255-1259. https://doi.org/10.1080/08989621.2023.2185141
    » https://doi.org/10.1080/08989621.2023.2185141
  • Brodeur, A., Cook, N., & Neisser, C. (2024). P-Hacking, data type and data-sharing policy. The Economic Journal, 134(659), 985-1018. https://doi.org/10.1093/ej/uead104
    » https://doi.org/10.1093/ej/uead104
  • Bruns, S. B., & Ioannidis, J. P. A. (2016). P-Curve and p-hacking in observational research. PLOS ONE, 11(2), e0149144. https://doi.org/10.1371/journal.pone.0149144
    » https://doi.org/10.1371/journal.pone.0149144
  • Bruton, S. V., Medlin, M., Brown, M., & Sacco, D. F. (2020). Personal motivations and systemic incentives: Scientists on questionable research practices. Science and Engineering Ethics, 26(3), 1531-1547. https://doi.org/10.1007/s11948-020-00182-9
    » https://doi.org/10.1007/s11948-020-00182-9
  • Bühner, M., Schubert, A.-L., Bermeitinger, C., Bölte, J., Fiebach, C., Renner, K.-H., & Schulz-Hardt, S. (2022). DGPs-Vorstand. Der Kulturwandel in unserer Forschung muss in der Ausbildung unserer Studierenden beginnen. Psychologische Rundschau, 73(1), 18-20. https://doi.org/10.1026/0033-3042/a000563
    » https://doi.org/10.1026/0033-3042/a000563
  • Chambers, C. (2017). The seven deadly sins of psychology: A manifesto for reforming the culture of scientific practice Princeton University Press.
  • Corneille, O., Havemann, J., Henderson, E. L., IJzerman, H., Hussey, I., Xivry, J.-J. O. de, Jussim, L., Holmes, N. P., Pilacinski, A., Beffara, B., Carroll, H., Outa, N. O., Lush, P., & Lotter, L. D. (2023). Beware ‘persuasive communication devices’ when writing and reading scientific articles. ELife, 12, 1-6 https://doi.org/10.7554/eLife.88654
    » https://doi.org/10.7554/eLife.88654
  • Dalen, H. P. van. (2021). How the publish-or-perish principle divides a science: the case of economists. Scientometrics, 126(2), 1675-1694. https://doi.org/10.1007/s11192-020-03786-x
    » https://doi.org/10.1007/s11192-020-03786-x
  • Depaoli, S., & Schoot, R. van de. (2017). Supplemental material for improving transparency and replication in bayesian statistics: The WAMBS-Checklist. Psychological Methods, 22(2), 240-261 https://doi.org/10.1037/met0000065.supp
    » https://doi.org/10.1037/met0000065.supp
  • Elliott, G., Kudrin, N., & Wüthrich, K. (2022). Detecting p -hacking. Econometrica, 90(2), 887-906. https://doi.org/10.3982/ECTA18583
    » https://doi.org/10.3982/ECTA18583
  • Fahim, A., Sadaf, A., Jafari, F. H., Siddique, K., & Sethi, A. (2024). Questionable research practices of medical and dental faculty in Pakistan: A confession. BMC Medical Ethics, 25(1), 11. https://doi.org/10.1186/s12910-024-01004-4
    » https://doi.org/10.1186/s12910-024-01004-4
  • Fanelli, D. (2009). How many scientists fabricate and falsify research? A systematic review and meta-analysis of survey data. PLoS ONE, 4(5), e5738. https://doi.org/10.1371/journal.pone.0005738
    » https://doi.org/10.1371/journal.pone.0005738
  • Fraser, H., Parker, T., Nakagawa, S., Barnett, A., & Fidler, F. (2018). Questionable research practices in ecology and evolution. PLOS ONE, 13(7), e0200303. https://doi.org/10.1371/journal.pone.0200303
    » https://doi.org/10.1371/journal.pone.0200303
  • Frias-Navarro, D., Pascual-Llobell, J., Pascual-Soler, M., Perezgonzalez, J., & Berrios-Riquelme, J. (2020). Replication crisis or an opportunity to improve scientific production? European Journal of Education, 55(4), 618-631. https://doi.org/10.1111/ejed.12417
    » https://doi.org/10.1111/ejed.12417
  • Galak, J., LeBoeuf, R. A., Nelson, L. D., & Simmons, J. P. (2012). Correcting the past: Failures to replicate psi. Journal of Personality and Social Psychology, 103(6), 933-948. https://doi.org/10.1037/a0029709
    » https://doi.org/10.1037/a0029709
  • Guo, D., & Ma, Y. (2022). The “p-hacking-is-terrific” ocean: A cartoon for teaching statistics. Teaching Statistics, 44(2), 68-72. https://doi.org/10.1111/test.12305
    » https://doi.org/10.1111/test.12305
  • Hair, J. F., Jr., Black, W. C., Babin, B. J., & Anderson, R. E. (2014). Multivariate data analysis (7th ed.). Prentice Hall.
  • Hankin, C. (2014). Bullseyes Charlie Hankin.
  • Harlow, L. L., Mulaik, S. A., & Steiger, J. H. (Eds.). (1997). What if there were no significance tests? Psychology Press.
  • Harvey, C. R., & Liu, Y. (2021). Uncovering the iceberg from its tip: A model of publication bias and p-hacking. SSRN Electronic Journal . https://doi.org/10.2139/ssrn.3865813
    » https://doi.org/10.2139/ssrn.3865813
  • Hensel, P. G. (2021). Reproducibility and replicability crisis: How management compares to psychology and economics - A systematic review of literature. European Management Journal, 39(5), 577-594. https://doi.org/10.1016/j.emj.2021.01.002
    » https://doi.org/10.1016/j.emj.2021.01.002
  • Honig, B., Lampel, J., Baum, J. A. C., Glynn, M. A., Jing, R., Lounsbury, M., Schüßler, E., Sirmon, D. G., Tsui, A. S., Walsh, J. P., & Witteloostuijn, A. van. (2018). Reflections on scientific misconduct in management: Unfortunate incidents or a normative crisis? Academy of Management Perspectives, 32(4), 412-442. https://doi.org/10.5465/amp.2015.0167
    » https://doi.org/10.5465/amp.2015.0167
  • Hu, H., Moody, G., & Galletta, D. (2023). HARKing and p-hacking: A call for more transparent reporting of studies in the information systems field. Communications of the Association for Information Systems, 52, 853-876. https://doi.org/10.17705/1CAIS.05241
    » https://doi.org/10.17705/1CAIS.05241
  • Huang, J., & Wang, Y. (2023). Examining Chinese social sciences graduate students’ understanding of research ethics: Implications for their research ethics education. Humanities and Social Sciences Communications, 10(1), 487. https://doi.org/10.1057/s41599-023-02000-6
    » https://doi.org/10.1057/s41599-023-02000-6
  • Hudson, R. (2024). Responding to incentives or gaming the system? How UK business academics respond to the Academic Journal Guide. Research Policy, 53(9), 105082. https://doi.org/10.1016/j.respol.2024.105082
    » https://doi.org/10.1016/j.respol.2024.105082
  • Ioannidis, J. P. A. (2005). Why most published research findings are false. PLoS Medicine, 2(8), e124. https://doi.org/10.1371/journal.pmed.0020124
    » https://doi.org/10.1371/journal.pmed.0020124
  • Ioannidis, J. P. A. (2022). Correction: Why most published research findings are false. PLOS Medicine, 19(8), e1004085. https://doi.org/10.1371/journal.pmed.1004085
    » https://doi.org/10.1371/journal.pmed.1004085
  • John, L. K., Loewenstein, G., & Prelec, D. (2012). Measuring the prevalence of questionable research practices with incentives for truth telling. Psychological Science, 23(5), 524-532. https://doi.org/10.1177/0956797611430953
    » https://doi.org/10.1177/0956797611430953
  • Kaiser, M., Drivdal, L., Hjellbrekke, J., Ingierd, H., & Rekdal, O. B. (2022). Questionable research practices and misconduct among Norwegian researchers. Science and Engineering Ethics, 28(1), 2. https://doi.org/10.1007/s11948-021-00351-4
    » https://doi.org/10.1007/s11948-021-00351-4
  • Kelter, R. (2020). Analysis of Bayesian posterior significance and effect size indices for the two-sample t-test to support reproducible medical research. BMC Medical Research Methodology, 20(1), 88. https://doi.org/10.1186/s12874-020-00968-2
    » https://doi.org/10.1186/s12874-020-00968-2
  • Kepes, S., Keener, S. K., McDaniel, M. A., & Hartman, N. S. (2022). Questionable research practices among researchers in the most research-productive management programs. Journal of Organizational Behavior, 43(7), 1190-1208. https://doi.org/10.1002/job.2623
    » https://doi.org/10.1002/job.2623
  • Kerr, N. L. (1998). HARKing: Hypothesizing after the results are known. Personality and Social Psychology Review, 2(3), 196-217. https://doi.org/10.1207/s15327957pspr0203_4
    » https://doi.org/10.1207/s15327957pspr0203_4
  • Kline, R. B. (2023). Principles and practice of structural equation modeling (5th ed.). The Guilford Press.
  • Limongi, R. (2024). The use of artificial intelligence in scientific research with integrity and ethics. Future Studies Research Journal: Trends and Strategies, 16(1), e845. https://doi.org/10.24023/FutureJournal/2175-5825/2024.v16i1.845
    » https://doi.org/10.24023/FutureJournal/2175-5825/2024.v16i1.845
  • Limongi, R., & Marcolin, C. B. (2024). AI literacy research: Frontier for high-impact research and ethics. BAR - Brazilian Administration Review, 21(3), 1-5. https://doi.org/10.1590/1807-7692bar2024240162
    » https://doi.org/10.1590/1807-7692bar2024240162
  • Linder, C., & Farahbakhsh, S. (2020). Unfolding the black box of questionable research practices: Where is the line between acceptable and unacceptable practices? Business Ethics Quarterly, 30(3), 335-360. https://doi.org/10.1017/beq.2019.52
    » https://doi.org/10.1017/beq.2019.52
  • Martins, H. C., & Mendes-da-Silva, W. (2024). Ciência aberta na RAE: Quais os próximos passos? RAE-Revista de Administração de Empresas, 64(4), 1-6. https://doi.org/10.1590/s0034-759020240407
    » https://doi.org/10.1590/s0034-759020240407
  • Merkle, E. C., Ariyo, O., Winter, S. D., & Garnier-Villarreal, M. (2023). Opaque prior distributions in Bayesian latent variable models. Methodology, 19(3), 228-255. https://doi.org/10.5964/meth.11167
    » https://doi.org/10.5964/meth.11167
  • Miller, S. R., Moore, F., & Eden, L. (2024). Ethics and international business research: Considerations and best practices. International Business Review, 33(1), 102207. https://doi.org/10.1016/j.ibusrev.2023.102207
    » https://doi.org/10.1016/j.ibusrev.2023.102207
  • Moody, J. W., Keister, L. A., & Ramos, M. C. (2022). Reproducibility in the social sciences. Annual Review of Sociology, 48(1), 65-85. https://doi.org/10.1146/annurev-soc-090221-035954
    » https://doi.org/10.1146/annurev-soc-090221-035954
  • Murphy, K. R., & Aguinis, H. (2019). HARKing: How badly can cherry-picking and question trolling produce bias in published results? Journal of Business and Psychology, 34(1), 1-17. https://doi.org/10.1007/s10869-017-9524-7
    » https://doi.org/10.1007/s10869-017-9524-7
  • Nair, L. B., & Ascani, A. (2022). Addressing low-profile misconduct in management academia through theoretical triangulation and transformative ethics education. The International Journal of Management Education, 20(3), 100728. https://doi.org/10.1016/j.ijme.2022.100728
    » https://doi.org/10.1016/j.ijme.2022.100728
  • National Academies of Sciences, Engineering, and Medicine (2017). Fostering integrity in research The National Academies Press.
  • Neoh, M. J. Y., Carollo, A., Lee, A., & Esposito, G. (2023). Fifty years of research on questionable research practises in science: Quantitative analysis of co-citation patterns. Royal Society Open Science, 10(10), 1-14. https://doi.org/10.1098/rsos.230677
    » https://doi.org/10.1098/rsos.230677
  • Ni, S., & Sun, D. (2003). Noninformative priors and frequentist risks of Bayesian estimators of vector-autoregressive models. Journal of Econometrics, 115(1), 159-197. https://doi.org/10.1016/S0304-4076(03)00099-X
    » https://doi.org/10.1016/S0304-4076(03)00099-X
  • Nosek, B. A., Alter, G., Banks, G. C., Borsboom, D., Bowman, S. D., Breckler, S. J., Buck, S., Chambers, C. D., Chin, G., Christensen, G., Contestabile, M., Dafoe, A., Eich, E., Freese, J., Glennerster, R., Goroff, D., Green, D. P., Hesse, B., Humphreys, M., … Yarkoni, T. (2015). Promoting an open research culture. Science, 348(6242), 1422-1425. https://doi.org/10.1126/science.aab2374
    » https://doi.org/10.1126/science.aab2374
  • Open Science Collaboration. (2015). Estimating the reproducibility of psychological science. Science, 349(6251), 943-951. https://doi.org/10.1126/science.aac4716
    » https://doi.org/10.1126/science.aac4716
  • Page, M. J., Moher, D., Bossuyt, P. M., Boutron, I., Hoffmann, T. C., Mulrow, C. D., Shamseer, L., Tetzlaff, J. M., Akl, E. A., Brennan, S. E., Chou, R., Glanville, J., Grimshaw, J. M., Hróbjartsson, A., Lalu, M. M., Li, T., Loder, E. W., Mayo-Wilson, E., McDonald, S., … McKenzie, J. E. (2021). PRISMA 2020 explanation and elaboration: Updated guidance and exemplars for reporting systematic reviews. BMJ, 372 (160), 1-36. https://doi.org/10.1136/bmj.n160
    » https://doi.org/10.1136/bmj.n160
  • Page, M. J., Shamseer, L., & Tricco, A. C. (2018). Registration of systematic reviews in PROSPERO: 30,000 records and counting. Systematic Reviews, 7(1), 32. https://doi.org/10.1186/s13643-018-0699-4
    » https://doi.org/10.1186/s13643-018-0699-4
  • Pereira, C. A. B., & Stern, J. M. (2022). The e-value: A fully Bayesian significance measure for precise statistical hypotheses and its research program. São Paulo Journal of Mathematical Sciences, 16(1), 566-584. https://doi.org/10.1007/s40863-020-00171-7
    » https://doi.org/10.1007/s40863-020-00171-7
  • Popper, K. (2017). Logik der Forschung (The Logic of Scientific Discovery) Verlag von Julius Springer.
  • Promoting reproducibility with registered reports. (2017) Nature Human Behaviour, 1(1), 34. https://doi.org/10.1038/s41562-016-0034
    » https://doi.org/10.1038/s41562-016-0034
  • Rigdon, E. E. (2023). How improper dichotomization and the misrepresentation of uncertainty undermine social science research. Journal of Business Research, 165, 114086. https://doi.org/10.1016/j.jbusres.2023.114086
    » https://doi.org/10.1016/j.jbusres.2023.114086
  • Ritchie, S. (2020). Science fictions: How fraud, bias, negligence, and hype undermine the search for truth Metropolitan Books.
  • Röver, C., Bender, R., Dias, S., Schmid, C. H., Schmidli, H., Sturtz, S., Weber, S., & Friede, T. (2021). On weakly informative prior distributions for the heterogeneity parameter in Bayesian random-effects meta-analysis. Research Synthesis Methods, 12(4), 448-474. https://doi.org/10.1002/jrsm.1475
    » https://doi.org/10.1002/jrsm.1475
  • Sarstedt, M., & Adler, S. J. (2023). An advanced method to streamline p-hacking. Journal of Business Research, 163, 113942. https://doi.org/10.1016/j.jbusres.2023.113942
    » https://doi.org/10.1016/j.jbusres.2023.113942
  • Schwab, A., & Starbuck, W. H. (2024). How Muriel’s Tea stained management research through statistical significance tests. Journal of Management Inquiry, 34(2), 226-230. https://doi.org/10.1177/10564926241257164
    » https://doi.org/10.1177/10564926241257164
  • Sijtsma, K. (2016). Playing with data: Or how to discourage questionable research practices and stimulate researchers to do things right. Psychometrika, 81(1), 1-15. https://doi.org/10.1007/s11336-015-9446-0
    » https://doi.org/10.1007/s11336-015-9446-0
  • Sijtsma, K., Veldkamp, C. L. S., & Wicherts, J. M. (2016). Improving the conduct and reporting of statistical analysis in psychology. Psychometrika, 81(1), 33-38. https://doi.org/10.1007/s11336-015-9444-2
    » https://doi.org/10.1007/s11336-015-9444-2
  • Simmons, J. P., Nelson, L. D., & Simonsohn, U. (2011). False-positive psychology. Psychological Science, 22(11), 1359-1366. https://doi.org/10.1177/0956797611417632
    » https://doi.org/10.1177/0956797611417632
  • Smid, S. C., & Winter, S. D. (2020). Dangers of the defaults: A tutorial on the impact of default priors when using Bayesian SEM with small samples. Frontiers in Psychology, 11, 1-11. https://doi.org/10.3389/fpsyg.2020.611963
    » https://doi.org/10.3389/fpsyg.2020.611963
  • Speicher, P. J. (2021). Commentary: Statistical adjustment disorder - The limits of propensity scores. The Journal of Thoracic and Cardiovascular Surgery, 162(4), 1255-1256. https://doi.org/10.1016/j.jtcvs.2020.10.104
    » https://doi.org/10.1016/j.jtcvs.2020.10.104
  • Stefan, A. M., & Schönbrodt, F. D. (2023). Big little lies: A compendium and simulation of p-Hacking strategies. Royal Society Open Science, 10(2), 1-30. https://doi.org/10.1098/rsos.220346
    » https://doi.org/10.1098/rsos.220346
  • Syrjänen, P. (2023). Novel prediction and the problem of low-quality accommodation. Synthese, 202(6), 182. https://doi.org/10.1007/s11229-023-04400-2
    » https://doi.org/10.1007/s11229-023-04400-2
  • Tsui, A. S. (2022). From traditional research to responsible research: The necessity of scientific freedom and scientific responsibility for better societies. Annual Review of Organizational Psychology and Organizational Behavior, 9(1), 1-32. https://doi.org/10.1146/annurev-orgpsych-062021-021303
    » https://doi.org/10.1146/annurev-orgpsych-062021-021303
  • Wood, T., Souza, R., & Caldas, M. P. (2022). The relevance of management research debate: A historical view, 1876-2018. Journal of Management History, 28(3), 409-427. https://doi.org/10.1108/JMH-10-2021-0056
    » https://doi.org/10.1108/JMH-10-2021-0056
  • Zhao, R., Li, Z., & Huang, Y. (2021). Correlation research on the practice of school administrative ethics and teachers’ job morale and job involvement. Revista de Cercetare Si Interventie Sociala, 72, 44-55. https://doi.org/10.33788/rcis.72.3
    » https://doi.org/10.33788/rcis.72.3

Datas de Publicação

  • Publicação nesta coleção
    28 Nov 2025
  • Data do Fascículo
    2025

Histórico

  • Recebido
    26 Ago 2024
  • Aceito
    14 Ago 2025
location_on
Fundação Getulio Vargas, Escola de Administração de Empresas de S.Paulo Avenida Nove de Julho, 2.029, Bela Vista, CEP: 01313-902, Telefone: +55 (11) 3799-7718 - São Paulo - SP - Brazil
E-mail: rae@fgv.br
rss_feed Acompanhe os números deste periódico no seu leitor de RSS
Reportar erro