Acessibilidade / Reportar erro

Fidedignidade de indicadores de qualidade do cuidado de enfermagem: testando a concordância e confiabilidade interavaliadores1 1 Artigo extraído da tese de doutorado "Avaliação como princípio da Gestão da Qualidade Total: testando a confiabilidade interavaliadores de indicadores de qualidade da assistência de enfermagem" apresentada à Escola de Enfermagem de Ribeirão Preto, Universidade de São Paulo, Centro Colaborador da OMS para o Desenvolvimento da Pesquisa em Enfermagem, Ribeirão Preto, SP, Brasil

Resumos

OBJETIVO:

testar a concordância e confiabilidade interavaliadores de quinze indicadores de qualidade da assistência de enfermagem.

MÉTODO:

pesquisa quantitativa, metodológica, experimental e aplicada, realizada em um hospital terciário, de grande porte, de ensino público do Estado do Paraná. No tratamento dos dados foi utilizada a estatística Kappa para análise das variáveis categóricas - indicadores de 1 a 11 e 15; e o coeficiente de correlação interclasses para as variáveis contínuas - indicadores 12, 13 e 14, considerando-se o intervalo de confiança de 95%. Os dados categóricos foram tratados utilizando-se o software Lee, do Laboratório de Epidemiologia e Estatística do Instituto Dante Pazzanese de Cardiologia - Brasil e os dados contínuos pelo software BioEstat 5.0.

RESULTADOS:

os resultados pela aplicação da estatística Kappa demonstraram excelente grau de concordância, estatisticamente significante; os valores obtidos para o coeficiente de correlação interclasses denotaram reprodutibilidade/concordância excelente e estatisticamente significante para os indicadores avaliados.

CONCLUSÃO:

os indicadores apresentam excelente confiabilidade e reprodutibilidade, o que evidencia que o desenvolvimento de instrumentos de avaliação válidos e fidedignos é possível, além de imprescindível para gerenciamento da assistência de enfermagem.

Enfermagem; Auditoria de Enfermagem; Indicadores de Qualidade em Assistência à Saúde; Estudos de Validação como Assunto; Reprodutibilidade dos Testes


OBJECTIVE:

this study sought to test the interexaminer agreement and reliability of 15 indicators of nursing care quality.

METHODS:

this was a quantitative, methodological, experimental, and applied study conducted at a large, tertiary, public teaching hospital in the state of Paraná. For data analysis, the Kappa (k) statistic was applied to the categorical variables - indicators 1 to 11 and 15 - and the interclass correlation coefficient (ICC) to the continuous variables - indicators 12, 13, and 14, with the corresponding 95% confidence intervals. The categorical data were analyzed using the Lee software, elaborated by the Laboratory of Epidemiology and Statistics of Dante Pazzanese Institute of Cardiology - Brazil, and the continuous data were assessed using BioEstat 5.0.

RESULTS:

the k-statistic results indicated excellent agreement, which was statistically significant, and the values of the ICC denoted excellent and statistically significant reproducibility/agreement relative to the investigated indicators.

CONCLUSION:

the investigated indicators exhibited excellent reliability and reproducibility, thus showing that it is possible to formulate valid and reliable assessment instruments for the management of nursing care.

Nursing; Nursing Audit; Quality Indicators, Health Care; Validation Studies as Topic; Reproducibility of Results


OBJETIVO:

comprobar la concordancia y fiabilidad entre evaluadores de quince indicadores de calidad de la asistencia de enfermería.

MÉTODO:

investigación cuantitativa, metodológica, experimental y aplicada, realizada en un hospital terciario, de gran porte, público de enseñanza del estado del Paraná. En el tratamiento de los datos fue utilizada la estadística Kappa para el análisis de las variables categóricas - indicadores de 1 a 11 y 15; y el Coeficiente de Correlación Intraclase para las variables continuas - indicadores 12, 13 y 14, considerando el Intervalo de Confianza de 95%. Los datos categóricos fueron tratados utilizando el software Lee, del Laboratorio de Epidemiologia y Estadística del Instituto Dante Pazzanese de Cardiología - Brasil y los datos continuos por el software BioEstat 5.0.

RESULTADOS:

los resultados por la aplicación de la estadística Kappa demostraron un excelente grado de concordancia, estadísticamente significativo; los valores obtenidos para el Coeficiente de Correlación Intraclase denotaron reproductibilidad/concordancia excelente y estadísticamente significativo para los indicadores evaluados.

CONCLUSIÓN:

los indicadores presentan excelente confiabilidad y reproducibilidad, lo que evidencia que el desarrollo de instrumentos de evaluación válidos y fidedignos es posible, además de imprescindible para la administración de la asistencia de enfermería

Enfermería; Auditoria de Enfermería; Indicadores de Calidad de la Atención de Salud; Estudios de Validación como Asunto; Reproducibilidad de Resultados


Introdução

A preocupação com a qualidade dos produtos e serviços tem sido objeto de apreensão nos diversos tipos de organização, principalmente no setor saúde, pois, além da influência direta desses serviços sobre a economia, seus clientes estão cada vez mais exigentes quanto ao atendimento de suas necessidades com qualidade( 11. Rocha ESB, Trevizan MA. Quality management at a hospital's nursing service. Rev. Latino-Am. Enfermagem. 2009;17(2):240-5. ).

Um grande aliado das organizações de saúde na busca pela qualidade das ações é o enfermeiro e, nesse sentido, existe expectativa dos gestores quanto ao papel desse profissional no gerenciamento do cuidado nas instituições hospitalares, pois, uma das características da prática do cuidar em enfermagem é o contato direto com o cliente, que possibilita conhecer suas necessidades e expectativas( 11. Rocha ESB, Trevizan MA. Quality management at a hospital's nursing service. Rev. Latino-Am. Enfermagem. 2009;17(2):240-5. ), além do fato de a profissão ter papel fundamental no resultado da atenção.

Gerenciar implica conhecer o desempenho da instituição em função de seu objetivo e em relação às suas metas( 22. Kuwabara CCT, Évora YDM, Oliveira MMB. Risk Management in Technovigilance: construction and Validation of a Medical-Hospital Product Evaluation Instrument. Rev. Latino-Am. Enfermagem. 2010;18(5):943-51. ) e isso requer a implementação de sistemas de avaliação e indicadores adequados, que permitam a (re)formulação de diretrizes( 33. D'Innocenzo MANP, Cunha ICKO. O movimento pela qualidade nos serviços de saúde e enfermagem. Rev Bras Enferm. [Internet]. 2006. [acesso 23 abr 2013];59(1):84-8. Disponível em: http://www.scielo.br/scielo.php?script=sci_arttext&pid=S0034-71672006000100016&lng=en&nrm=iso&tlng=pt
Disponível em: http://www.scielo.br/scie...
). Contudo, a quantificação da qualidade da atenção em saúde tem sido um grande desafio, que se inicia com a decisão do que medir e, depois, encontrar medidas estatísticas de qualidade( 44. Collier R. The challenges of quantifying quality. CMAJ. [Internet]. 2010. [acesso 23 abr 2013];182(5):E250. Disponível em: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2842849/pdf/182e250.pdf
Disponível em: http://www.ncbi.nlm.nih.g...
).

Indicador é uma unidade de medida de uma atividade, que pode ser utilizado para mensurar qualidade e quantidade em organizações de saúde, avaliando aspectos de estrutura, processos e resultados( 55. Takahashi AA, Barros ALBL, Michel JLMS, Mariana F. Difficulties and facilities pointed out by nurses of a university hospital when applying the nursing process. Acta Paul Enferm. [Internet]. 2008. [acesso 23 abr 2013];21(1):32-8. Disponível em: http://www.scielo.br/pdf/ape/v21n1/04.pdf
Disponível em: http://www.scielo.br/pdf/...
- 66. Vieira APM, Kurcgant P. Quality indicators of the management of human resources in nursing: point of view of registered nurses. Acta Paul Enferm. [Internet]. 2010. [acesso 23 abr 2013];23(1):11-5. Disponível em: http://www.scielo.br/pdf/ape/v23n1/02.pdf
Disponível em: http://www.scielo.br/pdf/...
). A possibilidade de desenvolvê-los é ilimitada; porém, a dificuldade está em encontrar um indicador de alta validade para o domínio em estudo( 77. Nakrem S, Vinsnes AG, Harkless GE, Paulsen B, Seim A. Nursing sensitive quality indicators for nursing home care: international review of literature, policy and practice International. J Nurs Stud. 2009; 46:848-57. ), ou seja, para o aspecto do cuidado a ser medido.

O uso de medidas válidas e fidedignas propicia monitorar a qualidade do cuidado dispensado aos pacientes, identificar situações de riscos evitáveis, bem como subsidiar o planejamento de ações corretivas, além de direcionar estratégias e reajuste de metas por meio de ações educativas e de valorização profissional. Ressalta-se que o uso de instrumentos válidos e fidedignos pode contribuir para o avanço do conhecimento da profissão e para o desenvolvimento da teoria que a sustenta( 88. Gillespie BM, Polit DF, Hamlin L, Chaboyer W. Developing a model of competence in the operating theatre: Psychometric validation of the Perceived Perioperative Competence Scale-Revised. Int J Nurs Stud. [Internet]. 2012. [acesso 23 abr 2013];49(1):90-101. Disponível em: http://www.journalofnursingstudies.com/article/S0020-7489(11)00301-4/fulltext
Disponível em: http://www.journalofnursi...
).

Fidedignidade implica confiabilidade e concordância, que são aspectos importantes no desenvolvimento de instrumentos de medida. Seus resultados fornecem informações sobre a quantidade de erro inerente a essa, o que reflete a qualidade da medição( 99. Kottner J, Audigé L, Brorson S, Donner A, Gajewski BJ, Hróbjartsson A, et al. Guidelines for Reporting Reliability and Agreement Studies (GRRAS) were proposed. J Clin Epidemiol. [Internet]. 2011. [acesso 23 abr 2013];64(1):96-106. Disponível em: http://www.rygforskning.dk/sites/default/files/files/articles/Kottner%20el%20al%20%202011.pdf
Disponível em: http://www.rygforskning.d...
).

Concordância é o grau em que os escores ou classificações são idênticos( 99. Kottner J, Audigé L, Brorson S, Donner A, Gajewski BJ, Hróbjartsson A, et al. Guidelines for Reporting Reliability and Agreement Studies (GRRAS) were proposed. J Clin Epidemiol. [Internet]. 2011. [acesso 23 abr 2013];64(1):96-106. Disponível em: http://www.rygforskning.dk/sites/default/files/files/articles/Kottner%20el%20al%20%202011.pdf
Disponível em: http://www.rygforskning.d...
) e confiabilidade o grau em que o resultado medido reflete o resultado verdadeiro, ou seja, o quanto uma medida está livre da variância dos erros aleatórios( 1010. Hora HRM, Monteiro GTR, Arica J. Confiabilidade em questionários para qualidade: um estudo com o Coeficiente Alfa de Cronbach. Prod Prod. [Internet]. 2010. [acesso 23 abr 2013];11(2):85-103. Disponível em: http://seer.ufrgs.br/ProdutoProducao/article/view/9321/8252
Disponível em: http://seer.ufrgs.br/Prod...
). Pode ainda ser definida como a proporção da variância nos escores de medição, que se devem às diferenças no escore verdade, não ao erro aleatório( 1111. Trochim WMK. Research methods: knowledge bases. [Internet]. 2nd. ed. Cincinatti (OH): Atomic Dog Publishing; 2006. [acesso 23 abr 2013]. Disponível em: http://socialresearchmethods.net/kb/
Disponível em: http://socialresearchmeth...
- 1212. Wuensch KL. The Intraclass Correlation Coefficient. Karl Wuensch's Statistics Lessons [Internet] . Greenville (USA): East Carolina University - Department of Psychology; [2010]; [atualizada em 20 abr 2013; acesso 23 abr 2013]. Disponível em: http://core.ecu.edu/psyc/wuenschk/StatsLessons.htm
Disponível em: http://core.ecu.edu/psyc/...
). Sendo assim, a confiabilidade estima a consistência e estabilidade da medida e aumenta à medida que o componente de erro diminui( 1111. Trochim WMK. Research methods: knowledge bases. [Internet]. 2nd. ed. Cincinatti (OH): Atomic Dog Publishing; 2006. [acesso 23 abr 2013]. Disponível em: http://socialresearchmethods.net/kb/
Disponível em: http://socialresearchmeth...
).

Considerando-se a preocupação histórica da enfermagem com a busca pela qualidade da atenção, assinalada desde as ações de cuidado de Florence Nightingale, bem como pela crise de credibilidade atualmente associada aos serviços de saúde brasileiros e pelo potencial do profissional enfermeiro em contribuir para a mudança dessa realidade, por meio da mensuração da qualidade do cuidado prestado, fica evidente a necessidade de que as medidas da qualidade da assistência sejam confiáveis.

O desenvolvimento de instrumentos avaliativos é complexo e objeto de estudo de várias disciplinas. No contexto da prática da enfermagem, observam-se muitas críticas quanto ao seu uso em função de se pretender mensurar construtos e conceitos considerados abstratos e subjetivos.

Acredita-se, contudo, que essas críticas se devam à falta de conhecimento sobre o processo envolvido na concepção e validação de medidas avaliativas, o que resulta em desmotivação para o seu desenvolvimento e, consequentemente, impede o avanço da ciência na área.

Diante desse cenário e dando continuidade ao estudo que se iniciou com a validação de conteúdo de indicadores de qualidade da assistência de enfermagem( 1313. Vituri DW, Matsuda LM. Content validation of quality indicators for nursing care evaluation. Rev Esc Enferm USP. [Internet]. 2009. [acesso 23 abr 2013];43(2):429-37. Disponível em: http://www.scielo.br/pdf/reeusp/v43n2/en_a24v43n2.pdf
Disponível em: http://www.scielo.br/pdf/...
), tem-se, como questão de pesquisa: o instrumento constituído por indicadores de qualidade de cuidados básicos de enfermagem atende ao requisito de confiabilidade para avaliação da qualidade da assistência dispensada a pacientes adultos, internados em unidade médico-cirúrgica de um hospital público de ensino do norte do Estado do Paraná?

A presente pesquisa tem como objetivo testar a concordância e confiabilidade interavaliadores de quinze indicadores de qualidade da assistência de enfermagem.

Metodologia

Trata-se de pesquisa quantitativa, metodológica, experimental e aplicada, realizada em três fases (validação de face, teste-piloto e teste de confiabilidade), desenvolvida em um hospital terciário de grande porte, de ensino público do Estado do Paraná, Brasil. Ressalta-se que, no presente estudo, o foco da apresentação dos resultados e discussão é o teste de confiabilidade da medida proposta.

O estudo iniciou-se com a validação de face de um instrumento composto por quinze indicadores de qualidade, considerando o percentual mínimo de concordância( 1414. Westmoreland D, Wesorick B, Hanson D, Wyngarden K. Consensual validation of clinical practice model practice guidelines. J Nurs Care Qual. 2000;14(4):16-27. ) de 80%, com base no instrumento proposto por Vituri( 1313. Vituri DW, Matsuda LM. Content validation of quality indicators for nursing care evaluation. Rev Esc Enferm USP. [Internet]. 2009. [acesso 23 abr 2013];43(2):429-37. Disponível em: http://www.scielo.br/pdf/reeusp/v43n2/en_a24v43n2.pdf
Disponível em: http://www.scielo.br/pdf/...
), validado pela estratégia de validação de conteúdo por experts e reformulado com base nas necessidades sentidas por meio de sua aplicação rotineira na prática diária.

Para o procedimento de validação de face selecionou-se uma amostra intencional de juízes, estagiários do serviço de avaliação da qualidade da assistência de enfermagem do hospital em estudo. Esse serviço funciona como campo de estágio curricular não obrigatório para alunos do terceiro e quarto anos do curso de graduação em enfermagem, que desenvolvem atividades de auditoria operacional e retrospectiva, avaliando a qualidade da assistência de enfermagem, por meio da aplicação sistemática do instrumento de Vituri( 1313. Vituri DW, Matsuda LM. Content validation of quality indicators for nursing care evaluation. Rev Esc Enferm USP. [Internet]. 2009. [acesso 23 abr 2013];43(2):429-37. Disponível em: http://www.scielo.br/pdf/reeusp/v43n2/en_a24v43n2.pdf
Disponível em: http://www.scielo.br/pdf/...
).

O teste-piloto do instrumento de medida foi realizado por uma amostra intencional de três juízes, sendo dois enfermeiros da instituição (um assistencial e outro gerente em nível de direção) mais a pesquisadora. Esse número foi definido por meio dos estudos de Crocker, Llabre e Miller( 1515. Crocker L, Llabre M, Miller MD. The generalizability of content validity ratings. J Educ Measure. 1988;25(4):287-99. ), pois, quanto maior o número de juízes maior a heterogeneidade e, consequentemente, menor a confiabilidade e concordância( 1616. Lilford RJ, Mohammed MA, Braunhoultz D, Hofer TP. The measurement of active errors: methodological issues,. Qual Saf Health Care. [Internet]. 2003. [acesso 30 abr 2012];12 Suppl 2:8-12. Disponível em: http://qualitysafety.bmj.com/content/12/suppl_2/ii8.full.pdf+html
Disponível em: http://qualitysafety.bmj....
).

A compreensão dos indicadores, metodologia de avaliação e aplicabilidade do instrumento foi testada por meio da avaliação de uma amostra aleatória de quinze pacientes adultos, internados em unidade de clínica médica e cirúrgica.

Para determinação da fidedignidade, dentre as três categorias de estimação de concordância (estimativa de consenso, estimativa de consistência e estimativa de avaliação/medição), utilizou-se a estimativa de consenso, que tem como base a suposição de que deva existir perfeita concordância entre os juízes no uso de escalas de pontuação para comportamentos observáveis, o que caracteriza a mesma compreensão do construto( 1717. Stemler SE. A comparison of consensus, consistency, and measurement approaches to estimating interrater reliability. Prac Assess Res Eval. [Internet]. 2004. [acesso 15 abr 2012];9(4). Disponível em: http://pareonline.net/getvn.asp?v=9&n=4
http://pareonline.net/getvn.asp?v=9&n=4 ...
).

O método utilizado foi o de equivalência, que é usado para avaliação da confiabilidade mediante a aplicação do mesmo instrumento por observadores diferentes, para medir os mesmos fenômenos (confiabilidade interavaliadores ou precisão do avaliador)( 1111. Trochim WMK. Research methods: knowledge bases. [Internet]. 2nd. ed. Cincinatti (OH): Atomic Dog Publishing; 2006. [acesso 23 abr 2013]. Disponível em: http://socialresearchmethods.net/kb/
Disponível em: http://socialresearchmeth...
).

Esse tipo de teste é indicado, principalmente, para instrumentos clínicos, em que se depende do julgamento do avaliador. Sendo assim, é fundamental estimar a precisão pela correlação dos resultados obtidos de cada sujeito, pois é evidente a variância existente entre os avaliadores( 1111. Trochim WMK. Research methods: knowledge bases. [Internet]. 2nd. ed. Cincinatti (OH): Atomic Dog Publishing; 2006. [acesso 23 abr 2013]. Disponível em: http://socialresearchmethods.net/kb/
Disponível em: http://socialresearchmeth...
).

A concordância e a fidedignidade dos indicadores foram testadas pelos mesmos juízes que participaram do teste-piloto, pois já estavam capacitados para o uso do instrumento, que foi aplicado de forma concomitante e independente a uma amostra de 33 pacientes, considerando-se os quinze pacientes já avaliados anteriormente no teste-piloto.

Para a avaliação dos indicadores de 1 a 11 e 15, o juiz leu o descritor que define o padrão de qualidade e assinalou, no instrumento de avaliação, se o aspecto do cuidado observado estava adequado ou inadequado em relação ao padrão. Para os indicadores 12, 13 e 14, com base na explicitação do padrão de qualidade, cada juiz registrou a quantidade de checagens e registros de sinais vitais realizados de forma adequada e a quantidade inadequada.

Quanto ao tratamento dos dados, foi utilizada a estatística Kappa (k) para análise das variáveis categóricas - indicadores de 1 a 11 e 15 e o Coeficiente de Correlação Interclasses (CCI) para as variáveis contínuas - indicadores 12, 13 e 14, considerando-se o Intervalo de Confiança (IC) de 95%( 1212. Wuensch KL. The Intraclass Correlation Coefficient. Karl Wuensch's Statistics Lessons [Internet] . Greenville (USA): East Carolina University - Department of Psychology; [2010]; [atualizada em 20 abr 2013; acesso 23 abr 2013]. Disponível em: http://core.ecu.edu/psyc/wuenschk/StatsLessons.htm
Disponível em: http://core.ecu.edu/psyc/...
, 1818. Haley SM, Osberg JS. Kappa Coefficient Calculation Using Multiple Ratings Per Subject: A Special Communication. Phys Ther. [Internet]. 1989. [acesso 15 abr 2012];69:970-4. Disponível em: http://ptjournal.apta.org/content/69/11/970
Disponível em: http://ptjournal.apta.org...
).

O coeficiente de Kappa é uma medida de associação, que mede o grau de concordância para além do que seria esperado pelo acaso, com pesos iguais para as discordâncias( 1717. Stemler SE. A comparison of consensus, consistency, and measurement approaches to estimating interrater reliability. Prac Assess Res Eval. [Internet]. 2004. [acesso 15 abr 2012];9(4). Disponível em: http://pareonline.net/getvn.asp?v=9&n=4
http://pareonline.net/getvn.asp?v=9&n=4 ...
); o Fleiss Kappa é uma extensão da estatística Kappa para avaliar a concordância entre mais de dois avaliadores, sem aplicação de ponderação( 1919. Chang A. Cohen's and Fleiss's Kappa program Concordance in ordinal data. In: Chang A. StatTools Home Page [Internet]. Queensland: Austrália; 2011. [acesso 20 abr 2012]; Disponível em: http://www.stattools.net/CohenKappa_Pgm.php#Fleiss%27s%20Kappa%20from%20rating%20scores
Disponível em: http://www.stattools.net/...
).

O Coeficiente de Correlação Interclasses ou coeficiente de Reprodutibilidade (R) é uma estimativa da fração da variabilidade total de medidas, devido a variações entre os indivíduos( 2020. Chang A. Intraclass correlation for parametric data Introduction and explanation. In: Chang A. StatTools Home Page [Internet]. Queensland: Austrália; 2011 [acesso 15 abr 2012]. Disponível em: http://www.stattools.net/ICC_Exp.php
Disponível em: http://www.stattools.net/...
- 2121. Wilson-Genderson M, Broder HL, Phillips C. Concordance between caregiver and child reports of children´s oral health-related quality of life. Community Dent Oral Epidemiol. 2007;35 Suppl 1:32-40. ).

Apesar de não fornecer informações detalhadas sobre a estrutura da concordância e discordância( 2222. Perroca MG, Gaidzinki RR. Assessing the interrater reliability of an instrument for classifying patients - kappa quotient. Rev Esc Enferm USP. [Internet]. 2003. [acesso 23 abr 2013];37(1):72-80. Disponível em: http://www.scielo.br/scielo.php?script=sci_arttext&pid=S0080-62342003000100009
Disponível em: http://www.scielo.br/scie...
) a estatística Kappa é melhor do que os percentuais simples de concordância( 1717. Stemler SE. A comparison of consensus, consistency, and measurement approaches to estimating interrater reliability. Prac Assess Res Eval. [Internet]. 2004. [acesso 15 abr 2012];9(4). Disponível em: http://pareonline.net/getvn.asp?v=9&n=4
http://pareonline.net/getvn.asp?v=9&n=4 ...
). Autores afirmam que, para a estimação da confiabilidade interobservadores, a estatística Kappa e o Coeficiente de Correlação Interclasses são os métodos mais apropriados( 99. Kottner J, Audigé L, Brorson S, Donner A, Gajewski BJ, Hróbjartsson A, et al. Guidelines for Reporting Reliability and Agreement Studies (GRRAS) were proposed. J Clin Epidemiol. [Internet]. 2011. [acesso 23 abr 2013];64(1):96-106. Disponível em: http://www.rygforskning.dk/sites/default/files/files/articles/Kottner%20el%20al%20%202011.pdf
Disponível em: http://www.rygforskning.d...
).

Paralelamente à estatística Kappa e CCI, também foram calculados os percentuais simples de concordância para se ter uma ideia detalhada da confiabilidade e concordância( 99. Kottner J, Audigé L, Brorson S, Donner A, Gajewski BJ, Hróbjartsson A, et al. Guidelines for Reporting Reliability and Agreement Studies (GRRAS) were proposed. J Clin Epidemiol. [Internet]. 2011. [acesso 23 abr 2013];64(1):96-106. Disponível em: http://www.rygforskning.dk/sites/default/files/files/articles/Kottner%20el%20al%20%202011.pdf
Disponível em: http://www.rygforskning.d...
).

Os valores de Kappa foram interpretados da seguinte forma: menor que 0 como indicativo de no agreement; entre 0 e 0,19 poor agreement; 0,20 a 0,39 fair agreement; 0,40 a 0,59 moderate agreement; 0,60 a 0,79 substantial agreement e 0,80 a 1,00 almost perfect agreement ( 2323. Zegers M, Bruijne MC, Wagner C, Groenewegen PP, Wal GVD, Vet HCW. The inter-rater agreement of retrospective assessments of adverse events does not improve with two reviewers per patient record. J Clin Epidemiol. 2010;63(1):94-112. ). Para o CCI foram utilizados os valores de 0,4 a 0,59 razoável reprodutibilidade; 0,6 a 0,74 boa reprodutibilidade e acima de 0,74 excelente reprodutibilidade( 2424. Fleiss JL. Reliability of measurement. In: Fleiss JL. The Design and Analysis of Clinical Experiments. New York (USA): John Wiley; 1999. p. 1-31. ).

Os dados categóricos (estatística k) foram tratados utilizando-se o software Lee, do Laboratório de Epidemiologia e Estatística do Instituto Dante Pazzanese de Cardiologia - Brasil e os dados contínuos (CCI) pelo software BioEstat 5.0. O p-value de <0,05 foi considerado estatisticamente significante.

O estudo foi conduzido em concordância com todos os preceitos éticos, tendo sido aprovado pela direção da instituição e pelo Comitê de Ética em Pesquisas Envolvendo Seres Humanos da Universidade, sob Parecer n° 126/10, CAAEE n°0113.0.268.000-10. Todos os sujeitos de pesquisa, juízes e pacientes, assinaram o Termo de Consentimento Livre e Esclarecido (TCLE).

Resultados

Os resultados do procedimento de validação de face apontaram para a validade aparente de todos os indicadores. Quanto ao teste-piloto, o parecer dos juízes foi favorável no que tange à adequação do instrumento relacionada aos quesitos compreensão e aplicabilidade. Considerando-se que não houve dúvidas nem sugestões, o instrumento foi considerado apropriado para continuidade do teste de confiabilidade interavaliadores.

A Tabela 1, a seguir, apresenta os resultados da aplicação da estatística Kappa para os indicadores de 1 a 11 e 15, além do percentual de concordância simples para todo o conjunto dos indicadores.

Tabela 1
Determinação da concordância interavaliadores pela aplicação da estatística Kappa aos indicadores de 1 a 11 e 15. Londrina, PR, Brasil, 2013

Os valores da Tabela 1 demonstram um percentual de concordância simples superior a 80%, considerado adequado para todos os indicadores avaliados( 1414. Westmoreland D, Wesorick B, Hanson D, Wyngarden K. Consensual validation of clinical practice model practice guidelines. J Nurs Care Qual. 2000;14(4):16-27. ).

A estatística Kappa variou entre 0,956 a 1,000, ou seja, os indicadores de 1 a 11 e 15 demonstram excelente grau de concordância, estatisticamente significante - p-valor <0,001( 2323. Zegers M, Bruijne MC, Wagner C, Groenewegen PP, Wal GVD, Vet HCW. The inter-rater agreement of retrospective assessments of adverse events does not improve with two reviewers per patient record. J Clin Epidemiol. 2010;63(1):94-112. ).

Os indicadores que não obtiveram concordância total pela aplicação do Fleiss k foram: indicador 4 - verificação de lesões cutâneas pós-infiltrativas (k=0,970, IC 95%: 0,830-1,000); 5a - identificação de equipes para infusão venosa (soro de manutenção) (k=0,956, IC 95%: 0,795- 1,000); 5b - identificação de equipes para infusão venosa (soro para diluição de medicação) (k=0,969, IC 95%: 0,829-1,000) e 6b - identificação de frascos de infusão venosa - rótulo (k=0,969, IC 95%: 0,829-1,000).

Os resultados da aplicação do Coeficiente de Correlação Interclasses para os indicadores 12, 13 e 14 e o percentual de concordância simples, para o conjunto dos indicadores, estão apresentados na Tabela 2.

Tabela 2
Determinação da concordância interavaliadores pela aplicação do Coeficiente de Correlação Interclasses aos indicadores de 12, 13 e 14. Londrina, PR, 2013

Para aos indicadores 12, 13 e 14 (Tabela 2), o percentual de concordância simples variou entre 89,4 e 92,5%, que caracteriza concordância adequada( 1414. Westmoreland D, Wesorick B, Hanson D, Wyngarden K. Consensual validation of clinical practice model practice guidelines. J Nurs Care Qual. 2000;14(4):16-27. ). Os valores de CCI variaram entre 0,859 e 0,992 e os indicadores avaliados obtiveram reprodutibilidade/concordância excelente e estatisticamente significante - p-valor <0,001( 2424. Fleiss JL. Reliability of measurement. In: Fleiss JL. The Design and Analysis of Clinical Experiments. New York (USA): John Wiley; 1999. p. 1-31. ).

O menor Coeficiente de Correlação Interclasses - o CCI obtido foi de 0,859 (IC 95%: 0,732-0,929) para o indicador 14b - checagem dos procedimentos de enfermagem na prescrição médica (adequado); o maior valor de CCI foi de 0,992 (IC 95%: 0,983-0,996) para o indicador 12 a - checagem dos procedimentos na prescrição de enfermagem (adequado), caracterizando reprodutibilidade/concordância excelente para os indicadores avaliados.

Discussão

A confiabilidade interavaliadores, testada pela estatística Kappa, encontrou valores que caracterizam concordância excelente entre os juízes, no que se refere ao construto, aos descritores e aos critérios de avaliação dos indicadores testados.

Cabe ressaltar que o que está sendo medido não é a validade dos resultados, mas, sim, o grau de erro na medida, que se deve às diferenças no escore verdade( 88. Gillespie BM, Polit DF, Hamlin L, Chaboyer W. Developing a model of competence in the operating theatre: Psychometric validation of the Perceived Perioperative Competence Scale-Revised. Int J Nurs Stud. [Internet]. 2012. [acesso 23 abr 2013];49(1):90-101. Disponível em: http://www.journalofnursingstudies.com/article/S0020-7489(11)00301-4/fulltext
Disponível em: http://www.journalofnursi...
, 1010. Hora HRM, Monteiro GTR, Arica J. Confiabilidade em questionários para qualidade: um estudo com o Coeficiente Alfa de Cronbach. Prod Prod. [Internet]. 2010. [acesso 23 abr 2013];11(2):85-103. Disponível em: http://seer.ufrgs.br/ProdutoProducao/article/view/9321/8252
Disponível em: http://seer.ufrgs.br/Prod...
- 1111. Trochim WMK. Research methods: knowledge bases. [Internet]. 2nd. ed. Cincinatti (OH): Atomic Dog Publishing; 2006. [acesso 23 abr 2013]. Disponível em: http://socialresearchmethods.net/kb/
Disponível em: http://socialresearchmeth...
). Sendo assim, é possível afirmar que os indicadores 4, 5-a, 5-b, 6-b, 12-a, 12-b, 13-a, 13-b, 14-a e 14-b, que não obtiveram resultados de Fleiss k e CCI de 1,000, não são100% precisos. Porém, ressalta-se que, por melhor que seja um instrumento de medida, os escores obtidos nunca estarão livres de erros( 1111. Trochim WMK. Research methods: knowledge bases. [Internet]. 2nd. ed. Cincinatti (OH): Atomic Dog Publishing; 2006. [acesso 23 abr 2013]. Disponível em: http://socialresearchmethods.net/kb/
Disponível em: http://socialresearchmeth...
).

Os erros que afetam as medidas são classificados em dois subgrupos: os erros aleatórios, que derivam de fatores que afetam a medição da variável de forma acidental em toda a amostra, adicionando variabilidade aos dados, mas não afetando o desempenho médio para o grupo, e os erros sistemáticos, que são causados por qualquer fator que sistematicamente afete a medição da variável em toda a amostra e que tendem a ter um efeito consistentemente positivo ou negativo, sendo, por vezes, em razão disso, considerados como viés de medição( 1111. Trochim WMK. Research methods: knowledge bases. [Internet]. 2nd. ed. Cincinatti (OH): Atomic Dog Publishing; 2006. [acesso 23 abr 2013]. Disponível em: http://socialresearchmethods.net/kb/
Disponível em: http://socialresearchmeth...
).

Acredita-se que os fatores que possivelmente tenham afetado a precisão da medida, contribuindo para os erros de medição, sejam fatores pessoais transitórios( 2525. Polit DF, Beck CT. Assessing data quality. In: Polit DF, Beck CT. Nursing research: principles and methods. 7th ed. Philadelphia (USA): Lippincott Williams & Wilkins; 2004. p. 413-48. ), como pressa e fadiga, pois um dos juízes encontrava-se participando do estudo após a jornada diária de trabalho. Além disso, existiu a referência por parte dos dois juízes de dificuldades quanto à legibilidade das escritas referentes às checagens nas prescrições médicas e de enfermagem, o que gerou dúvidas em relação ao atendimento total ao padrão de qualidade adotado.

Os valores obtidos para o k e CCI desses indicadores reproduzem o quanto os resultados da aplicação da medida refletem o resultado verdadeiro( 1010. Hora HRM, Monteiro GTR, Arica J. Confiabilidade em questionários para qualidade: um estudo com o Coeficiente Alfa de Cronbach. Prod Prod. [Internet]. 2010. [acesso 23 abr 2013];11(2):85-103. Disponível em: http://seer.ufrgs.br/ProdutoProducao/article/view/9321/8252
Disponível em: http://seer.ufrgs.br/Prod...
). Mesmo não tendo alcançado um Fleiss k de 1,000, ainda assim os indicadores 4, 5-a, 5-b, 6-b evidenciaram um grau de concordância classificado como excelente - almost perfect agreement - k 0,80 a 1,000( 2323. Zegers M, Bruijne MC, Wagner C, Groenewegen PP, Wal GVD, Vet HCW. The inter-rater agreement of retrospective assessments of adverse events does not improve with two reviewers per patient record. J Clin Epidemiol. 2010;63(1):94-112. ). Os indicadores 12-a, 12-b, 13-a, 13-b, 14-a e 14-b também evidenciaram concordância excelente, com valores de CCI acima de 0,74( 2424. Fleiss JL. Reliability of measurement. In: Fleiss JL. The Design and Analysis of Clinical Experiments. New York (USA): John Wiley; 1999. p. 1-31. ).

Os resultados encontrados sugerem a fidedignidade interavaliadores dos indicadores e instrumento de medida, indicando sua precisão e a possibilidade de utilização para avaliação da qualidade da assistência de enfermagem.

Cabe ressaltar que confiabilidade e concordância não são propriedades fixas dos instrumentos de medida, mas sim, o produto da interação entre o instrumento/ferramenta, os sujeitos/objetos e o contexto da avaliação( 99. Kottner J, Audigé L, Brorson S, Donner A, Gajewski BJ, Hróbjartsson A, et al. Guidelines for Reporting Reliability and Agreement Studies (GRRAS) were proposed. J Clin Epidemiol. [Internet]. 2011. [acesso 23 abr 2013];64(1):96-106. Disponível em: http://www.rygforskning.dk/sites/default/files/files/articles/Kottner%20el%20al%20%202011.pdf
Disponível em: http://www.rygforskning.d...
).

Para que essa propriedade não seja afetada em contextos diversos, é importante estabelecer o controle sobre as variáveis que interferem no processo de medição. Para tanto, os avaliadores devem ser capacitados quanto ao construto, descritores, índice de conformidade ideal, critérios de avaliação, assim como a padronização do procedimento avaliativo.

Conclusão

Com base no estudo, conclui-se que os quinze indicadores de qualidade da assistência de enfermagem estudados, já validados anteriormente pela estratégia de validação de conteúdo, apresentam excelente confiabilidade e reprodutibilidade entre os itens.

A concordância e confiabilidade dos indicadores, estimadas pela estatística Kappa e Coeficiente de Correlação Interclasse demonstraram a relevância desse instrumento para a prática clínica da avaliação da qualidade da assistência de enfermagem.

A confirmação de sua fidedignidade comprova a contribuição do estudo para acrescentar evidências de que o desenvolvimento de instrumentos válidos e fidedignos para a avaliação da qualidade da assistência de enfermagem é possível e imprescindível para gerenciamento efetivo e eficaz da assistência, pois possibilita a identificação de riscos evitáveis, subsidia o planejamento de ações corretivas e direciona estratégias para o reajuste de metas.

Diante da evidência de fidedignidade dos quinze indicadores, acredita-se que sua utilização em outras instituições de saúde possa aprimorar consideravelmente a gestão de enfermagem e, consequentemente, a qualidade da assistência e a segurança dos pacientes.

Métodos de desenvolvimento e validação de sistemas de avaliação são extremamente discutidos e empregados em ciências sociais e comportamentais e sua aplicação, neste estudo, demonstra que seus princípios podem ser adaptados para a criação de instrumentos de avaliação das práticas de enfermagem.

As potenciais limitações do estudo incluem a técnica de amostragem intencional e o tamanho da amostra de juízes. O que determinou a opção por essa técnica foi a inviabilidade em conduzir o estudo caso fossem sorteados enfermeiros no seu turno de trabalho.

A opção pelo número mínimo de três juízes justifica-se pela dificuldade em avaliar, de forma concomitante e independente, todos os pacientes acomodados em enfermarias de três a seis leitos, o que poderia resultar em tumulto, desconforto e constrangimento, além de atuar como contaminante situacional, favorecendo o erro de medição.

Em relação aos indicadores testados, seguramente não abrangem todos os aspectos importantes da assistência de enfermagem, mas, certamente, abarcam cuidados relevantes para a prevenção de riscos e altamente sensíveis à melhoria com investimentos simples, como estratégias educativas. Infelizmente, a seleção desses quinze indicadores resultou na exclusão de outros aspectos relevantes do cuidado, o que pode ser uma limitação do presente estudo.

References

  • 1
    Rocha ESB, Trevizan MA. Quality management at a hospital's nursing service. Rev. Latino-Am. Enfermagem. 2009;17(2):240-5.
  • 2
    Kuwabara CCT, Évora YDM, Oliveira MMB. Risk Management in Technovigilance: construction and Validation of a Medical-Hospital Product Evaluation Instrument. Rev. Latino-Am. Enfermagem. 2010;18(5):943-51.
  • 3
    D'Innocenzo MANP, Cunha ICKO. O movimento pela qualidade nos serviços de saúde e enfermagem. Rev Bras Enferm. [Internet]. 2006. [acesso 23 abr 2013];59(1):84-8. Disponível em: http://www.scielo.br/scielo.php?script=sci_arttext&pid=S0034-71672006000100016&lng=en&nrm=iso&tlng=pt
    » Disponível em: http://www.scielo.br/scielo.php?script=sci_arttext&pid=S0034-71672006000100016&lng=en&nrm=iso&tlng=pt
  • 4
    Collier R. The challenges of quantifying quality. CMAJ. [Internet]. 2010. [acesso 23 abr 2013];182(5):E250. Disponível em: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2842849/pdf/182e250.pdf
    » Disponível em: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2842849/pdf/182e250.pdf
  • 5
    Takahashi AA, Barros ALBL, Michel JLMS, Mariana F. Difficulties and facilities pointed out by nurses of a university hospital when applying the nursing process. Acta Paul Enferm. [Internet]. 2008. [acesso 23 abr 2013];21(1):32-8. Disponível em: http://www.scielo.br/pdf/ape/v21n1/04.pdf
    » Disponível em: http://www.scielo.br/pdf/ape/v21n1/04.pdf
  • 6
    Vieira APM, Kurcgant P. Quality indicators of the management of human resources in nursing: point of view of registered nurses. Acta Paul Enferm. [Internet]. 2010. [acesso 23 abr 2013];23(1):11-5. Disponível em: http://www.scielo.br/pdf/ape/v23n1/02.pdf
    » Disponível em: http://www.scielo.br/pdf/ape/v23n1/02.pdf
  • 7
    Nakrem S, Vinsnes AG, Harkless GE, Paulsen B, Seim A. Nursing sensitive quality indicators for nursing home care: international review of literature, policy and practice International. J Nurs Stud. 2009; 46:848-57.
  • 8
    Gillespie BM, Polit DF, Hamlin L, Chaboyer W. Developing a model of competence in the operating theatre: Psychometric validation of the Perceived Perioperative Competence Scale-Revised. Int J Nurs Stud. [Internet]. 2012. [acesso 23 abr 2013];49(1):90-101. Disponível em: http://www.journalofnursingstudies.com/article/S0020-7489(11)00301-4/fulltext
    » Disponível em: http://www.journalofnursingstudies.com/article/S0020-7489(11)00301-4/fulltext
  • 9
    Kottner J, Audigé L, Brorson S, Donner A, Gajewski BJ, Hróbjartsson A, et al. Guidelines for Reporting Reliability and Agreement Studies (GRRAS) were proposed. J Clin Epidemiol. [Internet]. 2011. [acesso 23 abr 2013];64(1):96-106. Disponível em: http://www.rygforskning.dk/sites/default/files/files/articles/Kottner%20el%20al%20%202011.pdf
    » Disponível em: http://www.rygforskning.dk/sites/default/files/files/articles/Kottner%20el%20al%20%202011.pdf
  • 10
    Hora HRM, Monteiro GTR, Arica J. Confiabilidade em questionários para qualidade: um estudo com o Coeficiente Alfa de Cronbach. Prod Prod. [Internet]. 2010. [acesso 23 abr 2013];11(2):85-103. Disponível em: http://seer.ufrgs.br/ProdutoProducao/article/view/9321/8252
    » Disponível em: http://seer.ufrgs.br/ProdutoProducao/article/view/9321/8252
  • 11
    Trochim WMK. Research methods: knowledge bases. [Internet]. 2nd. ed. Cincinatti (OH): Atomic Dog Publishing; 2006. [acesso 23 abr 2013]. Disponível em: http://socialresearchmethods.net/kb/
    » Disponível em: http://socialresearchmethods.net/kb/
  • 12
    Wuensch KL. The Intraclass Correlation Coefficient. Karl Wuensch's Statistics Lessons [Internet] . Greenville (USA): East Carolina University - Department of Psychology; [2010]; [atualizada em 20 abr 2013; acesso 23 abr 2013]. Disponível em: http://core.ecu.edu/psyc/wuenschk/StatsLessons.htm
    » Disponível em: http://core.ecu.edu/psyc/wuenschk/StatsLessons.htm
  • 13
    Vituri DW, Matsuda LM. Content validation of quality indicators for nursing care evaluation. Rev Esc Enferm USP. [Internet]. 2009. [acesso 23 abr 2013];43(2):429-37. Disponível em: http://www.scielo.br/pdf/reeusp/v43n2/en_a24v43n2.pdf
    » Disponível em: http://www.scielo.br/pdf/reeusp/v43n2/en_a24v43n2.pdf
  • 14
    Westmoreland D, Wesorick B, Hanson D, Wyngarden K. Consensual validation of clinical practice model practice guidelines. J Nurs Care Qual. 2000;14(4):16-27.
  • 15
    Crocker L, Llabre M, Miller MD. The generalizability of content validity ratings. J Educ Measure. 1988;25(4):287-99.
  • 16
    Lilford RJ, Mohammed MA, Braunhoultz D, Hofer TP. The measurement of active errors: methodological issues,. Qual Saf Health Care. [Internet]. 2003. [acesso 30 abr 2012];12 Suppl 2:8-12. Disponível em: http://qualitysafety.bmj.com/content/12/suppl_2/ii8.full.pdf+html
    » Disponível em: http://qualitysafety.bmj.com/content/12/suppl_2/ii8.full.pdf+html
  • 17
    Stemler SE. A comparison of consensus, consistency, and measurement approaches to estimating interrater reliability. Prac Assess Res Eval. [Internet]. 2004. [acesso 15 abr 2012];9(4). Disponível em: http://pareonline.net/getvn.asp?v=9&n=4
    » http://pareonline.net/getvn.asp?v=9&n=4
  • 18
    Haley SM, Osberg JS. Kappa Coefficient Calculation Using Multiple Ratings Per Subject: A Special Communication. Phys Ther. [Internet]. 1989. [acesso 15 abr 2012];69:970-4. Disponível em: http://ptjournal.apta.org/content/69/11/970
    » Disponível em: http://ptjournal.apta.org/content/69/11/970
  • 19
    Chang A. Cohen's and Fleiss's Kappa program Concordance in ordinal data. In: Chang A. StatTools Home Page [Internet]. Queensland: Austrália; 2011. [acesso 20 abr 2012]; Disponível em: http://www.stattools.net/CohenKappa_Pgm.php#Fleiss%27s%20Kappa%20from%20rating%20scores
    » Disponível em: http://www.stattools.net/CohenKappa_Pgm.php#Fleiss%27s%20Kappa%20from%20rating%20scores
  • 20
    Chang A. Intraclass correlation for parametric data Introduction and explanation. In: Chang A. StatTools Home Page [Internet]. Queensland: Austrália; 2011 [acesso 15 abr 2012]. Disponível em: http://www.stattools.net/ICC_Exp.php
    » Disponível em: http://www.stattools.net/ICC_Exp.php
  • 21
    Wilson-Genderson M, Broder HL, Phillips C. Concordance between caregiver and child reports of children´s oral health-related quality of life. Community Dent Oral Epidemiol. 2007;35 Suppl 1:32-40.
  • 22
    Perroca MG, Gaidzinki RR. Assessing the interrater reliability of an instrument for classifying patients - kappa quotient. Rev Esc Enferm USP. [Internet]. 2003. [acesso 23 abr 2013];37(1):72-80. Disponível em: http://www.scielo.br/scielo.php?script=sci_arttext&pid=S0080-62342003000100009
    » Disponível em: http://www.scielo.br/scielo.php?script=sci_arttext&pid=S0080-62342003000100009
  • 23
    Zegers M, Bruijne MC, Wagner C, Groenewegen PP, Wal GVD, Vet HCW. The inter-rater agreement of retrospective assessments of adverse events does not improve with two reviewers per patient record. J Clin Epidemiol. 2010;63(1):94-112.
  • 24
    Fleiss JL. Reliability of measurement. In: Fleiss JL. The Design and Analysis of Clinical Experiments. New York (USA): John Wiley; 1999. p. 1-31.
  • 25
    Polit DF, Beck CT. Assessing data quality. In: Polit DF, Beck CT. Nursing research: principles and methods. 7th ed. Philadelphia (USA): Lippincott Williams & Wilkins; 2004. p. 413-48.
  • 1
    Artigo extraído da tese de doutorado "Avaliação como princípio da Gestão da Qualidade Total: testando a confiabilidade interavaliadores de indicadores de qualidade da assistência de enfermagem" apresentada à Escola de Enfermagem de Ribeirão Preto, Universidade de São Paulo, Centro Colaborador da OMS para o Desenvolvimento da Pesquisa em Enfermagem, Ribeirão Preto, SP, Brasil

Datas de Publicação

  • Publicação nesta coleção
    Mar-Apr 2014

Histórico

  • Recebido
    26 Abr 2013
  • Aceito
    03 Set 2013
Escola de Enfermagem de Ribeirão Preto / Universidade de São Paulo Av. Bandeirantes, 3900, 14040-902 Ribeirão Preto SP Brazil, Tel.: +55 (16) 3315-3451 / 3315-4407 - Ribeirão Preto - SP - Brazil
E-mail: rlae@eerp.usp.br