ISSN - Versão Impressa: 0102-3616 ISSN - Versão Online: 1982-4378

76
Visualizações
Acesso aberto Revisado por pares
Original Article

Avaliação da reprodutibilidade intra e interobservadores da classificação AO para fratura do punho

Evaluation of intra- and interobserver reliability of the AO classification for wrist fractures

Pedro Henrique de Magalhães Tenório*, Marcelo Marques Vieira, Abner Alberti, Marcos Felipe Marcatto de Abreu, João Carlos Nakamoto, Alberto Cliquet

 

RESUMO:

OBJETIVO: Este estudo avaliou a confiabilidade interobservador e intraobservador da classificação AO para radiografias simples em fraturas do terço distal do punho.Métodos Trinta observadores, divididos em três grupos (residentes de ortopedia e traumatologia, ortopedistas e cirurgiões de mão), classificaram 52 fraturas do terço distal do antebraço com radiografias simples. Após quatro semanas, os mesmos observadores avaliaram as mesmas 52 fraturas em ordem aleatória. O índice kappa foi usado para estabelecer o nível de concordância entre os observadores individualmente e entre os grupos de residentes, ortopedistas e cirurgiões da mão, bem como para avaliar a concordância intraobservador. O índice de kappa foi interpretado conforme proposto por Landis e Koch.
RESULTADOS: A confiabilidade interobservador global da classificação AO foi considerada baixa (0,30). Os três grupos apresentaram índices globais de concordância considerados baixos (residentes, 0,27; ortopedistas, 0,30 e cirurgiões da mão, 0,33). A concordância intraobservador global obteve índice moderado (0,41), foi maior no grupo dos cirurgiões da mão, no qual foi considerada moderada (0,50). No grupo dos residentes e ortopedistas foi considerada baixa, com valores de 0,30 e 0,33, respectivamente.
CONCLUSÃO: A partir desses dados, concluímos que a classificação AO para fraturas do punho apresenta baixa reprodutibilidade interobservador e moderada reprodutibilidade intraobservador.

Palavras-chave:
Ortopedia; Fratura ósseas; Punho; Classificação.

ABSTRACT:

OBJECTIVE: This study evaluated the intraobserver and interobserver reliability of the AO classification for standard radiographs of wrist fractures.
METHODS: Thirty observers, divided into three groups (orthopedic surgery senior residents, orthopedic surgeons, and hand surgeons) classified 52 wrist fractures, using only simple radiographs. After a period of four weeks, the same observers evaluated the initial 52 radiographs, in a randomized order. The agreement among the observers, the groups, and intraobserver was obtained using the Kappa index. Kappa-values were interpreted as proposed by Landis and Koch.
RESULTS: The global interobserver agreement level of the AO classification was considered fair (0.30). The three groups presented fair global interobserver agreement (residents, 0.27; orthopedic surgeons, 0.30; hand surgeons, 0.33). The global intraobserver agreement level was moderated. The hand surgeon group obtained the higher intraobserver agreement level, although only moderate (0.50). The residents group obtained fair levels (0.30), as did the orthopedics surgeon group (0.33).
CONCLUSION: The data obtained suggests fair levels of interobserver agreement and moderate levels of intraobserver agreement for the AO classification for wrist fractures.

Keywords:
Orthopedics; Bone fractures; Wrist; Classification.

FIGURAS

Citação: Tenório PHM, Vieira MM, Alberti A, Abreu MFM, Nakamoto JC, Cliquet Júnior A. Avaliação da reprodutibilidade intra e interobservadores da classificação AO para fratura do punho. 53(6):703. doi:10.1016/j.rboe.2017.08.024
Nota: Trabalho desenvolvido no Hospital de Clínicas, Universidade Estadual de Campinas, Campinas, SP, Brasil.
Recebido: July 19 2017; Aceito: August 22 2017
 

INTRODUÇÃO

Consideradas como um problema de saúde pública, as fraturas do punho têm apresentado um aumento de sua incidência, fato atribuído ao aumento da parcela idosa da população, bem como ao aumento de traumas de alta energia. Em um estudo americano de 2001, foi observado que essas fraturas são as mais comuns vistas nas salas de emergência, representam 3% de todas as fraturas do membro superior, com 640.000 casos por ano, apenas nos Estados Unidos.1 Na população brasileira, estima-se que essas fraturas correspondam a 10 a 12% de todas as fraturas do esqueleto humano.2

Existe uma distribuição bimodal dessas fraturas, são mais prevalentes padrões de fraturas associados a traumas de alta energia em jovens, enquanto idosos apresentam fraturas relacionadas à fragilidade óssea.3 A maioria (57 a 66%) é extra-articular e do restante entre 9% e 16% são classificadas como articular parcial e 25% a 30% como articular total.4

Desde sua primeira descrição,5 em 1814, por Abraham Colles, diversos sistemas de classificação foram propostos, como tentativa de se encontrar padrões que pudessem indicar a energia do trauma ocorrido, a estabilidade da fratura e o prognóstico da lesão. Idealmente, um sistema de classificação deveria ser anatomicamente reprodutível, diagnóstico, prognóstico, avaliar lesões associadas e indicar tratamento. Tal classificação ainda não existe e atualmente a classificação amplamente usada é a proposta pelo grupo AO3 (Arbeitsgemeinschaft für Osteosynthesefragen - Associação para o Estudo da Fixação Interna).

Essa é uma classificação alfanumérica, binária, que através das respostas obtidas subdivide-se em três tipos, nove grupos e 27 subgrupos. Devido a tamanho detalhamento, sua concordância intra e interobservadores apresenta resultados divergentes em estudos prévios, em relação aos tipos, grupos e subgrupos.6

Este trabalho tem como objetivo avaliar a confiabilidade intra e interobservador da classificação AO, com o uso apenas de radiografias simples, em pacientes com fratura do punho.

 

MATERIAL E MÉTODOS

O trabalho foi aprovado pelo comitê de ética da instituição sob o número CAAE-69671317.0.0000.5404.

Através do sistema PACS, foram resgatadas 52 imagens de pacientes de ambos os sexos, com fraturas do terço distal do antebraço, feitas em 2017. Somente foram selecionadas as radiografias iniciais de pacientes esqueleticamente maduros com fratura aguda, sem tratamento prévio e sem o uso de talas, fixadores, gesso e quaisquer outros objetos que pudessem encobrir ou distorcer a imagem radiográfica. Apenas as incidências posteroanterior e perfil foram incluídas no estudo. Cada imagem foi identificada apenas com um número, para futura referência.

As imagens foram, inicialmente, analisadas por 30 médicos, divididos em grupos que apresentavam, progressivamente, maior contato com fraturas do punho (10 residentes de ortopedia e traumatologia, 10 ortopedistas e 10 cirurgiões de mão), em ordem aleatória e sem identificação do paciente, com auxílio de tabela descritiva da classificação (fig. 1). Solicitou-se que classificassem as fraturas entre os tipos A (extra-articular), B (articular parcial) e C (articular total). Após a classificação do tipo, os voluntários classificaram seus nove grupos (de A1 a C3) e por último os subgrupos (de A1.1 a C3.3).

Após quatro semanas, os mesmos examinadores classificaram novamente as mesmas 52 radiografias, em uma nova ordem, determinada aleatoriamente, ainda sem identificação dos pacientes. Os examinadores não tiveram acesso ao resultado de suas avaliações iniciais, nem ao resultado dos outros membros envolvidos no trabalho.

Análise estatística

Os dados obtidos foram analisados com o método estatístico kappa. O coeficiente kappa é usado para avaliar a concordância entre observadores, subtrair a concordância que seria atribuída ao acaso. A interpretação dos valores foi feita conforme o proposto por Landis e Koch7 (tabela 1) e conforme tem sido usado tradicionalmente em trabalhos que adotem o coeficiente kappa. Valores kappa acima de 0,8 indicam excelente concordância, entre 0,61 e 0,8 boa reprodutibilidade, entre 0,41 e 0,60 reprodutibilidade moderada, entre 0,21 e 0,4 reprodutibilidade baixa e entre zero e 0,2 reprodutibilidade ruim. Valores negativos indicam discordância.

Tabela 1. Interpretação de Landis e Koch para valores de kappa
Valor de kappa Interpretação
< 0 Sem concordância
0-0,19 Concordância ruim
0,20-0,39 Concordância baixa
0,40-0,59 Concordância moderada
0,60-0,79 Concordância substancial
0,80-1,0 Excelente concordância

A classificação AO foi avaliada em três níveis diferentes de detalhamento. Primeiro, observou-se a concordância interobservadores entre os participantes de determinado grupo (residentes, ortopedistas e cirurgiões de mão) em relação aos tipos A, B e C. Em seguida, observou-se essa correlação considerando-se os tipos, que variavam de A1 a C3. Por último, foi avaliado o nível que se estendia de A1.1 até C3.3.8

Após quatro semanas, foram feitas novas avaliações e, ao se comparar essas com as iniciais, obteve-se a concordância intraobservador.

 

RESULTADOS

A concordância interobservador média global da classificação AO, sem distinção de grupo e para todos os níveis, foi considerada baixa (índice kappa de 0,30). Esse resultado se repetiu para todos os níveis, sem distinção do grupo dos examinadores, foi de 0,40 para o primeiro e mais simples nível, 0,30 para o segundo e 0,20 para o mais detalhado. Quando os grupos de examinadores foram levados em conta, baixos níveis de concordância média foram obtidos para o grupo dos residentes (0,27), ortopedistas (0,30) e cirurgiões da mão (0,33).

Os três níveis de classificação foram avaliados dentro dos grupos de examinadores. Para o grupo dos residentes, no primeiro nível foram obtidos baixos índices de concordância (0,34), no segundo foram obtidos baixos índices (0,27) e no nível mais detalhado observou-se uma concordância ruim (0,19). No grupo dos ortopedistas, obteve-se um moderado índice de concordância (0,42) no primeiro nível, baixo (0,30) no segundo e ruim (0,18) no nível mais detalhado. No grupo de cirurgiões da mão obteve-se moderado (0,44) índice de concordância para o primeiro nível e baixo para o segundo (0,32) e terceiro (0,23) níveis.

A concordância intraobservador global, sem distinção de grupos, foi considerada como moderada (0,41). Para o grupo dos residentes, a concordância média foi considerada baixa (0,36). Quando foi feita a distinção da concordância intraobservador, por níveis de classificação, obteve-se moderada concordância para o primeiro (0,50) e baixa para o segundo (0,34) e terceiro (0,23) níveis. O grupo dos ortopedistas obteve concordância média considerada baixa (0,39). No primeiro nível obteve-se um moderado (0,51) índice de concordância. Baixos índices foram obtidos no segundo (0,37) e terceiro (0,29) níveis. O grupo dos cirurgiões da mão apresentou uma concordância interobservador média considerada como moderada (0,50), foi considerada boa (0,63) para o primeiro nível, moderada (0,49) para o segundo e baixa (0,37) para o terceiro.

 

DISCUSSÃO

Um sistema de classificação ideal deve fornecer um meio de relatar resultados, bem como permitir rápida e clara comunicação entre profissionais. Deve, ainda, fornecer informações sobre o mecanismo e a energia do trauma, indicar padrões anatômicos, fazer pronto diagnóstico, estimar o prognóstico, avaliar grau de lesões de partes moles e guiar o tratamento. Além disso, deve ser fácil de usar, amplamente aceito, fácil, intuitivo e reprodutível.

Neste estudo observamos que quanto maior o contato cotidiano dos observadores com fraturas do punho, maior a concordância, porém nunca ultrapassou níveis moderados. Observou-se também que quanto maior o nível de detalhamento da classificação, menor o nível de concordância em todos os grupos.

Quando analisadas as concordâncias intraobservadores, observou-se grande frequência de índices moderados de concordância, o que indica que a classificação, após assimilada pelo observador, tende a ser usada de forma coerente.

Pode-se concluir que, apesar de essa classificação ser abrangente, quando usados todos os seus subtipos pode cobrir a maioria dos padrões de fratura existentes, ela apresenta baixos níveis de concordância interobservadores, não é assim reprodutível na prática clínica cotidiana.

Segundo estudo de 2015, existem 13.147 ortopedistas registrados em atividade no Brasil.9 Para que se tivesse uma tamanho amostral estatisticamente significante, seriam necessários 1.067 voluntários, para um intervalo de confiança de 95%. Assim, apesar de este estudo usar um número de voluntários maior do que os outros encontrados, seria necessário um estudo com um número muito maior de participantes para refutar o uso dessa classificação.

 

CONCLUSÃO

A classificação AO apresenta baixos níveis de reprodutibilidade entre residentes de ortopedia e traumatologia, ortopedistas e cirurgiões da mão. No entanto, sua reprodutibilidade intraobservador é moderada.

 

AGRADECIMENTOS

A todos os participantes do estudo que colaboraram com a dedicação do seu escasso tempo.

 

REFERÊNCIAS

Chung KC, Spilson SV. The frequency and epidemiology of hand and zorearm fractures in the United States. J Hand Surg Am. 2001;26(5):908-15. Link DOI Link PubMed
Reis FB, Faloppa F, Saone RP, Boni JR, Corvelo MC. Fraturas do terço distal do rádio: classificação e tratamento. Rev Bras Ortop. 1994;29(5):326-30.
Wolfe SW. Distal radius fractures. In: Wolfe SW, Pederson WC, Hotchkiss RN, Kozin SH, Cohen MS, editors. Green's operative hand surgery. 7th ed. Philadelphia: Elsevier Churrchill Livingstone; 2017. p. 516–87.
McQueen MM. Fractures of the distal radius and ulna. In: Rockwood and Green's fractures in adults. 8th ed. Philadelphia: Wolters Kluwer Healt; 2015. p. 1057.
Colles A. On the fracture of the carpal extremity of the radius. N Engl J Med Surg. 1814;3:368-72.
Kreder HJ, Hanel DP, McKee M, Jupiter J, McGillivary G, Swiontkowski MF. Consistency of AO fracture classification for the distal radius. J Bone Joint Surg Br. 1996;78(5):726-31. Link DOI Link PubMed
Landis JR, Koch GG. The measurement of observer agreement for categorical data. Biometrics. 1977;33(1):159-74. Link DOI Link PubMed
Cooney WP, Agee JM, Hastings H, Melone CP, Rayback JM. Symposium: management of intrarticular fractures of distal radius. Contemp Orthop. 1990;21:71-104.
Scheffer M, Biancarelli A, Cassenote A. Demografia Médica no Brasil 2015. São Paulo: Departamento de Medicina Preventiva da Faculdade de Medicina da USP; 2015. Conselho Regional de Medicina do Estado de São Paulo; Conselho Federal de Medicina.
Os autores declaram não haver conflitos de interesse.