From Wikipedia, the free encyclopedia
A metaanálise é un conxunto de ferramentas estatísticas que son útiles para sintetizar os datos dunha colección de estudos. Esta metaanálise iníciase cunha estimación de certo efecto recompilatorio (como a diferenza media, a razón de risco ou a correlación) de cada estudo.[1] A metaanálise permite ver estes efectos no contexto: se o tamaño do efecto é consistente, o efecto do tratamento pode ser considerado forte e o tamaño do efecto pode estimarse de xeito máis preciso que cun só estudo. Se o tamaño do efecto varía, esa variación pode ser descrita e, potencialmente, explicada.
O termo metaanálise foi inicialmente aplicado nas Ciencias Sociais e na Psicoloxía. A partir da década de 1980 comezouse a aplicar de forma crecente na Medicina e partir da década seguinte son moi frecuentes os artigos que describen resultados da metaanálise en publicacións médicas.
O termo "meta-analysis" foi acuñado por Gene V. Glass en 1976, sendo o primeiro estatístico moderno que sinalou que o seu maior interese era "que chamamos a metaanálise da investigación científica". Aínda que isto lle permitiu ser amplamente recoñecido como o fundador do método moderno, non foi ata a década de 1990 cando a práctica da metaanálise comezou a figurar, se ben non sempre, como un dos compoñentes importantes dun proceso de revisión sistemática. A teoría estatística arredor da metaanálise mellorou notablemente grazas ao traballo desempeñado por Nambury S. Raju, Larry V. Hedges, Harris Cooper, Ingram Olkin, John E. Hunter, Jacob Cohen, Thomas C. Chalmers, Robert Rosenthal e Frank L. Schmidt.
De modo conceptual, emprega un enfoque estatístico para combinar os resultados de estudos múltiples. As súas vantaxes poden logo interpretarse da seguinte maneira:
A metaanálise que dan varios estudos de curto alcance non predí os resultados dun só estudo amplo.[2] Algúns autores argumentaron que unha debilidade do método é que os focos do nesgo non están controlados polo propio método: unha boa metaanálise de estudos mal deseñados dará lugar a malas estatísticas. Isto significaría que só os estudos metodoloxicamente sólidos deben de ser incluídos nunha metaanálise, unha practica chamada "síntese da mellor evidencia". Outros analistas incluirían estudos máis débiles, e engadirían unha variable de predición en relación co estudo que reflicta a calidade metodolóxica dos estudos para examinar o efecto da calidade do estudo sobre o tamaño do efecto.[3] Porén, outros analistas argumentaron que o mellor enfoque é o de preservar a información sobre a variación na mostra do estudo, abranguendo o máis que se poida, e que os criterios de selección introduzan subxectividade non desexada, anulando o propósito deste enfoque.[4]
Outro problema potencial é a confianza na dispoñibilidade dos estudos publicados, o que pode xerar resultados esaxerados debido ao nesgo, porque os estudos que amosan resultados negativos ou insignificantes teñen menos probabilidades de ser publicados. Para unha área de investigación determinada, non se pode saber cantos estudos foron ocultados ou desbotados.[5]
Este problema dá lugar a que a distribución dos tamaños do efecto estean nesgados, sexan asimétricos ou estean totalmente illados, creando un erro común de razoamento lóxico, no que se sobreestima a importancia dos estudos publicados, mentres outros nin se publican. Isto debería ser considerado seriamente cando se interpretan os resultados dunha metaanálise.[5][6]
Isto pode ser visualizado cun gráfico de funil, que é un diagrama de dispersión do tamaño da mostra e do efecto. Para un determinado nivel de efecto, canto menor sexa o estudo, maior é a probabilidade de atopalo por casualidade. No mesmo tempo, canto maior sexa o nivel de efecto, menor será a probabilidade de que un estudo maior poida resultar así de positivo. No caso de que moitos estudos negativos non fosen publicados, os positivos restantes darían lugar a un gráfico de funil, no que o tamaño do efecto é inversamente proporcional ao tamaño da mostra, é dicir, unha parte importante do efecto que se amosa débese á posibilidade de que non se equilibren no diagrama por ausencia de datos negativos non publicados. En cambio cando se publica a maioría dos estudos, o efecto mostrou non ter razón para o nesgo polo tamaño do estudo, polo que resulta un gráfico de funil simétrico. Así que se non houber nesgo de publicación, non habería relación ningunha entre o tamaño da mostra e o tamaño do efecto.[7] Unha relación negativa entre o tamaño da mostra e o do efecto implica que os estudos que atoparon efectos significativos son máis propensos a ser publicados ou enviados para ese fin. Hai varios procedementos dispoñibles que tentan corrixir o problema do caixón unha vez identificado.
Os métodos para detectar o nesgo de publicación foron polémicos, xa que adoitan ter baixo impacto para detectalo e mesmo pode xerar supostos falsos baixo algunhas circunstancias.[8] Un método conxunto para analizar o nesgo da publicación foi proposto para abater falsos supostos e suxerir que o 25 % das metaanálises na psicoloxía poderían ter nesgo de publicación.[9] Non obstante, os posibles problemas de baixo impacto continúan a ser controvertidos e as estimacións do nesgo poderían ser inferiores ao valor real.
O erro máis grave na metaanálise, segundo H. Sabhan, ocorre habitualmente cando as persoas que realizan unha metaanálise teñen unha axenda económica, social ou política, como pode ser a aprobación ou a reprobación lexislativa. A xente con estas circunstancias podería ser máis propensa a empregar indebidamente a metaanálise debido aos seus prexuízos.
1. Formulación do problema 2. Busca de literatura 3. Selección de estudos, cos seguintes criterios de incorporación:
4. Decidir que variables dependentes ou medidas de resumo se permiten, como as diferenzas nos datos discretos, as medias nos datos continuos ou o g de Hedges, medida para datos continuos tipificada para eliminar diferenzas de escala pero que incorpora un índice de variación entre grupos:
5. Selección do modelo
Existen dous tipos de probas que se poden distinguir cando se realiza unha metaanálise: os datos iniciais achegados por cada participante (DIP) e os datos agregados (AD). Considerando que os datos iniciais representan a información procedente dos centros de estudos, os agregados son máis comúns e dispoñibles (por exemplo desde a bibliografía) e representan estimacións globais, como cocientes infrecuentes ou riscos relativos. Esta distinción incrementou as necesidades de métodos diferentes canda se desexa a proba, conducindo ao desenvolvemento de métodos dunha ou de dúas etapas; nos dunha etapa os datos iniciais son modelados simultaneamente mentres representan a agrupación de participantes dentro dos estudos; polo contrario os métodos de dúas etapas sintetizan os datos agregados de cada estudo e consideran os pesos do estudo. Reducindo os datos iniciais a datos agregados, os métodos de dúas etapas poden aplicarse mesmo cando se conta cos datos iniciais, o que representa unha alternativa de acción cando se realiza a metaanálise.
Aínda que se cría que os métodos dunha ou de dúas etapas dan lugar a resultados semellantes, estudos recentes demostraron que os devanditos métodos poden levar en ocasións a diferentes conclusións.[10]
O modelo de efectos fixos ofrece unha ponderación de estimacións en serie: a inversa das varianzas estimadas adoita ser empregado como peso no estudo, de xeito que os estudos máis grandes tenden a contribuír máis á media ponderada cós máis pequenos. En consecuencia, cando os estudos nunha metaanálise son dominados por un grande, as achegas dos estudos máis pequenos resultan practicamente ignoradas. O máis importante é que este modelo supón que todos os estudos incluídos estudan a mesma poboación, empregan a mesma variable e definicións dos resultados. Este suposte é irreal porque a investigación é habitualmente propensa a distintas fontes de heteroxeneidade.
Un modelo común para sintetizar estudos heteroxéneos, é o modelo de efectos aleatorios; este é a media ponderada dos tamaños do efecto dun grupo de estudos. O peso que se aplica neste proceso de ponderación cunha metaanálise de efectos aleatorios realízase en dous pasos:[11]
Isto significa que canto maior é esta variabilidade nos tamaños do efecto (coñecida tamén como heteroxeneidade) maior será a descarga do peso e isto pode chegar a un punto no que o resultado da metaanálise se converte no tamaño do efecto medio non ponderado. No extremo oposto, cando todo o tamaño do efecto é semellante (ou a variabilidade non excedde ao erro de mostraxe), non se aplica o compoñente do segundo paso e a metaanálise dos efectos aleatorios só dá por defecto unha metaanálise de efecto composto.
A medida desta inversión depende unicamente de dous factores, a heteroxeneidade da precisión e a heteroxeneidade do tamaño do efecto.[12]
O método máis empregado para estimar e ter en conta a heteroxeneidade é o método DerSimonian-Laird (DL). Recentemente desenvolveuse o método REML (Restricted Maximum Likelihood). Unha comparación entre estes e outros modelos demostrou que non hai moita diferenza e que DL é axeitado na meirande parte dos casos.[13]
A metarregresión é unha ferramenta empregada na metaanálise para examinar o impacto das variables moderadoras nun estudo do tamaño do efecto utilizando técnicas baseadas na regresión. A metarregresión é máis eficaz nesta tarefa que as técnicas de regresión tradicionais.
Na Medicina, unha metaanálise é o estudo baseado na integración estruturada e sistemática da información obtida en diferentes ensaios clínicos sobre un problema de saúde determinado. Consiste en identificar e revisar os estudos controlados sobre un determinado problema co fin de dar unha estimación cuantitativa sintética de todos os estudos dispoñibles. Dado que inclúe un número maior de observacións, ten unha potencia estatística superior aos ensaios clínicos que inclúe. Os dous principais problemas metodolóxicos da metaanálise de ensaios clínicos son:
Unha metaanálise clínica baséase principalmente nunha integración ou reciclaxe entre a información xa obtida para así poder lograr unha análise maior. A primeira metaanálise clínica foi realizada por Karl Pearson en 1904, nun intento de superar o problema da reducida potencia estatística dos estudos con mostras de pequeno tamaño; se se analizan os resultados dun grupo de estudos semellantes, pódese acadar unha valoración máis exacta dos efectos.
En Estatística unha metaanálise refírese ao conxunto de métodos enfocados a contrastar e combinar os resultados de estudos diferentes coa esperanza de identificar padróns entre os resultados do estudo, as fontes de desacordo entre estes resultados ou outras relacións interesantes que poidan aparecer no contexto de estudos múltiplos. Na súa forma máis simple lévase a cabo identificando unha medida común do tamaño do efecto, do cal unha media ponderada podería ser o dato de saída nunha metaanálise. A ponderación podería estar relacionada cos tamaños das mostras dentro dos estudos individuais.
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.