Fronteras en Salud Pública

Antecedentes: ¿Por qué Construir Modelos de Vías Causales?

En los últimos años, ha habido un reconocimiento creciente de la importancia de implementar prácticas basadas en evidencia como una forma de mejorar la calidad de la atención de salud y la salud pública. Sin embargo, los resultados de las actividades de aplicación han sido desiguales. Alrededor de dos tercios de los esfuerzos no logran el cambio previsto (2), y casi la mitad no tienen efecto en los resultados de interés (3). Las estrategias de implementación a menudo no se ajustan a los obstáculos (4), y los esfuerzos de implementación son cada vez más complejos y costosos sin mayor impacto (5). Estos resultados subóptimos se deben, en gran parte, a la escasez de teoría probada en el campo de la ciencia de la implementación (6). En particular, el campo tiene una comprensión limitada de cómo funcionan las diferentes estrategias de implementación, los mecanismos causales específicos a través de los cuales las estrategias de implementación influyen en la prestación de atención . Como consecuencia de ello, la ciencia de la aplicación ha sido limitada en su capacidad para informar de manera efectiva la práctica de la aplicación al proporcionar orientación sobre cuándo y en qué contextos deben utilizarse estrategias de aplicación específicas y, lo que es igualmente importante, cuándo no deben utilizarse.

La Academia Nacional de Ciencias define ” ciencia “como” el uso de la evidencia para construir explicaciones y predicciones comprobables de fenómenos naturales, así como el conocimiento generado a través de este proceso.”(8) El campo de la implementación ha pasado las últimas dos décadas construyendo y organizando el conocimiento, pero estamos lejos de tener explicaciones comprobables que nos permitan generar predicciones. Para mejorar los resultados de los esfuerzos de implementación, el campo necesita teorías comprobables que describan las vías causales a través de las cuales funcionan las estrategias de implementación (6, 9). A diferencia de los marcos, que ofrecen una estructura conceptual básica subyacente a un sistema o concepto (10), las teorías proporcionan una forma comprobable de explicar los fenómenos especificando relaciones entre variables, lo que permite predecir los resultados (10, 11).

Los modelos de vías causales representan interrelaciones entre variables y resultados de interés en un contexto dado (es decir, los bloques de construcción de la teoría de implementación). Especificar la estructura de las relaciones causales permite a los científicos probar empíricamente si las estrategias de implementación están operando a través de mecanismos teorizados, cómo los factores contextuales moderan los procesos causales a través de los cuales operan las estrategias de implementación y cuánta variación en los resultados se explica por esos mecanismos. Los hallazgos de estudios basados en modelos causales pueden, con el tiempo, ayudar al campo a desarrollar teorías más sólidas sobre los procesos de implementación y avanzar en la práctica de la implementación al abordar cuestiones clave. Por ejemplo, los modelos causales pueden hacer lo siguiente: (1) informar sobre el desarrollo de estrategias de implementación mejoradas, (2) identificar objetivos mutables para nuevas estrategias, (3) aumentar el impacto de las estrategias existentes, y (4) priorizar qué estrategias usar en qué contextos.

En esta pieza de perspectiva, proponemos un enfoque del desarrollo de la teoría especificando, en forma de modelos de vías causales, hipótesis sobre la operación causal de diferentes estrategias de implementación en diversos entornos, para que estas hipótesis puedan ser probadas y refinadas. Específicamente, ofrecemos un proceso de cuatro pasos para desarrollar modelos de vías causales para estrategias de implementación. Con este fin, argumentamos que el campo debe ir más allá de tener listas de variables que pueden considerarse determinantes , y hacia la articulación precisa de mediadores, moderadores, precondiciones y resultados (proximales versus distales) (ver Tabla 1 para definiciones).

CUADRO 1
www.frontiersin.org

Cuadro 1 Términos y definiciones.

Creación de modelos de Vías Causales

Nuestra perspectiva se basa en la Ciencia Ágil (13, 14), un nuevo método para desarrollar y estudiar intervenciones conductuales que se centra en la modularidad de la intervención, el modelado causal y las evaluaciones eficientes para generar evidencia empírica con condiciones de límites claras (en términos de población, contexto, comportamiento, etc.) para maximizar la acumulación y reutilización de conocimientos. La ciencia ágil se ha utilizado para investigar intervenciones para establecer objetivos para la actividad física, estrategias de compromiso para aplicaciones móviles de salud, intervenciones para la depresión en atención primaria y señales dietéticas automatizadas para promover la pérdida de peso (13, 15). Aplicado a las estrategias de implementación, el modelado ágil de diagramas de vías causales con información científica consta de al menos cuatro pasos: (1) especificar estrategias de implementación; (2) generar vínculos entre estrategia y mecanismo; (3) identificar resultados proximales y distales; y (4) articular moderadores y precondiciones. Para demostrar este enfoque, ofrecemos ejemplos de modelos de vías causales para un conjunto de tres estrategias de implementación diferentes (ver Figura 1). Las estrategias se basan en el siguiente ejemplo. Un centro comunitario de salud mental planea implementar una atención basada en mediciones en la que los proveedores soliciten datos de resultados notificados por los pacientes antes de las reuniones clínicas para informar el tratamiento (17). El centro comunitario de salud mental planea utilizar la capacitación, las sanciones financieras (desincentivos), la auditoría y la retroalimentación, ya que son estrategias comunes utilizadas para apoyar la implementación de la atención basada en la medición (18).FIGURA

1
www.frontiersin.org

Gráfico 1 Diagramas de modelos causales.

Paso 1: Especificación de Estrategias de Implementación

El estudio de Recomendaciones de expertos para Implementar el Cambio arrojó una compilación de 73 estrategias de implementación (19) desarrolladas por un equipo multidisciplinario a través de una revisión estructurada de la literatura (20), el proceso Delphi y el ejercicio de mapeo conceptual (19, 21, 22). Por lo tanto, existe una base sólida de estrategias conceptualmente claras y bien definidas. Sin embargo, la compilación nunca estuvo explícitamente vinculada a mecanismos. Siguiendo Kazdin (7), definimos “mecanismos” como los procesos o eventos a través de los cuales opera una estrategia de implementación para lograr los resultados de implementación deseados. Tras un examen cuidadoso, parece que muchas estrategias no están suficientemente especificadas para vincularse a mecanismos de manera coherente, un paso clave en la construcción de modelos causales. Por ejemplo, la compilación de 73 estrategias enumera “colaborativos de aprendizaje”, un enfoque general para el que las estrategias discretas o los componentes básicos no están suficientemente especificados. Esto dificulta la identificación de sus mecanismos de acción precisos (23). Las estrategias poco específicas también hacen que el campo sea vulnerable a la síntesis inapropiada de datos en los estudios (24, 25).

En nuestro ejemplo de caso, la capacitación es una estrategia que no se especifica suficientemente. Adaptamos procedimientos de Michie et al. (26) orientar la especificación de la estrategia recomendando que cada estrategia sea evaluada para determinar si: (1) tiene como objetivo promover la adopción, implementación, mantenimiento o ampliación de una práctica basada en evidencia; (2) es un “ingrediente activo” propuesto de adopción, implementación, mantenimiento o ampliación; (3) representa el componente más pequeño, conservando el ingrediente activo propuesto; (4) puede utilizarse solo o en combinación con otras estrategias discretas; (5) es observable y reproducible; y (6) puede tener un impacto mensurable en mecanismos de aplicación específicos (y, en caso afirmativo, si se pueden enumerar mecanismos supuestos). Si las estrategias no cumplen estos criterios, es necesario revisarlas y precisarlas más. Esto podría implicar sugerir definiciones alternativas, eliminar una estrategia de implementación por completo o articular una estrategia nueva y más estrecha que sea un componente o un tipo de la estrategia original. La capacitación cumpliría todos los criterios excepto el tercero y el sexto (enumerados anteriormente), porque la capacitación puede estar compuesta de varios ingredientes activos (por ejemplo, didáctica, modelado, juego de roles/ensayo, retroalimentación, seguimiento), cada uno de los cuales puede operar en un mecanismo único. En este caso, la formación debería definirse de forma más estricta para aclarar sus componentes básicos.

Paso 2: Generar Vínculos entre Estrategia y Mecanismo

Una vez especificada, una estrategia de aplicación debe vincularse a los mecanismos hipotéticos en que se basa su funcionamiento. Los mecanismos explican el efecto de una estrategia de aplicación describiendo las medidas que van desde la administración de la estrategia hasta los resultados de la aplicación (véanse las definiciones en el cuadro 1). Estadísticamente hablando, los mecanismos son siempre mediadores, pero los mediadores pueden no ser mecanismos. De manera similar, los moderadores pueden apuntar hacia mecanismos, pero no son mecanismos confiables en sí mismos. Los determinantes pueden explicar por qué una estrategia de aplicación tuvo o no un efecto, pero los mecanismos explican cómo una estrategia tuvo un efecto, por ejemplo, alterando la condición de un determinante. Los determinantes son factores naturales y a menudo, pero no siempre, maleables que podrían impedir o permitir que la estrategia afecte los resultados deseados. Los mecanismos se activan intencionalmente mediante la aplicación de una estrategia de implementación y pueden operar en diferentes niveles de análisis, como en los niveles intrapersonales (por ejemplo, aprendizaje), interpersonales (por ejemplo, intercambio), organizacionales (por ejemplo, intercambio de información)., liderazgo), comunidad (por ejemplo, reestructuración) y política macroeconómica (por ejemplo, orientación) (27). Para que un esfuerzo de implementación tenga éxito, las estrategias elegidas deben ser compatibles con los determinantes locales y capaces de actuar sobre ellos . Aunque se usa comúnmente en la ciencia de la implementación, proponemos que la noción de un determinante no es suficientemente específica, ya que los investigadores la han utilizado para referirse a al menos dos tipos de variables en un proceso causal: resultados proximales y modificadores de efectos (véase la nota al pie de página 1). Nuestra discusión a continuación utiliza estos términos más precisos en su lugar.

La mayoría de las estrategias de implementación probablemente actúan a través de múltiples mecanismos, aunque sigue siendo una pregunta empírica si un mecanismo es primario y otros son auxiliares. También es probable que el mismo mecanismo participe en la aplicación de múltiples estrategias de aplicación. La evaluación inicial de los vínculos entre la estrategia y el mecanismo se realiza en el contexto de la base de conocimientos científicos más amplia sobre la forma en que una estrategia produce un resultado (7). Por ejemplo, muchas estrategias tienen su propia base bibliográfica (p. ej., auditoría y retroalimentación) (28) que ofrecen información teórica y empírica sobre qué mecanismos podrían estar subyacentes al funcionamiento de esas estrategias . Siempre se debe hacer un esfuerzo para aprovechar y probar las teorías existentes, pero si ninguna ofrece suficiente orientación, las variables de hipótesis que pueden tener influencia causal siguen siendo críticas. De esta manera, con el tiempo, los vínculos entre la estrategia y el mecanismo formulados inicialmente pueden reevaluarse y perfeccionarse a medida que los estudios comienzan a probarlos empíricamente. Si bien estas evaluaciones empíricas son raras en la actualidad—en dos revisiones sistemáticas de los mecanismos de implementación, solo se identificaron 31 estudios y no se establecieron mecanismos empíricos (véase la nota al pie del texto 1; 29)—los modelos de vías causales que proponemos aquí tienen la intención explícita de facilitar las evaluaciones de los procesos mecanicistas a través de los cuales operan las estrategias de implementación.

Paso 3: Identificación de resultados Proximales y Distales

Los científicos de implementación han aislado ocho resultados como los puntos finales deseados de los esfuerzos de implementación: aceptabilidad, viabilidad, adecuación, adopción, penetración, fidelidad, coste y sostenibilidad (1). Muchos de estos resultados se interpretan apropiadamente como variables latentes, pero otros son de naturaleza manifiesta/observable (30); una revisión sistemática reciente ofrece medidas de estos resultados y metadatos de medición (31). En cuanto a los procesos causales a través de los cuales operan las estrategias de implementación, estos resultados a menudo se conceptualizan mejor como resultados distales que se pretende lograr con el proceso de implementación, y cada uno de ellos puede ser más destacado en una fase de implementación que en otra. Por ejemplo, con el Marco de Exploración, Preparación, Implementación y Mantenimiento (32), la aceptabilidad de una práctica basada en pruebas puede ser más destacada en la fase de exploración, mientras que la fidelidad puede ser el objetivo de una fase de implementación. A pesar de las interrelaciones temporales plausibles entre los resultados, la evidencia creciente indica que no todas las estrategias de implementación influyen en cada uno de los resultados mencionados (por ejemplo, la capacitación en talleres puede influir en la adopción, pero no en la fidelidad) (33). Para establecer plenamente la verosimilitud de un mecanismo de implementación y una vía causal comprobable, deben exponerse los resultados proximales.

Los resultados proximales son productos directos, medibles y típicamente observables de la estrategia de implementación que se producen debido a su mecanismo de acción específico. Es decir, afectar un resultado proximal en la dirección deseada puede confirmar/desmentir la activación del mecanismo putativo, ofreciendo una forma de baja inferencia para establecer evidencia de un mecanismo teorizado. En la mayoría de los casos, los mecanismos en sí mismos no pueden medirse directamente, lo que obliga (ya sea a una evaluación de alta inferencia o) a depender de la observación del cambio en un resultado próximo de interés. Por ejemplo, la educación didáctica, como ingrediente activo de la capacitación, actúa principalmente a través del mecanismo de aprendizaje sobre el resultado próximo del conocimiento para influir en el resultado de la implementación distal de la aceptabilidad percibida o incluso la adopción. La práctica con retroalimentación actúa a través del mecanismo de reflexión sobre los resultados próximos de las habilidades y la confianza para influir en el resultado de la implementación distal de la adopción o incluso la fidelidad. Para identificar los resultados inmediatos, uno debe responder a la pregunta, “¿Cómo sabré si esta estrategia de implementación tuvo un efecto a través del mecanismo que creo que está activando?”o” ¿Qué será diferente si los mecanismos hipotéticos para esta estrategia están en juego?”Es muy común que los mecanismos y los resultados proximales se combinen en la literatura, dado que los investigadores a menudo prueban modelos de mediación que examinan el impacto de una estrategia en un resultado de implementación distal a través de un resultado más proximal. De la forma en que estamos usando los términos, un mecanismo es un proceso a través del cual opera una estrategia de implementación, y un resultado próximo es un efecto medible de ese proceso que se encuentra en el camino causal hacia los resultados de implementación distales.

Paso 4: Modificadores de efectos Articulados

Finalmente, hay dos tipos de modificadores de efectos que son importantes de articular, los cuales pueden ocurrir a través de múltiples niveles de análisis: moderadores y precondiciones. Los moderadores son factores que aumentan o disminuyen el nivel de influencia de una estrategia de implementación en un resultado. Véase la Figura 1, en la que se articula un ejemplo para moderadores intra-individuales y a nivel de organización para la auditoría y la retroalimentación. Teóricamente, los moderadores son factores que interactúan con el mecanismo de acción de una estrategia, incluso si no se entiende exactamente cómo interactúan mecánicamente. Las condiciones previas son factores necesarios para que se active un mecanismo de aplicación (véase la Figura 1). Son condiciones necesarias que deben existir para que tenga lugar el proceso causal que lleva de una estrategia de implementación a sus resultados proximales y distales. Tanto los moderadores como las precondiciones a menudo se describen erróneamente como “determinantes” en la base de la literatura científica de implementación, lo que puede limitar nuestra capacidad de comprender la naturaleza de las relaciones entre una estrategia y los factores individuales y contextuales que modifican sus efectos y, a su vez, dónde, cuándo y por qué las estrategias tienen un efecto en los resultados de interés.

Direcciones Futuras: Lo que el Campo de Implementación Necesita para establecerse Plenamente como una Ciencia

Para establecerse plenamente como una ciencia al ofrecer explicaciones comprobables y permitir la generación de predicciones, ofrecemos cuatro pasos críticos para el campo de implementación: (1) especificar estrategias de implementación; (2) generar vínculos entre la estrategia de implementación y el mecanismo; (3) identificar resultados proximales y distales; y (4) articular modificadores de efectos. Además de estos pasos, sugerimos que la investigación futura se esfuerce por generar términos precisos para los factores implicados en los procesos de implementación y usarlos de manera consistente en todos los estudios. En una revisión sistemática de los mecanismos de implementación, los investigadores combinaron precondiciones, predictores, moderadores, mediadores y resultados proximales (ver nota al pie de página 1). Además, hay espacio para que el campo elabore directrices para seleccionar diseños de investigación y planes de estudio que tengan en cuenta las limitaciones prácticas de los contextos en que se estudia la implementación y permitan la evaluación del mecanismo. Los tipos de modelos de vías causales que defendimos aquí, junto con una comprensión de las limitaciones de un sitio de estudio en particular, permitirían a los investigadores seleccionar métodos y diseños apropiados para evaluar las relaciones hipotéticas al considerar cuidadosamente la dinámica temporal, como la frecuencia con la que se debe medir un mecanismo y cuánto se espera que cambie el resultado y cuándo.

Para avanzar realmente en el campo, es necesario hacer mucho trabajo para identificar o desarrollar medidas psicométricamente sólidas y pragmáticas de mecanismos de implementación. La evaluación empírica de modelos de vías causales requiere medidas psicométricas sólidas de mecanismos que también sean pragmáticas, pero ninguna de las siete revisiones publicadas de medidas relevantes para la implementación se centra en los mecanismos. Es probable que el desarrollo de la medición sea necesario para avanzar en el campo. Por último, la ciencia de la aplicación podría beneficiarse de una conservación más sólida de las pruebas para la transferencia y el uso de conocimientos. Otros campos albergan bases de datos basadas en la web para recopilar, organizar y sintetizar hallazgos empíricos . Al hacerlo, los campos pueden acumular conocimientos más rápidamente y los usuarios del conocimiento pueden determinar qué funciona, cuándo y por qué, así como qué generaliza y qué no. Esta selección de pruebas puede conducir de manera más eficiente a la elaboración de mejores estrategias de aplicación (por ejemplo, mediante la especificación de estrategias), la identificación de objetivos mutables para nuevas estrategias (por ejemplo, mecanismos revelados para estrategias existentes que pueden no ser pragmáticos) y la priorización del uso de estrategias para un contexto determinado (por ejemplo, dado el conocimiento de las condiciones previas y los moderadores).

Contribuciones de los autores

CL y PK son coautores, que codirigieron el desarrollo del manuscrito. CL y BW son co-PIs en una propuesta R01 que llevó a la creación de este manuscrito. Todos los autores (CL, PK, BP, AL, LT, SJ, CW-B y BW) contribuyeron al desarrollo de la idea, la escritura y la edición de este manuscrito y estuvieron de acuerdo con su contenido.

Declaración de Conflicto de Intereses

Los autores declaran que la investigación se realizó en ausencia de relaciones comerciales o financieras que pudieran interpretarse como un posible conflicto de intereses.

El revisor TW declaró una coautoría pasada con uno de los autores BP al Editor responsable.

Agradecimientos

BP desea reconocer la financiación del Instituto Nacional de Salud Mental (K01MH113806).

Nota al pie

  1. ^Lewis CC, Boyd MR, Walsh-Bailey C, Lyon AR, Beidas RS, Mittman B, et al. Revisión sistemática de estudios empíricos que examinan mecanismos de difusión e implementación en salud. Implementar Sci (en revisión).

1. Proctor E, Silmere H, Raghavan R, Hovmand P, Aarons G, Bunger A, et al. Outcomes for implementation research: conceptual distinctions, measurement challenges, and research agenda. Política de Gestión de la Salud (2011) 38(2):65-76. doi: 10.1007 / s10488-010-0319-7

Resumen de PubMed / Texto Completo de CrossRef | Google Scholar

2. Damschroder L, Aron D, Keith R, Kirsh S, Alexander J, Lowery J. Fostering implementation of health services research findings into practice: a consolidated framework for advancing implementation science. Implement Sci (2009) 4:50. doi: 10.1186/1748-5908-4-50

Resumen de PubMed / Texto Completo de CrossRef | Google Scholar

3. Powell BJ, Proctor EK, Glass JE. Una revisión sistemática de las estrategias para implementar intervenciones de salud mental con apoyo empírico. Práctica de Trabajo de Res Soc(2014) 24(2):192-212. doi:10.1177/1049731513505778

Resumen de PubMed / Texto Completo de CrossRef | Google Scholar

4. Bosch M, van der Weijden T, Wensing M, Grol R. Tailoring quality improvement interventions to identified barriers: a multiple case analysis. J Eval Clin Pract (2007) 13(2):161-8. doi: 10.1111 / j. 1365-2753. 2006. 00660.x

Resumen de PubMed / Texto completo de CrossRef | Google Scholar

5. Grimshaw JM, Eccles MP, Lavis JN, Hill SJ, Squires JE. Traducción del conocimiento de los resultados de la investigación. Implementar Sci (2012) 7(1):50. doi:10.1186/1748-5908-7-50

Resumen de PubMed / Texto Completo de CrossRef | Google Scholar

6. Grol RP, Bosch MC, Hulscher ME, Eccles MP, Wensing M. Planificación y estudio de la mejora en la atención al paciente: el uso de perspectivas teóricas. Milbank Q (2007) 85(1):93-138. doi: 10.1111 / j. 1468-0009. 2007. 00478.x

Resumen de PubMed / Texto completo de CrossRef | Google Scholar

7. Kazdin AE. Tratamiento y práctica basados en la evidencia: nuevas oportunidades para unir la investigación clínica y la práctica, mejorar la base de conocimientos y mejorar la atención al paciente. Am Psychol (2008) 63:146-59. doi: 10.1037 / 0003-066X.63.3.146

Resumen de PubMed / Texto Completo de CrossRef | Google Scholar

8. Academia Nacional de Ciencias. Definiciones de Términos Evolutivos . Washington, DC: Academia Nacional de Ciencias (2017). Disponible en: http://www.nas.edu/evolution/Definitions.html

Google Scholar

9. Eccles Mejoró la Eficacia Clínica a través del Grupo de Investigación Conductual. Diseñar intervenciones de implementación basadas en la teoría. Implementar Sci (2006) 1(1):4. doi:10.1186/1748-5908-1-4

Resumen de PubMed / Texto Completo de CrossRef | Google Scholar

10. Merriam-Webster Inc. Diccionario . Springfield, MA: Merriam-Webster, Inc (2017) . Disponible a partir de: https://www.merriam-webster.com/dictionary/

Google Scholar

11. Glanz K, Bishop DB. The role of behavioral science theory in development and implementation of public health interventions. Annu Rev Public Health (2010) 31:399-418. doi: 10.1146 / annurev.publhealth.012809.103604

Resumen de PubMed | Texto completo de CrossRef / Google Scholar

12. Krause J, Van Lieshout J, Klomp R, Huntink E, Aakhus E, Flottorp S, et al. Identificación de determinantes de la atención para la implementación a medida en enfermedades crónicas: una evaluación de diferentes métodos. Implement Sci (2014) 9:102. doi: 10.1186 / s13012-014-0102-3

Resumen de PubMed / Texto Completo de CrossRef | Google Scholar

13. Hekler EB, Klasnja P, Riley WT, Buman MP, Huberty J, Rivera DE, et al. Ciencia ágil: creación de productos útiles para el cambio de comportamiento en el mundo real. Transl Behav Med (2016) 6(2):317-28. doi: 10.1007 / s13142-016-0395-7

Texto completo de CrossRef | Google Scholar

14. Klasnja P, Hekler EB, Korinek EV, Harlow J, Mishra SR. Toward usable evidence: optimizing knowledge accumulation in HCI research on health behavior change. Actas de la Conferencia CHI de 2017 sobre Factores Humanos en Sistemas Informáticos. Denver, CO: ACM (2017). p. 3071-82.

Google Scholar

15. Patrick K, Hekler EB, Estrin D, Mohr DC, Riper H, Crane D, et al. The pace of technologic change: implications for digital health behavior intervention research (en inglés). Am J Prev Med (2016) 51(5):816-24. doi: 10.1016 / j. amepre.2016.05.001

Resumen de PubMed / Texto Completo de CrossRef / Google Scholar

16. Kroenke K, Spitzer RL. The PHQ-9: a new depression diagnostic and severity measure (en inglés). Siquiatra Ann (2002) 32(9):509-15. doi:10.3928/0048-5713-20020901-06

Texto completo de CrossRef | Google Scholar

17. Lewis CC, Scott KE, Hendricks KE. Un modelo y una guía para evaluar los resultados de la supervisión en programas de capacitación centrados en la terapia cognitivo–conductual. Entrene al Profesor de Educación Psicológica (2014) 8(3):165-73. doi: 10.1037 / tep0000029

Texto completo de CrossRef / Google Scholar

18. Lewis CC, Puspitasari A, Boyd MR, Scott K, Marriott BR, Hoffman M, et al. Implementación de la atención basada en la medición en la salud mental de la comunidad: una descripción de métodos personalizados y estandarizados. Notas BMC Res (2018) 11(1):76. doi:10.1186 / s13104-018-3193-0

Texto completo de CrossRef | Google Scholar

19. Powell BJ, Waltz TJ, Chinman MJ, Damschroder LJ, Smith JL, Matthieu MM, et al. A refined compilation of implementation strategies: results from the Expert Recommendations for Implementing Change (ERIC) project. Implement Sci (2015) 10:21. doi:10.1186 / s13012-015-0209-1

Resumen de PubMed / Texto Completo de CrossRef | Google Scholar

20. Powell BJ, McMillen JC, Proctor EK, Carpenter CR, Griffey RT, Bunger AC, et al. Una recopilación de estrategias para implementar innovaciones clínicas en salud y salud mental. Atención Médica Res Rev (2012) 69(2):123-57. doi:10.1177/1077558711430690

Resumen de PubMed / Texto Completo de CrossRef | Google Scholar

21. Waltz TJ, Powell BJ, Chinman MJ, Smith JL, Matthieu MM, Proctor EK, et al. Recomendaciones de expertos para la implementación del cambio (ERIC): protocolo para un estudio de métodos mixtos. Implementar Sci (2014) 9(1):39. doi: 10.1186/1748-5908-9-39

Resumen de PubMed / Texto Completo de CrossRef | Google Scholar

22. Waltz TJ, Powell BJ, Matthieu MM, Damschroder LJ, Chinman MJ, Smith JL, et al. Uso de mapas conceptuales para caracterizar las relaciones entre las estrategias de implementación y evaluar su viabilidad e importancia: resultados del estudio de Recomendaciones de expertos para la Implementación del Cambio (ERIC, por sus siglas en inglés). Implementar Sci (2015) 10:109. doi:10.1186 / s13012-015-0295-0

Resumen de PubMed / Texto Completo de CrossRef | Google Scholar

23. Nadeem E, Olin SS, Hill LC, Hoagwood KE, Horwitz SM. Comprender los componentes de los colaborativos para la mejora de la calidad: una revisión sistemática de la literatura. Milbank Q (2013) 91(2):354-94. doi: 10.1111 / milq.12016

Resumen de PubMed / Texto Completo de CrossRef / Google Scholar

24. Michie S, Fixsen D, Grimshaw JM, Eccles MP. Specifying and reporting complex behaviour change interventions: the need for a scientific method. Implementar Sci (2009) 4(1):40. doi: 10.1186/1748-5908-4-40

Resumen de PubMed / Texto Completo de CrossRef | Google Scholar

25. Proctor EK, Powell BJ, McMillen JC. Estrategias de aplicación: recomendaciones para especificar y presentar informes. Implement Sci (2013) 8:139. doi:10.1186/1748-5908-8-139

Resumen de PubMed / Texto Completo de CrossRef | Google Scholar

26. Michie S, Carey RN, Johnston M, Rothman AJ, de Bruin M, Kelly MP, et al. De intervenciones basadas en la teoría a intervenciones basadas en la teoría: un protocolo para desarrollar y probar una metodología para vincular técnicas de cambio de comportamiento con mecanismos teóricos de acción. Ann Behav Med (2016): 1-12. doi: 10.1007 / s12160-016-9816-6

Resumen de PubMed / Texto Completo de CrossRef | Google Scholar

27. Weiner BJ, Lewis MA, Clauser SB, Stitzenberg KB. En busca de sinergia: estrategias para combinar intervenciones a múltiples niveles. J Natl Cáncer en Monogr (2012) 2012(44):34-41. doi: 10.1093 / jncimonographs / lgs001

Resumen de PubMed / Texto completo de CrossRef / Google Scholar

28. Colquhoun HL, Carroll K, Eva KW, Grimshaw JM, I N, Michie S, et al. Avanzar en la literatura sobre el diseño de intervenciones de auditoría y retroalimentación: identificación de hipótesis basadas en la teoría. Implementar Sci (2017) 12:117. doi:10.1186 / s13012-017-0646-0

Resumen de PubMed / Texto Completo de CrossRef | Google Scholar

29. Williams NJ. Mecanismos multinivel de estrategias de implementación en salud mental: integrando teoría, investigación y práctica. Política de Gestión de la Salud (2016) 43(5):783-98. doi: 10.1007 / s10488-015-0693-2

Texto completo de CrossRef | Google Scholar

30. Lewis CC, Proctor E, Brownson RC. Cuestiones de medición en la investigación de difusión e implementación. 2nd ed. En: Brownson RC, Colditz GA, Proctor E, editores. Difusión e Implementación de la Investigación en Salud: Traducir la Ciencia a la Práctica. Nueva York: Oxford University Press (2018). p. 229-45.

Google Scholar

31. Lewis CC, Fischer S, Weiner BJ, Stanick C, Kim M, Martinez RG. Resultados de la ciencia de la aplicación: una revisión sistemática mejorada de los instrumentos utilizando criterios de calificación basados en la evidencia. Implement Sci (2015) 10:155. doi:10.1186 / s13012-015-0342-x

Resumen de PubMed / Texto completo de CrossRef | Google Scholar

32. Aarons GA, Hurlburt M, Horwitz SM. Promover un modelo conceptual de implementación de prácticas basadas en evidencia en los sectores de servicios públicos. Política de Gestión de la Salud (2011) 38(1):4-23. doi: 10.1007 / s10488-010-0327-7

Resumen de PubMed / Texto Completo de CrossRef | Google Scholar

33. Jensen-Doss A, Cusack KJ, de Arellano MA. Capacitación basada en talleres en TCC centrada en el trauma: un análisis en profundidad del impacto en las prácticas de los proveedores. Salud Comunitaria J (2008) 44(4):227-44. doi: 10.1007 / s10597-007-9121-8

Resumen de PubMed / Texto Completo de CrossRef | Google Scholar

34. Centro Médico de la Universidad de Columbia, Institutos Nacionales de Salud. Ciencia del Cambio de Comportamiento . Centro Médico de la Universidad de Columbia . Disponible en: https://scienceofbehaviorchange.org/

Google Scholar

Deja una respuesta

Tu dirección de correo electrónico no será publicada.