Skip to main content
Log in

Methodische Ansätze in der Versorgungsforschung

Das Beispiel Evaluation der Disease-Management-Programme

Methods in health services research

The example of the evaluation of the German disease management programmes

  • Leitthema: Versorgungsforschung
  • Published:
Bundesgesundheitsblatt - Gesundheitsforschung - Gesundheitsschutz Aims and scope

Zusammenfassung

Versorgungsforschung beschreibt und analysiert nach einer etablierten Definition von Pfaff den Weg des Patienten durch die Versorgungsinstanzen. Im Mittelpunkt stehen dabei die Entwicklung und Implementation innovativer Behandlungsverfahren sowie die Überprüfung ihrer Wirksamkeit in der Versorgungspraxis. Ziel ist es, Qualitätsverbesserungen zu erreichen und die Effektivität und Effizienz von Versorgungsleistungen zu erhöhen. In der Versorgungsforschung werden bei der Analyse von Struktur-, Prozess- und Ergebnisqualität 3 Ebenen unterschieden: (1) das Versorgungssystem in seiner Gesamtheit, (2) die jeweiligen Versorgungsinstitutionen sowie (3) die Interaktionsprozesse in verschiedenen Behandlungskontexten. Versorgungsforschung umfasst dabei ein breites Spektrum verschiedenster wissenschaftlicher Fachdisziplinen von Public Health über Medizin bis hin zu Sozialwissenschaften und Pflege. Zur Bewältigung ihrer Aufgaben braucht die Versorgungsforschung eine besondere Konstellation methodischer Instrumente. Im Mittelpunkt stehen dabei unterschiedliche Verfahren der Evaluationsforschung sowie besondere Anforderungen an Studiendesigns und Assessmentverfahren. Der Beitrag stellt am Beispiel der Disease-Management-Programme die methodischen Anforderungen an eine wissenschaftlich fundierte Evaluation dar.

Abstract

According to the established definition of Pfaff, health services research analyses patients’ path through the institutions of the health care system. The focus is on development, evaluation and implementation of innovative measures of health care. By increasing its quality health services research strives for an improvement of efficacy and efficiency of the health care system. In order to allow for an appropriate evaluation it is essential to differentiate between structure, process and outcome quality referring to (1) the health care system in its entirety, (2) specific health care units as well as (3) processes of communication in different settings. Health services research comprises a large array of scientific disciplines like public health, medicine, social sciences and social care. For the purpose of managing its tasks adequately a special combination of instruments and methodological procedures is needed. Thus, diverse techniques of evaluation research as well as special requirements for study designs and assessment procedures are of vital importance. The example of the German disease management programmes illustrates the methodical requirements for a scientific evaluation.

This is a preview of subscription content, log in via an institution to check access.

Access this article

Price excludes VAT (USA)
Tax calculation will be finalised during checkout.

Instant access to the full article PDF.

Notes

  1. Hier liegt ein aus Sicht der Autoren gravierender methodischer Mangel der Evaluationsvorschriften. Während bezüglich der Evaluation der DMP Diabetes mellitus eine Erhebung der subjektiven Lebensqualität bereits bei Einschreibung in das Programm vorgesehen ist, erfolgt diese im DMP Brustkrebs erst ein halbes Jahr nach Einschreibung (vgl. S. 26).

  2. Hierin ist ein weiterer Kritikpunkt zu sehen: Insgesamt werden damit die Kohortengrößen bei gemeinsamer Betrachtung der Zielkriterien erheblich verringert.

  3. Der Begriff subsumiert — im Gegensatz zum Begriff Designeffekte — alle Effekte, die unabhängig von der Tatsache, ob die Evaluation eines Programms durchgeführt wird, empirisch wirksam werden.

  4. Auf die hiermit verbundenen ethischen Implikationen wurde bereits an anderer Stelle hingewiesen [3].

Literatur

  1. Gerlach FM (2001) Qualitätsförderung in Praxis und Klinik: eine Chance für die Medizin. Thieme, Stuttgart

  2. Bundesversicherungsamt (2005) Kriterien des Bundesversicherungsamtes zur Evaluation strukturierter Behandlungsprogramme bei Brustkrebs. Eigenverlag, Bonn. S 1–27

  3. Morfeld M, Koch U (2005) Ansprüche an die Evaluation komplexer Gesundheitsprogramme — Disease-Management-Programme in Deutschland. Z Ärztl Fortbild Qualitätssich (ZaeFQ) 99:179–184

    Google Scholar 

  4. Bundesversicherungsamt (2005) Kriterien des Bundesversicherungsamtes zur Evaluation strukturierter Behandlungsprogramme bei Diabetes mellitus Typ 2. Eigenverlag, Bonn, S 1–34

  5. Nordrheinische Gemeinsame Einrichtung Disease-Management-Programme GbR, Qualitätssicherungsbericht 2004, Disease-Management-Programme in Nordrhein. 2004. Kassenärztliche Vereinigung Nordrhein, Düsseldorf, S 40

  6. Bundesversicherungsamt (2005) Anforderungen an den Vergleich der Programmauswertung/Risikoadjustierung. Eigenverlag, Bonn, S 3

  7. Rossi PH, Freeman HE, Lipsey MW (1999) Evaluation: a systematic approach. 6th edn. Sage Publications, Thousand Oaks, CA

  8. Gerlach FM, Beyer M, Szecsenyi J et al. (2003) Evaluation von Disease-Management-Programmen — Aktuelle Defizite, Anforderungen, Methoden. Z Ärztl Fortbild Qualitätssich (ZaeFQ) 97:405–501

    Google Scholar 

  9. Steckelberg A, Berger B, Köpke S et al. (2005) Kriterien für evidenzbasierte Patienteninformationen. Z Ärztl Fortbild Qualitätssich (ZaeFQ) (im Druck)

  10. Chen H (1990) Theory-driven evaluations. Sage, London

  11. Lipsey MW (1993) Theory as method: small theories of treatments. New Directions Program Evaluation 57:5–38

    Article  Google Scholar 

  12. Mühlhauser I, Berger M (2002) Patient education — evaluation of a complex intervention. Diabetologia 45:1723–1733

    Article  PubMed  Google Scholar 

  13. Basler HD (1998) Evaluation des Behandlungsprogramms im Gruppen-Setting. In: Basler HD, Kröner-Herwig B (Hrsg) Psychologische Therapie bei Kopf- und Rückenschmerzen — Das Marburger Schmerzbewältigungsprogramm zur Gruppen- und Einzeltherapie. Quintessenz, München

  14. Christiansen G (1998) Evaluation als Mittel der Qualitätssicherung in der Gesundheitsförderung. Bundeszentrale für gesundheitliche Aufklärung, Köln, S 82

  15. Patton MQ (1997) Utilization-focused evaluation: the new century text. Sage Publications, Thousand Oaks

  16. Wottawa H, Thierau H (2003) Lehrbuch Evaluation, 3 Aufl. Hans Huber, Bern

  17. Scriven M (1980) The logic of evaluation. Edgepress, California

  18. Rossi PH, Freeman HE, Hofmann G (1988) Programmevaluation. Einführung in die Methoden angewandter Sozialforschung. F. Enke, Stuttgart

  19. Cook TD, Shaddish TR (1994) Social experiments: some developments over the past 15 years. Annual Rev Psychol 40:545–580

    Article  Google Scholar 

  20. Moher D, Schulz KF, Altman DG et al. (2001) The CONSORT-Statement: revised recommendations for improving the quality of reprots of parallel-group randomised trials. Lancet 357:1191–1194

    Article  PubMed  Google Scholar 

  21. Eccles M, Grimshaw J, Campbell M et al. (2003) Research designs for studies evaluating the effectiveness of change and improvement strategies. Qual Saf Health Care 12:47–52

    Article  PubMed  Google Scholar 

  22. Schneeweiss S, Sangha O (2001) Leistungsvergleiche in der Medizin. Dtsch Med Wochenschr 126:918–924

    Article  PubMed  Google Scholar 

  23. Iezzoni LI (2004) Risk adjusting rehabiltation outcomes. An overview of methodological issues. Am J Physical Med Rehabilitation 83:316–326

    Article  Google Scholar 

  24. Lüngen M, Lauterbach KW (2003) DRG in deutschen Krankenhäusern. Schattauer, Stuttgart

  25. Kreft I, Leeuw J (1998) Introducing multilevel modeling. Sage, London

  26. Grimes DA, Schulz KF (2002) Bias and causal associations in observational research. Lancet 359:248–252

    Article  PubMed  Google Scholar 

  27. Chelimsky E, Shaddish WR (1997) Evaluation in the 21st century: a handbook. Sage, Thousand Oaks

    Google Scholar 

  28. Greulich A, Thiele G, Thiex-Kreye M (1997) Prozessmanagement im Krankenhaus. Decker, Heidelberg

  29. Sechrest L (1979) New directions for methodology of behavioral sciences: unobtrusive measurement today, No. 1. Jossey-Bass, Inc., San Francisco

    Google Scholar 

  30. Deming WE (1986) Out of the crisis. Massachusetts Institute of Technology, Cambridge, Massachusetts, p 507

  31. Selbmann HK (1995) Konzept und Definition medizinischer Qualitätssicherung. In: Gaebe W (Hrsg) Qualitätssicherung in psychiatrischen Krankenhäusern. Springer, Berlin Heidelberg Wien, S 3–10

  32. Bortz J, Döring N (2002) Forschungsmethoden und Evaluation, Vol. 3. Springer, Berlin Heidelberg New York Tokyo

  33. Härter M, Groß-Hardt M, Berger M (1999) Leitfaden Qualitätszirkel in der Psychiatrie und Psychotherapie. Hogrefe, Göttingen

  34. Campbell M, Fitzpatrick R, Haines A et al. (2000) Framework for the design and evaluation of complex interventions to improve health. BMJ 321:694–696

    Article  PubMed  Google Scholar 

  35. Wegscheider K (2000) Statistische Verfahren in der Rehabilitationsforschung. In: Bengel J, Koch U (Hrsg) Grundlagen der Rehabilitationswissenschaften. Springer, Berlin Heidelberg New York Tokyo, S 395–408

  36. Wirtz M (2004) Über das Problem fehlender Werte: Wie der Einfluss fehlender Informationen auf Analyseergebnisse entdeckt und reduziert werden kann. Rehabilitation 43(2):109–115

    Article  PubMed  Google Scholar 

  37. Kline RB (1998) Principles and practice of structural equation modeling. Guilfod Press, New York

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to M. Morfeld.

Rights and permissions

Reprints and permissions

About this article

Cite this article

Morfeld, M., Wirtz, M. Methodische Ansätze in der Versorgungsforschung. Bundesgesundheitsbl - Gesundheitsforsch - Gesundheitsschutz 49, 120–129 (2006). https://doi.org/10.1007/s00103-005-1204-5

Download citation

  • Issue Date:

  • DOI: https://doi.org/10.1007/s00103-005-1204-5

Schlüsselwörter

Keywords

Navigation