Skip to content
BY-NC-ND 3.0 license Open Access Published by De Gruyter November 28, 2015

14. Jahrestagung der Sektion Molekulare Diagnostik der DGKL am 11. und 12. Juni 2015 in der Evangelischen Akademie Tutzing

Report on the 14th Annual Meeting of the Section of Molecular Diagnostics of the German Society of Clinical Chemistry and Laboratory Medicine (DGKL), 11th/12th June 2015 in Tutzing
Peter Findeisen, Georg Hoffmann, Michael Kiehntopf, Hanns-Georg Klein, Uta Ceglarek and Daniel Teupser
From the journal LaboratoriumsMedizin

Zusammenfassung

Die 14. Jahrestagung der Sektion Molekulare Diagnostik der Deutschen Vereinten Gesellschaft für Klinische Chemie und Laboratoriumsmedizin (DGKL) stand unter dem Leitthema „Deep Phenotyping and Data Integration“ und fand vom 11.-12.06.2014 in Tutzing statt. Die Thematik wurde aus dem Blickwinkel der vier Arbeitsgruppen der Sektion (Genomics, Bioinformatik, Biobanking, Proteomics/Metabolomics) vorgestellt und diskutiert. Breiten Raum nahmen neue Herangehensweisen für die präzise, nach standardisierten Kriterien durchgeführte Dokumentation des Phänotyps (der „Klinik“) und deren Verknüpfung mit Omics-basierten Techniken ein. Es wurden aktuelle Beispiele für Integration dieser Daten zu einem sinnvollen Ganzen und die Schaffung eines medizinischen Mehrwerts vorgestellt, sowie bestehende Herausforderungen diskutiert. Dabei wurde evident, dass eine patientenorientierte, medizinisch sinnvolle Dateninterpretation und Befundung nur durch die Zusammenführung von Phänotypinformationen und großen Datensätzen möglich ist.

Arbeitsgruppe Genomics

Der Auftakt der Tagung wurde von der Arbeitsgruppe Genomics der Sektion mit insgesamt 4 Vorträgen gestaltet. Da die Ansätze zur Analyse von krankheitsrelevanten Mutationen und Varianten im Erbgut immer breiter und tiefer werden, d.h. immer mehr Gene in immer besserer Qualität bei weiterhin sinkenden Kosten untersucht werden können, stellt sich für die diagnostisch damit befassten medizinischen Disziplinen inzwischen die Frage, wohin diese Entwicklung führen wird. Nachdem die anfänglichen technischen Probleme des „Next Generation Sequencing“ als weitgehend gelöst gelten können, nehmen nun Fragen zur Handhabung von großen Datenmengen („Big Data Management“), zur Auswertung und Interpretation der Daten, zu deren klinischen Nutzen und natürlich zur Datensicherheit (z.B. „Data Sharing“) bzw. zu ethisch-rechtlichen Aspekten (z.B. Recht auf Nichtwissen, informationelle Selbstbestimmung, genetische Diskriminierung etc.) einen breiten Raum ein. Da in 4 Vorträgen nicht alle damit im Zusammenhang stehenden Themen diskutiert werden können, wurden 2 Vorträge zur klinischen Relevanz genombasierter Analysen und 2 Vorträge zur bioinformatischen Datenverarbeitung ausgewählt.

Aufgrund einer Erkrankung von Stefan Mundlos (Institut für Humangenetik der Charité, Berlin) wurden sowohl der erste Beitrag zum Thema „Diagnostik des Unbekannten-Strategien zur Analyse des krankheitsassoziierten Genoms“ als auch der zweite Beitrag „Diagnostik genetischer Erkrankungen mittels Phänotyp-Analyse des krankheitsassoziierten Genoms“ von Peter Robinson (ebenfalls Institut für Humangenetik der Charité, Berlin) vorgetragen. Zunächst wurde der Begriff Bioinformatik und dessen Verbindung zur „Ontology“ erläutert. Der Wert von Klassifikatoren entwickelt sich zunächst über einen Katalog, ein Glossar, ein Thesaurus bis hin zu Subklassifizierungen, Eigenschaften und schließlich logischen Verknüpfungen. Dazwischen angesiedelt ist die „Ontology“ als „Specification of Conceptualization“ (Gruber 1993). Die „Human Phenotype Ontology“ (HPO) wurde 2007 in der Arbeitsgruppe Bioinformatik am Institut für Humangenetik der Charité begonnen, mit dem Ziel über die Erfassung von Zeichen, Symptomen, Laborresultaten, Bildgebung etc. einen „Deep Phenotype“ zu charakterisieren. Inzwischen wurden 11.000 Begriffe und 117.000 Annotationen für ca. 7.000 monogene Erkrankungen in die Datenbank aufgenommen und nach „Disorder Classes“ (z.B. Knochen, Krebs, kardiovaskuläres System etc.) gruppiert. Dies soll die mathematische Berechnung von Wahrscheinlichkeiten für bestimmte Differenzialdiagnosen in Bezug auf phänotypische Merkmale mittels eines „Scores“ ermöglichen. Hierzu wurde die sog. „EXOMIZER“-Software entwickelt, die frei verfügbar ist. Bislang wurden 3.500 – 7.000 Gene charakterisiert, in denen Mutationen deterministisch zu einer Erkrankung führen. Interessant sind in diesem Zusammenhang auch “Cross Species“-Betrachtungsweisen zur Interpretation von Varianten in Exomen (s. auch www. monarchinitiative.org). Ein Ranking von krankheitsrelevanten Genen gelang mittels der Software „PHIVE“, die in bis zu 45% der Fälle das richtige Krankheitsgen auf Platz 1 einer Liste mit den wahrscheinlich kausativen Genen setzte. Die Arbeitsgruppe von Peter Robinson unterhält auch eine Kollaboration mit dem „Undiagnosed Disease Program“ der National Institutes of Health (Bethesda, U.S.A.). In der Patientenversorgung sollte man sich derzeit auf die Gene beschränken, die man auch interpretieren kann. Die diagnostische Ausbeute von Exom-Sequenzierungen liegt derzeit bei ca. 25%. Mit Hilfe der „PHENIX“-Software konnte so in Kooperation mit der Fa. Agilent ein spezielles Anreicherungsverfahren für das sog. „Mendeliom“ entwickelt werden, welches derzeit ca. 3.000 krankheitsrelevante Gene enthält. Die Aufklärungsrate bei unklaren Fällen lag hier bei 28%. Weitere wichtige bioinformatische Werkzeuge seien die „Phenogram-VIZ“-Software zur Detektion von „Copy Number Variations“ und „Text Mining Tools“ für häufige Erkrankungen.

Den dritten Beitrag übernahm Christoph Eckerskorn (Firma Biomax, Martinsried). Er berichtete über „Enabling operational excellence for systems medicine – a case study – the CIRO+ Integrated Knowledge System (IKS) “. Im Wesentlichen wurde über einen Pilotversuch eines „Knowledge Management“-Systems in einem Krankenhaus mittlerer Größe in Maastricht berichtet. Durch die Erfassung sämtlicher Daten kann eine statistische Klassifikation von Patho-Phänotypen erfolgen, die dann in standardisierte therapeutische Konzepte mündet. Dies sei ein wichtiger Beitrag zur sog. „System-Medizin“ und zur integrativen Patientenversorgung. Auch die Politik habe erkannt, dass die Digitalisierung der Medizin „Big Data“ generiert, die aber nur in einem „Big Context“ richtig verstanden werden können. Hierzu gab es im März 2015 eine Expertenanhörung im BMBF zum Thema Medizininformatik, an der das Konzept der P4-Medizin (personalisiert, präventiv, prädiktiv, partizipatorisch) diskutiert und die Notwendigkeit einer Systemmedizin nochmals herausgestrichen wurde. Wichtige Voraussetzungen für die Entscheidung in komplexen dynamischen Prozessen sei die vollständige Digitalisierung und Integration aller Daten sowie das Management von Information und Wissen. Die Datenbank für das Wissens- und Informationsmanagement bedarf 1) einer Spezifikation (Design des Wissens-Modells), 2) der Implementation (Datenimport) und 3) der Anwendung (Datenbankabfragen und Extraktion der Information).

Der vierte Beitrag von Sebastian Eck (Zentrum für Humangenetik und Laboratoriumsdiagnostik, MVZ Martinsried) schloss sich nahtlos an die Themen der Vorredner an. Herr Eck stellte ein Datenbankmodell vor, welches in Martinsried entwickelt wurde, um die umfangreichen Datensätze von „Next Generation Sequencing“ Panels sowie Exom- und Genomanalysen unter Wahrung von Datenschutz und informationellem Selbstbestimmungsrecht für die Diagnostik besser nutzbar zu machen. So werden bioinformatisch nicht gewünschte Informationen über Gene (z.B. Risikogene für familiäre Tumorerkrankungen oder spätmanifestierende neurodegenerative Erkrankungen) ausgeblendet und dem Auswerter gar nicht erst gezeigt. Dennoch bleibt die wichtige Information über Allel-Varianten in diesen Genen anonymisiert in einer zweiten, sog. „Varianten-Datenbank“ erhalten. Diese Information ist für die Auswertung anderer Datensätze wichtig, da die Häufigkeit von Varianten einer der stärksten Prädiktoren für eine Krankheitsassoziation darstellt. Weiterhin werden in einem Forschungsprojekt unter dem Begriff „MIDAS“ Datensätze mit der Systematik der Human Phenotype Ontology (HPO) kombiniert.

Arbeitsgruppe Bioinformatik

Die von der Arbeitsgruppe Bioinformatik gestaltete Sitzung umfasste in diesem Jahr drei Vorträge, die ein breites Spektrum der Analyse von Phänotyp-Daten von der Epidemiologie, über die Systembiologie bis hin zur Klinik umspannten.

Matthias Nauck (Universitätsmedizin Greifswald) stellte das Deep Phenotyping, das sich üblicherweise auf ein bestimmtes Individuum bezieht, in den größeren Zusammenhang der Systemepidemiologie. Mit dem Abschluss des Human-Genom-Projekts im Jahr 2001 und mehr noch mit den nachfolgenden Studien der „Postgenom-Ära“ bekam die Genotyp-Phänotyp-Korrelation einen immer höheren Stellenwert. Unterschiedliche Techniken wurden etabliert, um die Genprodukte und damit das Transkriptom, das Proteom und das Metabolom zu charakterisieren. Sie bestimmen den Phänotypen in Wechselwirkung mit nicht genetischen Einflussgrößen wie etwa Ernährung oder physikalischen und chemischen Umweltfaktoren. An der Universität Greifswald wurde 1997 die erste Kohorte unter dem Titel „Study of Health in Pomerania“ (SHIP) gestartet, deren Probanden seitdem im 5-Jahresabstand regelmäßig nachuntersucht werden. Im Jahr 2008 startete die zweite Kohorte unter der Bezeichnung SHIP-Trend. Zahlreiche Analysen und Auswertungen wurden seit dem der Beginn der Studien durchgeführt und zum Teil hochrangig publiziert. Diese Arbeiten analysieren interdisziplinär unter anderem klinische Phänotypen mit Morbiditäts- und Mortalitätsdaten auf der Basis integrierter OMICs-Datenbanken. Ziel ist es, das mit NMR- oder Massenspektrometrie charakterisierte Metabolom mit Genotypen und unterschiedlichen (biochemischen) Phänotypen zu korrelieren, um Krankheitsassoziationen aufzudecken und daraus integrative persönliche OMICS-Profile (iPOP) für die Risikoabschätzung zu erstellen. Um diesen Ansatz zu prüfen, werden im Rahmen des Projekts GANI_MED Patientenkohorten für kardio- und zerebrovaskuläre sowie endokrin-metabolische Erkrankungen rekrutiert. Erste Ergebnisse für Nierenerkrankungen, koronare Herzkrankheit und Insulinsensitivität sind bereits publiziert. Die größte Herausforderung liegt derzeit in der korrekten Interpretation der enormen Datenmengen, die in diesen Studien generiert werden. Einerseits kommt es aufgrund der Komplexität zwangsläufig zu rein zufälligen Assoziationen, die von pathogenetisch relevanten Zusammenhängen unterschieden werden müssen, andererseits können tatsächliche Genotyp-Phänotyp-Assoziationen aufgrund der intra- und interindividuellen Streuung übersehen werden. Am Beispiel von detaillierten metabolischen Untersuchungen im Rahmen des oralen Glukosetoleranztests präsentierte Nauck, dass sich Patienten im Metabolom deutlich unterscheiden können, obwohl Biomarker wie Glukose und Insulin ähnliche Veränderungen zeigen. Die wissenschaftliche Herausforderung besteht darin, klinisch relevante Unterschiede im Metabolom herauszuarbeiten und Therapien zu entwickeln, die auf die individuelle Stoffwechselsituation des einzelnen Patienten abgestimmt sind.

Thomas Braun (Universität Basel) führte in die IT-Plattform openBEB, ein Werkzeug für die integrative Datenerfassung und -analyse in der Systembiologie ein. BEB steht für „Biological Experiment Browser“; er unterstützt die Auswertung und Visualisierung einer Vielzahl von Einzelzellanalysen, wobei besonderer Wert auf die Zusammenführung von quantitativen Messresultaten und Bildbefunden gelegt wird. Bei der Analyse von kultivierten Zellen und Geweben gehen einerseits Einzeleffekte, die für das Gesamtbild von essenzieller Bedeutung sind, leicht verloren (Verdünnung). Anderseits können sich in Zellpools aber gegensätzliche Einzeleffekte durch Summation auch abflachen oder aufheben (Verdurchschnittlichung). OpenBEB unterstützt die Lösung dieser Probleme durch eine aufwendige Datenaufbereitung und -interpretation, indem es als integrative Plattform mit modularem Aufbau verschiedenste Plugins und Makros kombiniert. So entsteht eine erweiterbare und modulare Sprache, die der Benutzer nach seinen eigenen Bedürfnissen konfigurieren kann. Über Plugins können unterschiedlichste Analyseverfahren von der Massenspektrometrie über Revers-Phasen-Protein-Arrays (RPPA) bis zur Transmissions-Elektronenmikroskopie (TEM) direkt parametriert und, wenn nötig, gesteuert werden. Die Organisation der teils parallelisierten, teils konsekutiven Analyse- und Steuerbefehle erfolgt über entsprechende Makros. Die Intermediärdaten und Analysenergebnisse werden in einem hierarchischen Sammelsystem abgelegt und über eine Datenbank organisiert. Das System beinhaltet auch administrative Module beispielsweise für die Organisation der Daten und Metadaten oder für Annotationen. Darin ist auch ein Fehlerbehandlungssystem integriert, das die Prozesse auf allen Modulebenen protokolliert und ggf. in die Abläufe eingreift. In Zukunft können die gesammelten Daten anschließend über weitere Plugins und Makros ausgewertet werden, so dass die Einzelergebnisse auch durch Integration von eingebundenen Annotationen mittels statistischer Verfahren und Visualisierungswerkzeugen trotz ihrer Komplexität und Menge Korrelationen und Zusammenhänge erkennen lassen. OpenBEB versteht sich als Anwender-getriebene Plattform, die ständig weiterentwickelt wird. Eine überarbeitete Version 3 ist für Herbst 2015 angekündigt.

Andreas Bietenbeck (TU München) demonstrierte die Integrative Analyse phänotypischer Daten in der klinischen Anwendung. Hierfür wurde ein umfangreicher, anonymisierter Datensatz erstellt, für den einerseits Analysenresultate aus der täglichen Laborroutine und andererseits administrative Daten aus dem DRG-System (§ 21 Krankenhaus-Entgelt-Gesetz) zusammengeführt wurden. Aufgrund der kodierten Hauptdiagnosen wurden beispielhaft drei Patientengruppen gebildet: zerebro-vaskuläre Erkrankungen, ischämische Herzerkrankung und gastrointestinale Tumoren. Im Rahmen einer Machbarkeitsstudie sollte aufgrund häufig gemessener Laborwerte vorhergesagt werden, welche Patienten überdurchschnittlich lange im Krankenhaus verweilen. Das Hauptgewicht der Studie lag nicht so sehr auf dem Ergebnis, als vielmehr auf der (aus Labor- und Informatiksicht korrekten) Datenaufbereitung und –prozessierung. Nach Bereinigung des Datensatzes (Todesfälle, Verlegungen, unklare Hauptdiagnosen, große Wertelücken etc.) wurden statistische Kenngrößen zur Charakterisierung der Daten im zeitlichen Verlauf etabliert, beispielsweise Mittelwert, Minimum, Maximum, Steigung und Regression. Als Beobachtungszeitraum wurden die ersten Tage des Aufenthalts gewählt, nämlich 20, 50 und 70% der jeweils mittleren Verweildauer, als Outcome-Kriterium die sogenannten Langliegern, nämlich die 20% der Patienten mit der jeweils längsten Verweildauer. Anschließend erfolgte eine Modellierung mit verschiedenen Verfahren wie „one rule“, lineare Diskrimination, einem C5.0-Entscheidungsbaum sowie „random forest“. Die Evaluation der einzelnen Verfahren erfolgte über eine cross-Validation mit Trainings- und Test-Set, wobei dies iterativ durch eine Permutation des Gesamtdatensatzes durchgeführt wurde. Erwartungsgemäß schnitt das „one rule“-Verfahren, das nur die jeweils beste Variable berücksichtigt, deutlich schlechter ab als die anderen Verfahren, die mehrere Variablen kombinieren. Als leistungsfähigster Algorithmus erwies sich in der Regel der C5.0-Entscheidungsbaum. Für alle drei Patientengruppen ergaben sich für das jeweils beste Verfahren positiv prädiktive Werte (PPV) in der Größenordnung von 0,65. Das bedeutet einen Informationsgewinn von mehr als Faktor 3, da die A-priori-Wahrscheinlichkeit für einen Langlieger definitionsgemäß ja nur 0,2 (20%) betrug. Diese Data-Mining-Studie belegt, dass man mit integrativer Analyse unabhängiger Datensätze im Nachhinein Fragestellungen definieren und beantworten kann, die nicht in der ursprünglichen Intention der Datenerhebung beinhaltet waren. Um an einer Universitätsklinik aus dieser Erkenntnis praktischen klinischen Nutzen zu ziehen, müssen allerdings weitere Vorbedingungen erfüllt sein: Alle Daten (Laborwerte, sonstige Befunde, anamnestische Daten, Diagnosen etc.) sollten in digitalisierter Form vorliegen, auch Daten aus der klinischen Forschung sollten integriert werden, und die datenschutzrechtlichen Fragen sollten abteilungsübergreifend geklärt werden.

Arbeitsgruppe Biobanken

Die Sitzung der Arbeitsgruppe Biobanken behandelte das Leitthema Biobanking in der Laboratoriumsmedizin: Status quo und quo vadis? Insgesamt wurden sieben Vorträge aus den Biobankstandorten deutscher Universitätsinstitute der Klinischen Chemie und Laboratoriumsmedizin präsentiert.

Matthias Nauck stellte die Integrated Research Biobank (IRB) am Institut für Klinische Chemie und Laboratoriumsmedizin der Universität Greifswald und deren Aktivitäten in den drei Bereichen Study of Health in Pomerania (SHIP), Nationale Kohorte und Deutsches Zentrum für Herzkreislauferkrankungen (DZHK) vor. Im Rahmen der Study of Health in Pomerania (SHIP) werden am Standort Greifswald seit 1997 Bioproben aus epidemiologischen Studien gewonnen, gelagert und für zahlreiche Analysen in und außerhalb des Instituts verwendet. In der Anfangszeit wurden die Proben mit unterschiedlicher Art der Kennzeichnung klassisch in einzelnen Boxen gelagert. Durch die vielfältigen Anforderungen und die Ausweitung des Biobankings und der intensiven Inanspruchnahme der eingelagerten Proben in zahlreiche klinische Studien (z.B. GANI_MED) wurden die Prozesse des Biobankings-beginnend mit der Probengewinnung- und dem Transport, über die Probenverarbeitung, die Ein- und Auslagerung bis hin zur Analytik und Postanalytik – effizient strukturiert. So werden am Standort Greifswald die Probanden bzw. Patienten über das zentrale Klinik Informations System (KIS) geführt und damit wesentliche Informationen zu den Probanden und Patienten an die Labor-EDV elektronisch übermittelt. Die Anforderungen werden in pseudonymisierter Form in die Labor-EDV übertragen, so dass jedes Aliquot für die automatisierte Biobank bereits einen Laborauftrag besitzt. Alle Aliquote erhalten zusätzlich zum spezifischen 2D Code am Boden des Gefäßes einen 1D Barcode, der die etablierte Struktur der Labor-EDV mit der spezifischen Materialkennung berücksichtigt. Mit dieser aufwendigen – aber automatisierten – Probengefäßvorbereitung ist die Basis geschaffen, die eingelagerten Proben zu einem späteren Zeitpunkt direkt in die Laborgeräte für die Analysen zu stellen, so dass die Vorbereitung der Proben nach der Lagerung nahezu entfällt. Damit bleibt die hohe Probenqualität in dieser wichtigen Phase aufgrund der kurzen Prozessierungszeiten erhalten; Fehler beim Umlabeln bzw. Umpipettieren können nicht entstehen. Im Zusammenhang mit der Nationalen Kohorte (NAKO) bestand die Herausforderung darin, an 18 definierten Studienzentren, die in ganz Deutschland verteilt sind, Proben in hoher Qualität hochstandardisiert für die Biobank und damit die späteren Analysen zu gewinnen. Nach der Definition der Probengewinnung- und Verarbeitung der unterschiedlichen Biomaterialien in spezifischen SOPs werden diese Prozesse der Probengewinnung und -verarbeitung durch eine Workflow basierte LIMS (CentraXX) der Firma Kairos unterstützt. Die Geräteausstattung der einzelnen Studienzentren ist identisch und beinhaltet z.B. einen Pipettierroboter der Firma Hamilton. Das zentral installierte LIMS ist ein Subsystem des zentralen Datenmanagements mit den Funktionen der Treuhandstelle und Datenhaltung. Durch das LIMS werden die einzelnen Bearbeitungsschritte in Workflows abgebildet, so dass sich eine definierte Reihenfolge der Bearbeitungsschritte ergibt und Fehler von Beginn an vermieden werden. Die Steuerung des Pipettierroboters erfolgt ebenfalls durch das LIMS, so dass zusätzlich die einzelnen Arbeitsschritte in Hinblick auf die Prozessierungszeiten gut dokumentiert sind. Die Aliquotgefäße der Nationalen Kohorte der Firma FluidX mit Außengewinde und einem Working Volume von 250 bzw. 500 μL enthalten neben dem spezifischen 2D-Code am Boden der Gefäße noch einen zweiten identischen 2D-Code an der Seite des Gefäßes. Damit ist einerseits die Sicherheit erhöht, falls der 2D-Code am Bodengefäß beschädigt wird, andererseits erhöht sich die Praktikabilität, da eine große Anzahl von Messsystemen gegenwärtig nicht in der Lage ist, 2D-Codes zu lesen, die sich am Boden der Gefäße befinden. Die Aliquote werden zu einem Drittel dezentral in den einzelnen Studienzentren gelagert. Zwei Drittel werden zentral ins Helmholtz Zentrum nach Neuherberg geschickt, wo die meisten Proben perspektivisch in einer voll automatisierten Biobank der Firma LiCONIC bei –180 °C in der Gasphase des flüssigen Stickstoffs gelagert werden. Im Deutschen Zentrum für Herzkreislauferkrankungen (DZHK) musste eine Struktur für das Biobanking geschaffen werden, die für eine große Anzahl von unterschiedlichen Rekrutierungszentren einfach und sicher funktionieren muss, ohne dass an allen Stellen auf die vorhandene Infrastruktur Einfluss genommen werden kann. Dabei bestehen an die Daten- und Probenqualität wie in der NAKO höchste Ansprüche. Dieses Ziel wird erreicht, in dem Probenabnahmesets zentral zusammengestellt werden, die nur mit einem LIMS-Pseudonym versehen werden, so dass alle Belange des Datenschutzes eingehalten werden. Die Probenabnahmesets enthalten die notwendigen Primärgefäße mit den Barcode-Etiketten sowie die Aliquotgefäße der Firma FluidX, die sich pro Proband/Patient auf einem Rack befinden. Die Aliquotgefäße mit einem Working Volume von 300 μL enthalten neben dem spezifischen 2D-Code am Boden der Gefäße einen zweiten gesonderten 1D-Barcode, der spezifisch für ein Aliquot eines Probensets ist und Informationen zu Studie, Materialart und Aliquotgefäß enthält. Die Proben werden in der Regel dezentral an den einzelnen Studienzentren gelagert. Die Rekrutierung des ersten Patienten erfolgte im Dezember 2014. Seitdem nimmt die Zahl der rekrutierenden Zentren, der bewilligten DZHK-Studien und der eingeschlossenen Patienten stetig zu.

Uta Ceglarek berichtete über die LIFE-Biobank des LIFE-Forschungszentrums für Zivilisationserkrankungen der Universität Leipzig. Das Leipziger LIFE-Forschungszentrum für Zivilisationserkrankungen erforscht die Ursachen von Zivilisationserkrankungen wie Gefäßerkrankungen und Herzinfarkt, Diabetes mellitus und Adipositas, Depression, Demenz, sowie Allergien und Stoffwechselstörungen. Ziel der Leipziger Großstudie mit mehr als 24.000 Kindern und Erwachsenen sind neue Erkenntnisse über Ursachen und Variabilität der wichtigsten Zivilisationserkrankungen – und daraus folgend neue Ansätze für Prävention, frühzeitige Diagnose und Therapie zu finden. Neben einem umfangreichen Untersuchungsprogramm aller LIFE-Probanden wurden auch Bioproben gesammelt. Dafür wurde zusammen mit Partnern der Industrie und dem Institut für Laboratoriumsmedizin, Klinische Chemie und Molekulare Diagnostik ein vollkommen neues Biobanksystem für die Langzeitlagerung der LIFE-Bioproben entwickelt. Besonderheit der Biobankbank ist die permanente Einhaltung der Kühlkette bei –80 °C bzw. –150 °C. Dies wird neben dem Transport von Proben auf Trockeneis durch Sortiervorrichtungen bei –100 °C (Workbench und HS200 von Askion) ermöglicht. Da die entnommenen Materialien (Serum, Plasma, Urin, Nukleinsäuren, Muttermilch, Speichel, periphere mononukleäre Blutzellen u. a.) unterschiedliche Anforderungen an ihre Lagerung stellen, wurden verschiedene Lagerstrategien entwickelt. Neben der Lagerung von Plasma und Serum in verschweißbaren Kunststoffhalmen in der Gasphase flüssigen Stickstoffs (<–150 °C), werden auch Kryoröhrchen bei –80 °C gelagert. Die gesamte Probenlogistik inklusive der LIFE-Biobank wird durch ein speziell für das LIFE-Projekt entwickeltes Laborinformations- und Management- System (CryoLab) unterstützt. Ein Qualitätssicherungsprogramm, welches die Probenqualität der Langzeitlagerung anhand eines ausgewählten Protein- und Metabolitspektrums untersucht, begleitet seit 2 Jahren die Biobank Ein- und Auslagerungsprozesse. In den letzten 6 Jahren wurden in die LIFE-Biobank ca. 1 Million Proben, davon die Hälfte in der Gasphase bei –150 °C eingelagert. Dabei wurden die vorab definierten Qualitätsstandards für Transport- und Prozessierungszeiten durch eine abgestimmte Probenlogistik erfüllt. Mit Hilfe des CryoLab Managementsystems wurden bereits 74.000 Proben für Projekte des LIFE-Forschungsverbundes für genomweite Untersuchungen, Proteom- und Metabolomuntersuchungen sowie die Analytik neuer Biomarker zur Verfügung gestellt.

Im Vortrag von Hassan Jomaa wurde über die Comprehensive Biobank Marburg (CBBMR), die eine interdisziplinäre Serviceeinrichtung des Fachbereichs Medizin der Philipps-Universität Marburg ist und Institute und Kliniken bei der Durchführung von Forschungsprojekten unterstützen soll, berichtet. Herr Jomaa hat hierbei insbesondere über die Einbeziehung des Instituts für Laboratoriumsmedizin und Pathobiochemie, Molekulare Diagnostik zur Unterstützung des Liquid Biobankings berichtet.

Peter Findeisen berichtete über die Biobank am Institut für Klinische Chemie der Medizinischen Fakultät Mannheim der Universität Heidelberg. Die Biobank wurde bereits im Jahr 2005 initiiert. Im Fokus stand und steht die analytische Qualitätskontrolle von klinischem Probenmaterial, nachdem schon sehr früh Erfahrungen zum hohen Impakt der Probenqualität auf multiparametrische Massenspektrometrie-Daten gesammelt werden konnten (Findeisen et al. Clin Chem. 2005;51(12):2409–11). In weiteren unabhängigen Publikationen konnte gezeigt werden, dass die präanalytische Variabilität die diskreten, krankheitsassoziierten Veränderungen in klinischem Material auch komplett überlagern können und eine sinnvolle Auswertung damit unmöglich machen. Folglich ist eine Qualitätssicherung für den Aufbau einer Biomaterialsammlung essentiell. Hierfür stehen prozedurale Sicherungsmaßnahmen zur Verfügung. In Mannheim wurden für den Forschungsschwerpunkt Onkologie zahlreiche SOPs für verschiedene Probenmaterialien definiert und ein order entry System etabliert, welches ein effizientes „Tracking“ der Forschungsproben ermöglicht. Darüber hinaus wurden aber auch Methoden entwickelt, um die präanalytische Qualität distinkter Proben unmittelbar zu messen. Diese analytische Qualitätssicherung beruht auf der massenspektrometrischen Quantifizierung von Decay-Markern. Hierfür stehen exogene, synthetische Reporterpeptide zur Verfügung, welche in klinisches Probenmaterial eingespikt werden. Danach findet durch intrinsischen Proteaseaktivität eine zeitabhängige Verkürzung der Reporterpeptide statt, welche nach assay-Kalibration die Bestimmung der präanalytischen Zeitspanne einer beliebigen Probe ermöglicht (Findeisen at al. Am J Clin Pathol. 2013;140(3):314–23). Auch für endogene Decaymarker konnte mittlerweile ein Algorithmus definiert und validiert werden, der eine analytische Qualitätssicherung von Serumproben auf der Basis eine Mustererkennung ermöglicht (Thumfart et al. J Proteomics Bioinf, in press). Die Biobank des IKC ist im deutschen Biobankregister gelistet (http://dbr.biobanken.de/). Durch Assoziation mit dem German Biobank Node (GBN, Deutscher Biobankenknoten) besteht eine unmittelbare Beteiligung am workpackage 3; hier sollen Vorgaben für QK-Standards sowie ein Ringversuchskonzept erarbeitet werden. Aktuell ist ein BMBF Projekt zu dem Thema „Identifikation und Validierung von Decay-Markern zur Qualitätssicherung von Biobankproben“ zusammen mit der Biobank Jena bewilligt worden, so dass das Konzept der analytischen Qualitätssicherung von Biomaterialsammlungen zukünftig vertiefend bearbeitet werden kann.

Michael Kiehntopf stellte die Integrierte Biobank Jena (IBBJ) am Institut für Klinische Chemie und Laboratoriumsdiagnostik des Universitätsklinikums Jena (UKJ) vor. Die Integrierte Biobank Jena wird seit mehr als 10 Jahren betrieben und wurde ursprünglich zur Unterstützung von klinischen Studien für das Kompetenznetz Sepsis etabliert. Die IBBJ ist am Institut für Klinische Chemie und Laboratoriumsmedizin (IKCL) des UKJ lokalisiert und umfasst heute die seit 2002 etablierte zentrale Probenbank des Kompetenznetzes Sepsis (SepNet) zur Lagerung von Proben im Zusammenhang mit der Durchführung multizentrischer klinischer Studien zur Sepsis bzw. systemischen Inflammation. Darüber hinaus beinhaltet die IBBJ aber auch die in den letzten Jahren im Zusammenhang mit dem Aufbau des Sepsisclusters Jena etablierten Biobankstrukturen des Zentrums für Innovationskompetenz (ZIK) Septomics und die Biobank des Integrierte Forschungs- und Behandlungszentrum (IFB) Sepsis und Sepsisfolgen (Center for Sepsis Control and Care, CSCC). Von der IBBJ werden eine Vielzahl multizentrischer Sepsisstudien (VISEP, MAXSEP, SISPCT und HYPRESS), aber auch Forschungsnetzwerke zu Untersuchung des Verlaufs der Progression einer unkomplizierten Pneumonie zur Sepsis (PROGRESS) sowie lokale Studien (LabALERTS, PredSep, TARGET, TARGET-FN) und das Healthcare Integrated Biobanking (HIB) unterstützt. Der Schwerpunkt liegt hierbei auf dem Liquid-Biobanking wobei im Rahmen der zweiten Förderperiode des CSCC aktuell auch Strukturen zur Einlagerung von mikrobiologischen Proben oder aber von Materialien aus tierexperimentellen Forschungsvorhaben etabliert werden. Die IBBJ ist in das, nach DIN EN ISO 15189:2015 sowie DIN EN ISO 17025:2005 akkreditierte Institut für Klinische Chemie und Laboratoriumsmedizin integriert und seit 2012 – und damit als eine der ersten Biobanken überhaupt – nach DIN EN ISO 9001:2008 zertifiziert. Seit kurzem ist auch das Qualitätskontrolllabor der IBBJ nach DIN EN ISO 17025 akkreditiert. Mit dem Ziel hohe Qualitätsstandards zu realisieren wurde in der IBBJ bereits frühzeitig versucht manuelle Prozesse zu automatisieren. So wurde bereits im Jahr 2010 eines der ersten automatischen –80 °C Probenlager implementiert, das ein vollautomatisches Probenhandling von mehr als 500.000 individuellen 2D-barcodierten Bioproben ermöglicht. Durch die zusätzliche direkte Anbindung eines vollautomatischen Liquid-Handling-Systems können alle Prozessschritte von der Aliquotierung über die Einlagerung, Kommissionierung von Probensubsets, bis hin zur Auslagerung in einem intergierten automatisierten Workflow durchgeführt werden. Ähnliche Automatisierungen wurden in den letzten Jahren im Rahmen einer Kooperation mit einem Hersteller von Liquid-Handling-Systemen auch für das HIB etabliert. Neben der automatisierten –80 °C Lagerung verfügt die IBBJ auch über größere Kryo-Lagerkapazitäten, um auch die qualitätsgesicherte Langzeitlagerung sowie die Lagerung von speziellen Materialien und empfindlichen Proben, die eine Lagerung bei bei tieferen Temperaturen (–150 °C) benötigen, zu ermöglichen. Ein weiterer Schwerpunkt, insbesondere zur Biobankforschung, besteht in der Identifizierung und Validierung von neuen Qualitätsbiomarkern. Hierzu wird aktuell ein vom BMBF finanziertes Projekt in Zusammenarbeit mit dem Institut für Klinische Chemie der Medizinischen Fakultät Mannheim der Universität Heidelberg durchgeführt. Darüber hinaus ist die IBBJ in die Projektleitung des Arbeitspaketes III des Deutschen Biobank Knotens (German Biobank Node, GBN) zur Etablierung eines Qualitätsmanagement-Konzepts für Biobanken, insbesondere für den Bereich des Liquid-Biobankings, eingebunden. Zukünftig wir die IBBJ auch die Biobankinfrastruktur für den vom BMBF finanzierten Forschungscampus Infectognostics (http://www.infectognostics-jena.de) stellen. Die IBBJ wird darüber hinaus im Jahr 2016 auch alle Biobankaktivitäten der Medizinische Fakultät des Universitätsklinikums Jena aufnehmen und daher zu einer fakultätsweiten Biobank ausgebaut. Hierzu wird aktuell sowohl die Kapazität zur automatisierten Lagerung, als auch die zur Lagerung zur Verfügung stehende Fläche auf über 300 m2 ausgebaut.

Gerd Schmitz, Institut für Klinische Chemie und Laboratoriumsmedizin, Universitätsklinikum Regensburg berichtete über das Healthcare Integrated Biobanking (HIB) und hierbei zunächst über den Aufbau von Biobanken als wichtige Voraussetzung für die Verbesserung der Gesundheitssysteme für zukünftige Generationen. Grundsätzlich sind dabei zwei zentrale Strategien zu unterscheiden: der epidemiologisch – populations-basierte Ansatz und die direkt in die Krankenversorgung integrierte Biobank (Healthcare Integrated Biobanking-HIB). Probensammlungen rekrutieren sich im Bereich HIB entweder aus Restmaterialien eingesandter Patientenproben oder zusätzlichen Probenröhrchen aus der Krankenversorgung oder aus Klinischen Studien. Darüber hinaus können auch Proben mit definierten pathologischen Werten aus der Primäranalytik für krankheitsspezifische Fragestellungen im Labor direkt rekrutiert werden. Die Integration aller HIB-relevanten Komponenten in automatisierte Lösungen mit hohem Durchsatz stehen noch am Anfang. Die vom Institut gemeinsam mit Siemens, TECAN und ASKION realisierte direkte Anbindung der TECAN-EVO 200 Aliquoter Plattform an das Siemens LabCell System mit dem mobilen Liconic STR44 Hotelkühlschrank mit Anbindung an das automatisierbare ASKION C-Line HS200 N2-Gasphasen Cryolager ist ein erster Schritt in diese Richtung. HIB erfordert den Einsatz von EDV-gestützten Datenbasen und der Probenbank sowohl für die Krankenversorgung als auch für die Forschung mit großen Anforderungen an eine integrierte Qualitätskontrolle, Good Practice Bedingungen, Einhaltung von Ethikvorgaben und unabhängige (3rd-Party) kontrollierte „Real Time“ Kryptisierung und Dekryptisierung zur Wahrung des Datenschutzes. Dies ist eine große Herausforderung für die EDV-Interaktion von Hospitalinformationssystemen (HIS), Laborinformationssystemen (LIS) und Biobankinformationssystemen (BIS). Für HIB ist in dieser Interaktion auch die Entwicklung von spezifischen Anforderungsbögen notwendig. Für zahlreiche Parameter aus Körperflüssigkeiten und Zellisolaten ist die Präanalytik zeitkritisch. Dazu bedarf es der Entwicklung robuster HIB-Kryosysteme zur schnellen Einlagerung und Langzeitlagerung jenseits der kritischen Eiskristalltemperatur in automatisierten N2 Gasphasen Systemen (z.B. ASKION, SYSMEX) mit unterbrechungsfreier Kühlkette und kondensationsfreier Probenprozessierung und Lagerung. Dazu gehört auch die Festlegung und Validierung von Format-Spezifikationen und Identifikations-Strategien für alle relevanten Probenarten und die hochverdichtete und miniaturisierte Lagerung( e.g. Mikrotiterplatte, Strohhalme, Blutspots auf Trägermaterialien). HIB erfordert einen multidiziplinären Ansatz der Kryoengineering, Laborautomation, Workflow integriertes Qualitätsmanagement, Klinische Chemie und Zellbiologie, Pathophysiologie, in-vitro Diagnostik und IT-basierte Medizin einbezieht.

Lesca M. Holdt berichtete über die Biobank am Institut für Laboratoriumsmedizin der LMU München. Die Biobank des Instituts ist integraler Teil einer vernetzten Biobank-Struktur der Medizinischen Fakultät der LMU, mit Schnittmengen zu der seit vielen Jahren bestehenden Biobank der Stiftung Human Tissue and Cell Research (HTCR) und der neu etablierten zentralen LMU MedBiobank. Aufgrund der hohen Forschungsaktivität am Standort wurde mit der Neubesetzung des Lehrstuhls im Institut ein Fachbereich für Klinische Studien gegründet, der für die Unterstützung der Planung und Durchführung von Studien verantwortlich ist und wissenschaftlichen Partnern Möglichkeiten des Biobankings im Rahmen von Kooperationen bietet. Die Voraussetzung bildet eine vom Institut konzipierte und mit Hilfe der institutseigenen IT-Abteilung realisierte Studiensoftware. Diese besteht aus drei Modulen mit folgenden Funktionalitäten: 1) Klinikweites Order-Entry Modul zum Anlegen und Einsenden von Studien- und Biobank-Proben (analog Routineproben) mit der Möglichkeit der studienspezifischen Befundeinsicht. 2) Klinikweites Online-Modul zur Erfassung klinischer Daten entsprechend studienspezifischer Anpassung. 3) Institutsinternes Verwaltungsmodul für Studien und Probenlagerung, mit Unterstützung von Ein- und Ausscanprozessen zur Lagerung von 2D barcodierten Probengefäßen im 96-Loch SBS-Format. Es werden ausschließlich projektbezogene Sammlungen unterstützt. Übergeordnetes Ziel ist ein Mehrwert durch Integration des Biobankings in ein Gesamtkonzept für die klinische Forschung an der LMU München.

Insgesamt hat die Sitzung sehr gut verdeutlicht wie positiv und mit welcher Dynamik sich die Biobankaktivitäten an den einzelnen Standorten in den letzten Jahren entwickelt haben. Hierbei spielt insbesondere die sehr enge Anbindung der Biobanken an die Laboratoriumsmedizin eine entscheidende Rolle. Viele der vorgestellten Biobanken stehen unter der direkten Leitung der Laboratoriumsmedizin und profitieren hierbei erheblich von dem seit Jahrzehnten bestehenden Know-how in den einzelnen Instituten. Dies wurde insbesondere beim Thema Healthcare Integrated Biobanking-HIB deutlich, gilt aber ebenso für die zunehmende Professionalisierung von automatisierten Workflows als auch für die Einführung und Etablierung von Qualitätsmanagement-Systemen für Biobanken im meistens akkreditierten Umfeld professioneller Routinelabore. Biobanken sind aus der heutigen translationalen Medizin gerade vor dem Hintergrund zunehmender Qualitätsansprüche nicht wegzudenken. Die Sitzung hat noch einmal verdeutlich wie die Laboratoriumsmedizin über die Etablierung hochqualitativer Probensammlungen hier eine wesentlichen Beitrag leisten kann.

Keynote Lecture

Als Novum fand am Abend des ersten Sitzungstags der Jahrestagung erstmals eine Keynote Lecture statt. Hierfür konnte mit Matthias Mann vom Max-Planck-Institut für Biochemie in Martinsried einer der international renommiertesten Experten der Proteomanalytik gewonnen werden. In seinem Vortrag „Modern proteomics methods and their application to the plasma proteome“ sprach er über neueste Entwicklungen, die eine routinemäßige Verwendung der Massenspektrometrie zur Plasmaanalytik in greifbare Nähe rücken. Üblicherweise werden bei der Probenvorbereitung für die massenspektrometrische Proteomanalytik mehrstufige Workflows verwendet, die mit hohem Zeitaufwand, Probenverlust und Kontamination vergesellschaftet sind. Mit einer neuen „In-StageTip” Methode konnte die Probenvorbereitung von der Zelllyse bis hin zur Elution der aufgereinigten Peptide in einem einzelnen Einmalgefäß erreicht werden (Kulak et al. Nat Methods. 2014;11:319–24). Mit dieser Methode konnte innerhalb eines Tages das Proteom einer humanen Zelllinie in einer Tiefe von 10.000 Proteinen quantifiziert werden. Die Methode ist generell anwendbar und ermöglicht auch in Plasma die Quantifizierung bis zu einer Tiefe von aktuell mehreren hundert Porteinen. Es ist davon auszugehen, dass eine Weiterentwicklung der Methodik mittelfristig zu tiefgreifenden Veränderungen in Methodik und Breite der Analytik von Plasmaproteinen mit entsprechenden Auswirkungen auf die Klinik führen wird.

Arbeitsgruppe Proteomics/Metabolomics

Die abschließende Sitzung wurde von der AG Proteomics/Metabolomics ausgerichtet. Hierbei wurden drei Vorträge aus dem Bereich Proteomics und zwei Vorträge aus dem Bereich Metabolomics ausgewählt.

Hannes Hahne (TU München) berichtete als Ko-Autor von der Publikation „Mass-spectrometry-based draft of the human proteome“ [Nature. 2014;509(7502):582–7]. Für diese Studie wurden 60 Gewebearten, 13 Körperflüssigkeiten und 147 Zell-Linien (CCLE, cancer cell line encyclopedia) untersucht. Die Proteine wurden nicht nur identifiziert, sondern auch quantifiziert. Weiterhin wurden posttranslationale Modifikationen zeitaufgelöst analysiert um verschiedene zelluläre Funktionszustände zu charakterisieren. Durch den Abgleich mit weitern Daten war zudem eine Darstellung der Transkript-Protein Korrelation möglich. Die enorm große Masse an auszuwertenden Analysenergebnissen machte die Konstruktion einer entsprechenden Datenbank erforderlich, welche unter https://www.proteomicsdb.org/ öffentlich zugänglich ist. Aus solchen Experimenten kann aber nicht nur ein vertieftes systembiologisches Verständnis sondern auch unmittelbar klinisch relevante Information abgeleitet werden. So ist etwa für die Tyrosinkinaseinhibitoren Erlotinib und Lapatinib die Expression von EGFR, ANXA1 und EGFR Interaktionspartnern wie PDLIM, KRT5 und KRT14 ein Sensitivitäts-Indikator. Im Gegensatz dazu ist die hohe Expression von ANXA6 oder S100A4 indikativ für eine Chemoresistenz gegenüber TKIs. Solche Daten lassen sich auch funktionell durch thermales Proteome Profiling ableiten (Savitski et al. Science. 2014(346):6205) und zeigen einen Weg auf, wie aus deskriptiven „Massendaten“ klinisch relevante Biomarker selektioniert werden können.

Albert Sickmann (Universität Dortmund) sprach im Anschluss zum Thema „Platelet Proteins as Disease Markers“. Dabei ging er zunächst auf die Bedeutung der Präanalytik bei der Untersuchung von Thrombozyten ein. Das Thrombozten-Proteom wird in seiner Zusammensetzung ganz wesentlich von den verschiedenen Funktionszuständen der Blutplättchen beeinflusst. Eine weitere Schwierigkeit besteht in der Vermeidung von Kontamination durch das Plasma-Proteom. Wesentliche Herausforderung ist neben der deskriptiven Proteinidentifikation die Charakterisierung von posttranslationalen Modifikationen, insbesondere Phosphorylierungsmustern. Für eine notwendige Quantifizierung kommen verschiedene Strategien (relativ versus absolut) in Betracht; allerdings ist jeweils auf entsprechende Qualitätskontrollen zu achten, um wesentliche Schritte, wie etwa den tryptischen Proteinverdau zu überwachen. Durch Stimulationsversuche kann die Wirkung von Medikamenten, wie etwa Iloprost analysiert werden. Dieses Prostazyklinanalagon bindet an den membranständigen G-Protein-gekoppelten IP-Rezeptor in den Thrombozyten. Dadurch wird das Gs-Protein und weiter downstream auch Adenylatzyklase aktiviert und die intrazelluläre cAMP-Konzentration steigt an. Über Aktivierung von PKA/cAK durch cAMP wird eine Phosphorylierungskaskade von Zielproteinen ausgelöst, die zur Hemmung der Thrombozytenaggregation führt. Bisher konnten 127 PKA Motive und 299 phosphoregulierte Proteine identifiziert werden. Ein wesentlicher inhibitorischer Effekt beruht auf der Protein-Phosphorylierung des Vasodilator stimulated Phosphoproteins (VASP). Durch einen Immunoassay ist heute die schnelle Quantifizierung der Phosphorylierungsrate von VASP und somit eine therapeutisches Monitoring der Thrombozytenhemmung möglich. Auch hereditäre Thrombopathien wie der M. Glanzmann (Defizienz des Integrin alpha IIb beta 3) oder das Scott Syndrom (Anoctamin 6 Mutation) können mittels Proteomanalyse charakterisiert werden.

Im letzten Vortrag der Proteomics Session sprach Ronny Schmidt (Sciomics, Heidelberg) zum Thema „Microarray basierte Proteinbiomarker-Signaturen in der Labordiagnostik“. Diese technologische Plattform gliedert sich in Antikörper-, Protein- und Peptid-Microarrays und eignet sich sowohl zur Biomarker-Identifikation als auch -Validation. Der Einsatz von nativem klinischem Probenmaterial wie Serum oder Urin ist möglich. Die analytische Sensitivität der Methode liegt bei etwa 600 Molekülen/μL. Diagnostische Signaturen sind bereits für einige Krankheitsbilder wie akutes Nierenversagen, Harnblasenkarzinom und Pankreaskarzinom vorbeschrieben.

Im Bereich Metabolomics stellte Alexander Leichtle (Inselspital Bern) in seinem Vortrag zu „Novel strategies for metabolite pathway analysis“ bioinformatische Auswertestrategien vor, die im Universitätsinstitut für Klinische Chemie für non-targeted Metabolomics Untersuchungen an humanen Körperflüssigkeiten mittels Flüssigchromatographie- Quadrupol/Time of Flight Massenspektrometrie (LC Q-TOF MS) eingesetzt werden.

Markus Scholz (Institut für Medizinische Informatik, Statistik und Epidemiologie, Universität Leipzig) sprach im letzten Vortrag der Sitzung über „Metabolom-Genomweite Assoziationsstudien der Leipziger LIFE-Herzstudie“. Bei mehr als 3000 Patienten der Studie wurde aus Trockenblut Aminosäuren-und Acylcarnitinprofile aus Trockenblut mit Tandem-Massenspektrometrie quantitativ analysiert und genomweite Assoziationsanalysen durchgeführt.

Zusammenfassend wurden auf der 14. Jahrestagung der Sektion Molekulare Diagnostik der DGKL aktuelle Entwicklungen in Schlüsselfeldern der Omics Technologien in der Molekularen Diagnostik an der Schnittstelle zwischen Forschung und klinischer Anwendung diskutiert. Die 15. Jahrestagung der Sektion ist vom 01.-03. Juni 2016 wiederum in Tutzing geplant. Der aktuelle Arbeitstitel lautet Molekulare Diagnostik: Chancen und Risiken der Globalisierung.


Korrespondenz: Daniel Teupser, Sprecher der Sektion Molekulare Diagnostik der Deutschen Vereinten Gesellschaft für Klinische Chemie und Laboratoriumsmedizin (DGKL) e.V., Institut für Laboratoriumsmedizin, Ludwig-Maximilians-Universität München, Marchioninistr. 15, 81377 München, Phone: +49 89 4400 73211, Fax: +49 89 4400 78888, E-Mail:

Published Online: 2015-11-28
Published in Print: 2015-12-1

©2015 by De Gruyter

This article is distributed under the terms of the Creative Commons Attribution Non-Commercial License, which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.