Jetzt teilnehmen

Bitte loggen Sie sich ein, um Ihre Teilnahme an diesem Webinar zu bestätigen. Sie sind dann vorgemerkt und werden, falls das Webinar innerhalb der nächsten 10 Minuten beginnt, sofort weitergeleitet.

Findet das Webinar zu einem späteren Zeitpunkt statt, kommen Sie kurz vor Beginn des Webinars erneut, um am Webinar teilzunehmen.

Einfach buchen

Buchen Sie jetzt RÖKO DIGITAL des 106. Deutschen Röntgenkongress 2025 - Kongress für medizinische Radiologie und bildgeführte Therapie und verpassen Sie keines unserer lehrreichen und informativen Webinare zu verschiedenen Themen der Radiologie.

  • Wissenschaft & Fortbildung
  • CME-Punkte
  • Themenvielfalt
  • Dialog & Interaktion

Jetzt teilnehmen

Bitte loggen Sie sich ein, um Ihre Teilnahme an diesem Webinar zu bestätigen. Sie sind dann vorgemerkt und werden, falls das Webinar innerhalb der nächsten 10 Minuten beginnt, sofort weitergeleitet.

Findet das Webinar zu einem späteren Zeitpunkt statt, kommen Sie kurz vor Beginn des Webinars erneut, um am Webinar teilzunehmen.

Ohne Buchung.

Sie können an dieser Veranstaltung auch ohne Buchung von RÖKO DIGITAL des 106. Deutschen Röntgenkongress 2025 – Kongress für medizinische Radiologie und bildgeführte Therapie kostenfrei teilnehmen.

Eine Teilnahmebescheinigung erhalten nur Personen, die das digitale Modul „RÖKO DIGITAL“ des 106. Deutschen Röntgenkongress 2025 – Kongress für medizinische Radiologie und bildgeführte Therapie gebucht haben oder noch nachbuchen.

Um teilzunehmen kommen Sie ca. 10 Minuten vor Beginn wieder. Freischaltung zur Teilnahme in:

Sie können an dieser Veranstaltungen auch ohne Buchung von RÖKO DITITAL des 106. Deutschen Röntgenkongress 2025 – Kongress für medizinische Radiologie und bildgeführte Therapie kostenfrei teilnehmen.

Eine Teilnahmebescheinigung erhalten nur Personen, die das digitale Modul „RÖKO DIGITAL“ des 106. Deutschen Röntgenkongress 2025 – Kongress für medizinische Radiologie und bildgeführte Therapie gebucht haben oder noch nachbuchen.

Melden Sie sich bitte hier an:

Bitte beachten Sie die Datenschutzhinweise.

Kongressteilnehmer.

Als Teilnehmer am RÖKO DIGITAL des 106. Deutschen Röntgenkongress 2025 – Kongress für medizinische Radiologie und bildgeführte Therapie loggen Sie sich bitte ein, um an dieser Industrie­veranstaltung teilzunehmen.

Ohne Buchung.

Sie können an Industrie­veranstaltungen auch ohne Buchung von RÖKO DIGITAL des 106. Deutschen Röntgenkongress 2025 – Kongress für medizinische Radiologie und bildgeführte Therapie kostenfrei teilnehmen.

Um teilzunehmen kommen Sie ca. 10 Minuten vor Beginn wieder. Freischaltung zur Teilnahme in:

Sie können an Industrie­veranstaltungen auch ohne Buchung von RÖKO DIGITAL des 106. Deutschen Röntgenkongress 2025 – Kongress für medizinische Radiologie und bildgeführte Therapie kostenfrei teilnehmen. Melden Sie sich bitte hier an:

Bitte beachten Sie die Datenschutzhinweise.

Das ist eine Meldung

Stet clita kasd gubergren, no sea takimata sanctus est. Ut labore et dolore aliquyam erat, sed diam voluptua.

Wissenschaftliche Sitzung

Radiologie und IT - Mission Krebs: Radiologie als Geheimwaffe im Kampf gegen Tumore

Radiologie und IT - Mission Krebs: Radiologie als Geheimwaffe im Kampf gegen Tumore
Donnerstag, 29. Mai 2025 · 17:15 bis 18:00 Uhr
Diese Veranstaltung findet ausschließlich als Präsenzveranstaltung im Rhein-Main-Congress-Center in Wiesbaden statt. Diese Veranstaltung kann nicht über einen Stream sondern nur vor Ort besucht werden.
29
Mai

Donnerstag, 29. Mai 2025

17:15 bis 18:00 Uhr · Raum: ePoster-Station  in Kalender übernehmen:   iCal  ·  Google

Veranstaltungsdetails

Veranstalter
Deutsche Röntgengesellschaft e.V.
Art
Wissenschaftliche Sitzung
Thema
IT/ Bildverarbeitung / Software
Zielgruppe
Andere, Ärzte in Weiterbildung (AiW), Fachärzte, Ingenieure / Naturwiss., Studenten

Zertifizierungen

Der RÖKO WIESBADEN wird im Rahmen einer Kongresszertifizierung durch die LÄK Hessen bewertet. Bitte beachten Sie die Hinweise unter A bis Z.

Informationen

Moderation
Bernhard Gebauer (Berlin)
Inka Ristow (Hamburg)

Ablauf

17:15 - 17:20

Vortrag (Wissenschaft)

Diagnostische Genauigkeit der True und Virtual Unenhanced CT-Bildgebung bei inzidentellen Nebennierenraumforderungen unter Anwendung der ACR-Richtlinien

Zahra Afraz (Frankfurt)

weitere Autoren

Giuseppe M. Bucolo (Via Consolare Valeria 1, 98100, Messina, Italy) / Ludovica R. M. Lanzafame (Via Consolare Valeria 1, 98100, Messina, Italy) / Tommaso D'Angelo (Via Consolare Valeria 1, 98100, Messina, Italy) / Andreea Ioana Nica (Theodor-Stern-Kai 7, 60590, Frankfurt Am Main, Germany) / Ibrahim Yel (Theodor-Stern-Kai 7, 60590, Frankfurt Am Main, Germany) / Vitali Koch (Theodor-Stern-Kai 7, 60590, Frankfurt Am Main, Germany) / Leon D Gruenewald (Theodor-Stern-Kai 7, 60590, Frankfurt Am Main, Germany) / Mirela A Dimitrova (Theodor-Stern-Kai 7, 60590, Frankfurt Am Main, Germany) / Thomas J Vogl (Theodor-Stern-Kai 7, 60590, Frankfurt Am Main, Germany) / Christian Booz (Theodor-Stern-Kai 7, 60590, Frankfurt Am Main, Germany)

Zielsetzung

Diese Studie untersucht die diagnostische Genauigkeit der Virtual Non-Contrast (VNC)-CT im Vergleich zur True Non-Contrast (TNC)-CT zur Differenzierung von Nebennierenadenomen und Metastasen gemäß den Richtlinien des American College of Radiology (ACR).

Material und Methoden

Retrospektiv wurden 439 Patienten mit Nebennierenläsionen (1–4 cm) eingeschlossen, die zwischen März 2010 und Februar 2023 ein DECT-Staging erhielten und per Biopsie oder MRT als Adenome oder Metastasen klassifiziert. Die Hounsfield-Einheiten (HU) der Läsionen wurden basierend auf VNC- und TNC-Bildern mittels Mittelwerts von 10 Regionen pro Läsion verglichen. Die diagnostische Genauigkeit, Sensitivität und Spezifität wurden mit ROC-Analyse berechnet; der Mann-Whitney-U-Test verglich die HU-Werte, und die Bland-Altman-Analyse bewertete die Übereinstimmung der Methoden. Die ACR-empfohlene Schwelle von ≤10 HU und eine alternative Schwelle von 20 HU wurden hinsichtlich der diagnostischen Performance verglichen.

Ergebnisse

Von den 439 Nebennierenläsionen waren 245 (55,8 %) Adenome und 194 (44,2 %) Metastasen. Der Mann-Whitney-U-Test zeigte keinen signifikanten Unterschied zwischen TNC- und VNC-HU-Werten (p = 0,673). Die ROC-Analyse zeigte exzellente, vergleichbare diagnostische Genauigkeit (TNC: AUC = 0,923, 95%-KI: 0,895–0,947, p < 0,0001; VNC: AUC = 0,928, 95%-KI: 0,899–0,950, p < 0,0001). Der Youden-Index identifizierte ≤20 HU als optimalen Schwellenwert (J = 0,7251, p < 0,0001). Bei der ≤10-HU-Schwelle lag die Spezifität/Sensitivität der TNC bei 93,3 %/57,1 % und der VNC bei 94,3 %/55,5 %. Bei 20 HU erreichte TNC 98,8 %/75,3 % und VNC 96,7 %/75,8 %. Bland-Altman-Analyse zeigte hohe Übereinstimmung (mittlerer Unterschied: -0,4 HU).

Schlussfolgerungen

VNC und TNC zeigen vergleichbare Genauigkeit zur Differenzierung von Adenomen und Metastasen, bestätigt durch ROC-, Mann-Whitney- und Bland-Altman-Analysen. VNC-CT ist eine zuverlässige Alternative zu TNC-CT hinsichtlich der diagnostischen Genauigkeit, auch beim ACR-cut-off von ≤10 HU.
17:20 - 17:25

Vortrag (Wissenschaft)

Kann Deep Learning die diagnostische Sicherheit von Tumore in CT-Staging-Untersuchungen verbessern?

Andreas Heinrich (Jena)

weitere Autoren

Marie Bertl (Jena) / Friedrich-Georg Hahne (Jena)

Zielsetzung

Die Rekonstruktion von Computertomographie (CT)-Bildern mit Deep Learning verbessert häufig die allgemeine Bildqualität im Vergleich zu iterativen Rekonstruktionsmethoden. Die Sichtbarkeit von konkreten Tumorfunden wurde jedoch nur selten untersucht. Diese Studie verglich kontrastmittelverstärkte Tumordarstellungen in der CT, indem 24 Radiologen im Blindverfahren verschiedene Rekonstruktionstechniken (Deep Learning vs. iterative Rekonstruktion) bewerteten.

Material und Methoden

In dieser retrospektiven Studie evaluierten 24 Radiologen (19 Junior- und 5 Senior-Radiologen) 33 Tumorfunde aus CT-Staging-Untersuchungen mit einer 5-Punkte-Likert-Skala hinsichtlich Bildinterpretation, diagnostischer Sicherheit und struktureller Differenzierbarkeit. Die Befunde wurden in zufälliger Reihenfolge und blind mit vier Rekonstruktionsmethoden in zwei Kontrastmittelphasen (portal-venös und arteriell) dargestellt: Deep Learning Bildrekonstruktion (DLIR) mit „Low“ und „High“ sowie adaptive statistische iterative Rekonstruktion – Volume (ASIR-V) mit 50 % und 100 % Blendefaktoren.

Ergebnisse

DLIR-High war in beiden Kontrastmittelphasen die bevorzugte Bildrekonstruktion hinsichtlich Bildinterpretation, diagnostischer Sicherheit und struktureller Differenzierung. Die Bewertungen für jedes Kriterium waren insgesamt: 4,21 ± 0,95 (DLIR-High), 4,00 ± 0,91 (DLIR-Low), 3,78 ± 0,96 (ASIR-V 50 %) und 2,91 ± 0,17 (ASIR-V 100 %). Die Bilder der portal-venösen Phase wurden nicht signifikant höher bewertet als die der arteriellen Phase (p > 0,19). Zudem gab es in der Bewertung keinen signifikanten Unterschied zwischen Junior- und Senior-Radiologen (p = 0,837).

Schlussfolgerungen

Deep Learning verbessert nicht nur die Bildqualität, sondern auch die präzise Darstellung von Tumorbefunden, wodurch die diagnostische Sicherheit erhöht wird. Dieser Vorteil ist unabhängig von der beruflichen Erfahrung des Radiologen oder der Kontrastmittelphase, was darauf hindeutet, dass Deep Learning in Zukunft die iterative Rekonstruktion voraussichtlich ersetzen wird.
17:25 - 17:30

Vortrag (Wissenschaft)

Vollständig diagnostische Ganzkörper-CTs für Brustkrebspatientinnen mit 25% der Strahlendosis mittels Deep Learning Denoising Software

Marlene Hahn (Tübingen)

weitere Autoren

Saif Afat (Tübingen) / Andreas Brendlin (Tübingen)

Zielsetzung

Patient/innen mit erhöhtem Metastasenrisiko bei Mamma-Ca benötigen häufig repetitiv Ganzkörper-CTs um das Krankheitsstadium einzuschätzen, das erhöht jedoch die Strahlenexposition. Deep Learning Denoising (DLD) Algorithmen zeigen vielversprechende Ergebnisse zur Strahlenreduktion bei gleichbleibender Bildqualität. Wir untersuchten einen KI Denoising Algorithmus bei Mamma-Ca und evaluierten mögliche Unterschiede im Staging hinsichtlich Bildqualität und Diagnostik.

Material und Methoden

100 Patientinnen mit Ganzkörper-Initialstaging bei Mamma-Ca wurden retrospektiv inkludiert. Es wurden Scans mit voller Dosis (100 %) und simulierter niedriger Dosis (25 %) mit einer iterativen Rekonstruktion (IR2) sowie DLD bearbeitet.
Anschließend wurden sowohl subjektive als auch objektive Bildqualitäts-Merkmale sowie das bildmorphologische Staging von drei Radiolog/innen ausgewertet. Bayes‘sche Sensitivität und Spezifizität wurden mit einem Kredibilitätsintervall von 95% berechnet.

Ergebnisse

Die Subjektive Analyse zeigte bessere Ergebnisse für 100% DLD im Vergleich zu 100% IR2 und 25% IR2 (p < 0.001). Keine signifikanten Unterschiede konnten zwischen 25% DLD und 100% IR2 festgestellt werden.
Die Objektive Analyse zeigte keine signifikanten Unterschiede im CT-Wert. Bei niedrigerer Dosis stieg das Bildrauschen, jedoch zeigte DLD niedrigere Noise-Level bei sowohl 100% als auch 25% Dosis im Vergleich zu 100% IR2 (p < 0.001).
25 % IR2 zeigte eine verringerte Sensitivität in der Detektion von Metastasen in supraklavikulären (81 %) und Mammaria-Interna-Lymphknoten (85 %), obwohl die Spezifität hoch blieb. Im Gegensatz dazu behielt 25% DLD eine zur Referenz unverändert hohe Sensitivität und Spezifität in der Metastasendetektion in allen Regionen.

Schlussfolgerungen

Der untersuchte Algorithmus ermöglicht qualitativ hochwertige, vollständig diagnostische Mamma-Ca Stagings mit 25 % Strahlendosis und verbessert somit die langfristige Patient/innenversorgung durch die Reduzierung unnötiger Strahlenbelastung.
17:30 - 17:35

Vortrag (Wissenschaft)

KI-gestützte Erkennung von metastasierenden Lymphknoten des Mediastinums und automatische Bestimmung des N-status bei Lungenkarzinomen

Yannic Elser (Lübeck)

weitere Autoren

Sofija Engelson (Lübeck) / Jan Ehrhardt (Lübeck) / Stefanie Schierholz (Lübeck) / Julia Andresen (Lübeck) / Daniel Drömann (Lübeck) / Tobias Keck (Lübeck) / Jörg Barkhausen (Lübeck) / Heinz Handels (Lübeck) / Malte Maria Sieren (Lübeck)

Zielsetzung

Die korrekte Erkennung metastasierter Lymphknoten (LN) des Mediastinums bei Patienten mit Lungenkarzinom ist entscheidend für die Therapieplanung. Das N-Staging quantifiziert die Ausbreitung der LN-Metastasen. CT- und PET-Scans ermitteln einen prätherapeutischen N-Status (cN), wobei die Beurteilung der LN nicht immer eindeutig ist. Künstliche Intelligenz (KI) hat das Potenzial, hier anzusetzen und die nicht invasive Beurteilung von LN in CT- und PET-Scans zu verbessern. Ziel dieser Studie ist die Entwicklung eines annotationsfreien KI-Algorithmus zur Erkennung metastasierter LN in PET- und CT-Scans und die automatische Bestimmung des N-Status.

Material und Methoden

Der verwendete hausinterne Datensatz enthält 353 Patienten mit operativ versorgtem Lungenkarzinom, einem postoperativen N-Status (pN) und präopertiver PET- und CT-Bildgebung. Aufgrund der geringen Anzahl an metastasierten LN wurden 42 weitere Fälle mit cN3 eingeschlossen. Wir registrierten einen öffentlichen Atlas auf unserem Datensatz und verwendeten unterschiedliche Trainingsstrategien mit Klassifikatoren zur Einteilung der Lymphknotenstationen (LNS) und regelbasierten Ansätzen zur Beurteilung des N-Status. Der vorgeschlagene Algorithmus wurde mit etablierten Basismodellen verglichen:

Ergebnisse

Unser Algorithmus übertraf die etablierten Basis Modelle bei LN-Bewertung auf PET/CT zur Vorhersage des cN mit einer Genauigkeit und ausgeglichenen Genauigkeit für die Klassifizierung von LN-Stationen von 0,88 und 0,81, und mit 0,63 und 0,59 für das N-Staging. Bei der LN-Bewertung auf CT zur Vorhersage des pN und der LN-Bewertung und der LN-Bewertung auf PET/CT zur Vorhersage des pN oiutperformen die etablierten Basismodelle unseren Algorithmus.

Schlussfolgerungen

Im Vergleich zu den Gesamtergebnissen der Studie übertrifft der Algorithmus die für die traditionelle PET/CT-Berichterstattung angegebene Genauigkeit von etwa 0,8 leicht. Wir beobachten einen Leistungsabfall, wenn der PET-Scan als zusätzliche Eingabemodalität für den Algorithmus weggelassen wird.
17:35 - 17:40

Vortrag (Wissenschaft)

Klassifikation der Darmwandinfiltration (T-Stadium) des Kolonkarzinoms: Ein multimodaler Deep Learning Ansatz unter Verwendung präoperativer CT-Aufnahmen

Tristan Lemke

weitere Autoren

Stefan Reischl (München) / Markus Graf (München) / Nicolas Lenhart (München) / Alexander W. Marka (München) / Philipp-Alexander Neumann (München) / Marcus R. Makowski (München) / Rickmer F. Braren (München) / Sebastian Ziegelmayer (München)

Zielsetzung

Die Identifizierung der Darmwandinfiltration des Kolonkarzinoms (CC), durch das histopathologische T-Stadium (pT) repräsentiert, ist von großer klinischer Bedeutung und spielt durch existierende Empfehlungen zur neoadjuvanten Chemotherapie von pT4-Tumoren eine wesentliche Rolle in der individualisierten Therapie dieser Tumorentität. Die radiologische Genauigkeit der T-Stadium-Klassifikation (cT) in der Computertomographie als prätherapeutischer diagnostischer Standard ist begrenzt. Das Ziel dieser Studie war daher die Entwicklung eines Deep-Learning-Modells zur Klassifikation zwischen pT1-3 und pT4 Kolonkarzinomen in präoperativen CT-Aufnahmen.

Material und Methoden

In dieser retrospektiven Kohortenstudie analysierten wir 528 Patienten, die am Klinikum rechts der Isar einer Resektion eines CC und einer präoperativen CT-Bildgebung unterzogen wurden. Das histopathologische TNM-Stadium sowie klinische Parameter (Alter, BMI, Ileus) wurden für alle Patienten erfasst. Ein multimodales 3D-Convolutional-Neural-Network (CNN) wurde anhand der präoperativen CT-Bilder und den klinischen Parametern trainiert. Die Leistung des Modells wurde auf einem balancierten Testdatensatz (n=30) evaluiert und mit der Leistung von drei Radiologen in einer verblindeten Befundungsstudie verglichen.

Ergebnisse

Das multimodale 3D-CNN erreichte im Testdatensatz eine Genauigkeit von 76.7%, eine Sensitivität von 80% und eine Spezifität von 73.3% anhand der CT-Bilddaten und klinischen Daten. In der Befundungsstudie lag die Sensitivität und Spezifität der teilnehmenden Radiologen für die Testkohorte im Durchschnitt bei 73.3% und 64.4%.

Schlussfolgerungen

In dieser Studie wurde ein multimodales 3D-CNN zur binären Klassifikation von pT1-3 und pT4 Kolonkarzinomen anhand von präoperativen CT-Aufnahmen und klinischen Parametern entwickelt und evaluiert. Der Algorithmus erreichte in der Testkohorte eine vergleichbare Sensitivität und Spezifität wie die der Radiologen.
17:40 - 17:45

Vortrag (Wissenschaft)

Generative Künstliche Intelligenz (KI) Modellierung von synthetischen Prostata-MRT-Bilddaten mit Evaluation der Bildqualität im Vergleich zu realen T2 gewichteten, axialen Spin echo MRT-Daten

Lily Schilk (Göttingen)

weitere Autoren

Tina Holliber (Graz) / Sophie Bachanek (Göttingen) / Ali Seif Amir Hosseini (Göttingen) / Omar Al-Bourini (Göttingen) / Martin Heide (Göttingen) / Mahmoud Ali Al-Zaitoun (Göttingen) / Johannes Uhlig (Göttingen) / Hanna Geldmacher (Göttingen) / Jakob Kewitzki (Göttingen) / Alexander Schreiber (Göttingen) / Lily-Henriette Rentzsch (Göttingen) / Martin Uecker (Graz) / Joachim Lotz (Göttingen)

Zielsetzung

Generierung von qualitativ hochwertigen synthetischen Prostata-Magnetresonanztomographie (MRT)-Bildern durch ein Score-based generatives Model.

Material und Methoden

Ein generatives KI-Diffusionsmodell wurde auf Basis von anonymisierten, standardisierten, kuratierten T2-gewichteten, axialen MRT-Bildern der Prostata trainiert. Der Datensatz umfasste n = 19.887 Schichten von 363 Patienten. Synthetische Bilder wurden mit drei verschiedenen Algorithmen generiert: Ancestral, Langevin und Predictor Corrector.
Mit jedem der Algorithmen wurden 120 in kraniokaudaler Ebene zufällige Schichten einer Prostata-MRT generiert und unter Einschluss von 40 realen MRT-Schichten randomisiert. Zwei erfahrene, gegenüber den Testdaten verblindete Radiologen evaluierten unabhängig voneinander diese 400 Bilder. Neben der Unterscheidung zwischen echter und synthetischer Schicht wurde anhand einer Likert-Skala die Bildqualität in Bezug auf Rauschen und Artefaktlast bewertet.

Ergebnisse

Reader 1 (R1) schätzte 23% (n=84/360), Reader 2 (R2) 48% (n=174/360) der synthetischen Prostata-MRT Schichten als real ein. Als „synthetisch“ ordnete R1 10% (n=4/40), R2 5% (n=2/40) der realen Schichten ein.
Von den drei verwendeten Algorithmen zeigten Predictor Corrector mit 39% (n=94/240) und Langevin mit 46% (n=111/240) die höchste Rate von als reale bewerteten MRT-Schichten. Die durch Ancestral generierten Schichten wurden mit 22% (n=53/240) als reale MRT-Schichten eingeschätzt.
Unabhängig vom gewählten generativen Algorithmus ergab die Auswertung eine höhere Bewertung der Bildqualität für die realen als für die synthetischen MRT Schichten.

Schlussfolgerungen

Generative KI-Diffusionsmodelle kreieren Bilddaten, die visuell zu einem signifikanten Anteil nicht von denen eines realen MRT-Datensatzes zu unterscheiden sind.
Ein Vorteil generativer Modelle sind die vielseitigen Anwendungsmöglichkeiten. So kann das Modell neben der Generation von synthetischen Bildern auch zur Bildverbesserung oder zur Bildrekonstruktion aus k-Raumdaten verwendet werden.
17:45 - 18:00

Diskussion

Diskussion

Runlog

Öffnen