Jetzt teilnehmen

Bitte loggen Sie sich ein, um Ihre Teilnahme an diesem Webinar zu bestätigen. Sie sind dann vorgemerkt und werden, falls das Webinar innerhalb der nächsten 10 Minuten beginnt, sofort weitergeleitet.

Findet das Webinar zu einem späteren Zeitpunkt statt, kommen Sie kurz vor Beginn des Webinars erneut, um am Webinar teilzunehmen.

Einfach buchen

Buchen Sie jetzt RÖKO DIGITAL des 106. Deutschen Röntgenkongress 2025 - Kongress für medizinische Radiologie und bildgeführte Therapie und verpassen Sie keines unserer lehrreichen und informativen Webinare zu verschiedenen Themen der Radiologie.

  • Wissenschaft & Fortbildung
  • CME-Punkte
  • Themenvielfalt
  • Dialog & Interaktion

Jetzt teilnehmen

Bitte loggen Sie sich ein, um Ihre Teilnahme an diesem Webinar zu bestätigen. Sie sind dann vorgemerkt und werden, falls das Webinar innerhalb der nächsten 10 Minuten beginnt, sofort weitergeleitet.

Findet das Webinar zu einem späteren Zeitpunkt statt, kommen Sie kurz vor Beginn des Webinars erneut, um am Webinar teilzunehmen.

Ohne Buchung.

Sie können an dieser Veranstaltung auch ohne Buchung von RÖKO DIGITAL des 106. Deutschen Röntgenkongress 2025 – Kongress für medizinische Radiologie und bildgeführte Therapie kostenfrei teilnehmen.

Eine Teilnahmebescheinigung erhalten nur Personen, die das digitale Modul „RÖKO DIGITAL“ des 106. Deutschen Röntgenkongress 2025 – Kongress für medizinische Radiologie und bildgeführte Therapie gebucht haben oder noch nachbuchen.

Um teilzunehmen kommen Sie ca. 10 Minuten vor Beginn wieder. Freischaltung zur Teilnahme in:

Sie können an dieser Veranstaltungen auch ohne Buchung von RÖKO DITITAL des 106. Deutschen Röntgenkongress 2025 – Kongress für medizinische Radiologie und bildgeführte Therapie kostenfrei teilnehmen.

Eine Teilnahmebescheinigung erhalten nur Personen, die das digitale Modul „RÖKO DIGITAL“ des 106. Deutschen Röntgenkongress 2025 – Kongress für medizinische Radiologie und bildgeführte Therapie gebucht haben oder noch nachbuchen.

Melden Sie sich bitte hier an:

Bitte beachten Sie die Datenschutzhinweise.

Kongressteilnehmer.

Als Teilnehmer am RÖKO DIGITAL des 106. Deutschen Röntgenkongress 2025 – Kongress für medizinische Radiologie und bildgeführte Therapie loggen Sie sich bitte ein, um an dieser Industrie­veranstaltung teilzunehmen.

Ohne Buchung.

Sie können an Industrie­veranstaltungen auch ohne Buchung von RÖKO DIGITAL des 106. Deutschen Röntgenkongress 2025 – Kongress für medizinische Radiologie und bildgeführte Therapie kostenfrei teilnehmen.

Um teilzunehmen kommen Sie ca. 10 Minuten vor Beginn wieder. Freischaltung zur Teilnahme in:

Sie können an Industrie­veranstaltungen auch ohne Buchung von RÖKO DIGITAL des 106. Deutschen Röntgenkongress 2025 – Kongress für medizinische Radiologie und bildgeführte Therapie kostenfrei teilnehmen. Melden Sie sich bitte hier an:

Bitte beachten Sie die Datenschutzhinweise.

Das ist eine Meldung

Stet clita kasd gubergren, no sea takimata sanctus est. Ut labore et dolore aliquyam erat, sed diam voluptua.

Wissenschaftliche Sitzung

Radiologie und IT - Deep Radiology: Ideen, Anwendungen und Ausblick (Part II)

Radiologie und IT - Deep Radiology: Ideen, Anwendungen und Ausblick (Part II)
Donnerstag, 29. Mai 2025 · 17:15 bis 18:00 Uhr
Diese Veranstaltung findet ausschließlich als Präsenzveranstaltung im Rhein-Main-Congress-Center in Wiesbaden statt. Diese Veranstaltung kann nicht über einen Stream sondern nur vor Ort besucht werden.
29
Mai

Donnerstag, 29. Mai 2025

17:15 bis 18:00 Uhr · Raum: ePoster-Station  in Kalender übernehmen:   iCal  ·  Google

Veranstaltungsdetails

Veranstalter
Deutsche Röntgengesellschaft e.V.
Art
Wissenschaftliche Sitzung
Thema
IT/ Bildverarbeitung / Software
Zielgruppe
Andere, Ärzte in Weiterbildung (AiW), Fachärzte, Ingenieure / Naturwiss., Studenten

Zertifizierungen

Der RÖKO WIESBADEN wird im Rahmen einer Kongresszertifizierung durch die LÄK Hessen bewertet. Bitte beachten Sie die Hinweise unter A bis Z.

Ablauf

17:15 - 17:20

Vortrag (Wissenschaft)

No MPRAGE? No Volumetry?! Evaluation of a synthetic-T1-MPRAGE from routine anisotropic 2D-T2/FLAIR for AI brain volumetry

Ludwig Singer (Erlangen)

weitere Autoren

Tim Möhle (Erlangen) / Stefan Lang (Erlangen) / Manuel Schmidt (Erlangen) / Angelika Mennecke (Erlangen) / Arnd Dörfler (Erlangen)

Zielsetzung

3D T1-weighted-sequences (e.g.MPRAGE) are considered the gold standard for AI-based brain volumetry. In clinical routine 2D-anisotropic-sequences (2DAS) are often preferred due to faster acquisition and higher in-plane-resolution. However, these sequences are not processable with currently available AI-volumetry software. The aim of our study was to evaluate volumetric data calculated from synthetic, 2DAS-based MPRAGE-like sequences (mprAIge).

Material und Methoden

In 206 patients (agemean=52±13y) 412 corresponding datasets (nMPRAGE=206; n2DAS=206) were acquired. Using the SynthSR-Convolutional Neural Network synthetic-MPRAGE (mprAIge) were generated from T2w/FLAIR-sequences and subesquently, both mprAIge and MPRAGE were assessed regarding total-brain-volume (TBV), gray/white-matter-volumes (GMV/WMV), hippocampus-volume (HV) and amygdala-volume (AV) using assemblyNET on the volBrain platform. Volume-correlations (mprAIge vs. MPRAGE) and average-volume-differences (AVD) were calculated.

Ergebnisse

Synhetic mprAIge was successfully generated in all cases. Quantitative analysis revealed good to excellent volume-correlations (r = 0.82 to 0.97). TBVmprAIge/MPRAGE=1227.4/1184ml, AVDTBV=3.73%, rTBV=0.978; GMVmprAIge/MPRAGE=787.8/743.6ml, AVDGMV=5.96%, rGMV=0.981; WMVmprAIge/MPRAGE=439.6/440.4ml, AVDWMV=0.12%, rWMV=0.951; HVmprAIge/MPRAGE=7.2/7.3ml, AVDHV=1.12%, rHV=0.890; AVmprAIge/MPRAGE=2.3/2.5ml, AVDAV=2.58%, rAV=0. 823).

Schlussfolgerungen

Synthetically generated MPR volumes calculated from routinely used 2D sequences allowed unrestricted application of current AI-volumetry software. Moreover, mprAIge-based volumetry of anatomical key structures (e.g. total-brain-volume) was equivalent with the current gold standard. Thus, mprAIge opens up new opportunities in terms of volumetric postprocessing and mapping of disease progression.

Teilnahme Young Investigator Award

17:20 - 17:25

Vortrag (Wissenschaft)

Eine auf künstlicher Intelligenz basierende Methode zur vollautomatischen Qualitätsbewertung von Low-Dose-CT-Thoraxaufnahmen

Patrick Wienholt (Aachen)

weitere Autoren

Alexander Hermans (Aachen) / Robert Siepmann (Aachen) / Sven Nebelung (Aachen) / Daniel Pinto dos Santos (Frankfurt am Main) / Daniel Truhn (Aachen)

Zielsetzung

Mit der weit verbreiteten CT-basierten Lungenkrebsvorsorge ist die Strahlenexposition ein wichtiges Anliegen. Wir schlagen eine automatisierte und erklärbare Qualitätskontrollmethode vor, die Over- und Underscanning erkennt und das Bildrauschen bewertet.

Material und Methoden

Unter Verwendung des TotalSegmentator und Nachbearbeitung segmentieren wir Lunge und die absteigende Aorta in 3D. Das Overscanning wird durch Messung der kranialen und kaudalen Körperregionen der Lunge im Scan beurteilt. Das Rauschen wird durch die volumen-normalisierte Standardabweichung der Hounsfield-Einheiten (HU) in der segmentierten Aorta quantifiziert. Ein Radiologe überprüfte 98 Low-Dose-CTs aus der National Lung Screening Trial (NLST) und bewertete die Segmentierungsqualität auf einer 6-stufigen Skala (Perfekt, Fast Perfekt, Gut, Akzeptabel, Ungenügend). Darüber hinaus analysierten wir 38.834 NLST-Low-dose CTs hinsichtlich Over- und, Underscanning, Rauschen. Für jeden Scan wird ein PDF-Bericht mit Bildern, Werten und Segmentierungen erstellt.

Ergebnisse

Laut dem Radiologen waren die Lungen in 90,8% [95% CI: 83,3% - 90,8%] der Scans fast perfekt oder besser segmentiert und das Blut der absteigenden Aorta in 96,9% [95% CI: 91,3% - 99,4%] davon. Für die 38.834 CTs beträgt das Overscanning kaudal im Schnitt 31,21 mm ±18,98 mm [6,0 mm; 66,25 mm] (Mittelwert±Std [Quartile: 5%; 95%]) und kranial durchschnittlich 14,54 mm ±7,18 mm [5 mm; 27,5 mm]. Im Durchschnitt zeigen 13,94% ±6,56% [4,58%; 25.39%] des Scans keine Lunge. Underscanning trat kaudal 1694 Mal auf und kranial 347 Mal. Die durchschnittliche Standardabweichung des Rauschens beträgt 34.16 HU ±22.51 HU [17.31 HU; 58.15 HU]. Bei einer festen effektiven Strahlendosis gemessen in Milliampere-Sekunden beträgt die durchschnittliche Spearman-Korrelation zwischen dem Rauschen und dem Patientengewicht 0.835.

Schlussfolgerungen

Die Methode offenbart Qualitätsunterschiede zwischen den Low-Dose-CTs zur Lungenkrebsvorsorge. Dies deutet auf Optimierungspotenzial bei der angewandten Strahlendosis hin.
17:25 - 17:30

Vortrag (Wissenschaft)

Impact of Defacing Procedures on Brain Age Gap Estimation

Vivien Lorena Ivan (Düsseldorf)

weitere Autoren

Marius Vach (Düsseldorf) / Daniel Weiss (Düsseldorf) / Dennis Hedderich (München) / Julian Caspers (Düsseldorf) / Christian Rubbert (Düsseldorf)

Zielsetzung

Brain Age Gap Estimation (BrainAGE) is increasingly explored as an imaging biomarker for atypical brain aging. Removal of facial features from MRI scans is mandatory from a data privacy perspective. However, defacing procedures may cause data integrity issues, which could also compromise the quality of BrainAGE. This study aims to systematically assess the impact of defacing on BrainAGE.

Material und Methoden

A total of 364 Alzheimer’s disease (AD) patients and 717 cognitively normal (CN) participants were included from the Alzheimer's Disease Neuroimaging Initiative (ADNI). For those, unaccelerated and accelerated 3D T1 imaging was available.
BrainAGE was derived for each AD and CN before and after defacing using afni_refacer, fsl_deface, mri_deface, mri_reface, PyDeface, and spm_deface.
Furthermore, for AD n=74 and CN n=84 within-session repeat imaging was available. BrainAGE differences between the two scans were calculated without defacing to serve as a benchmark. The difference in BrainAGE after defacing, as well as the mean absolute error (MAE) and mean squared error (MSE) of BrainAGE with and without defacing were calculated separately for unaccelerated and accelerated imaging.

Ergebnisse

MAE and MSE for BrainAGE difference between the initial and repeat scan in the benchmark, both without defacing, were 1.15 and 2.25 for CN (BrainAGE difference -0.15±1.5), and 1.43 and 3.29 for AD (BrainAGE difference of 0.15±1.82). PyDeface performed best with an overall MAE of 0.33 and MSE of 0.27 and the lowest number of outliers according to the benchmark. The overall MAE for fsl_deface and spm_deface was 0.35, for mri_reface 0.41, for mri_deface 0.63, and for afni_refacer 1.04.

Schlussfolgerungen

BrainAGE may be affected by defacing, however, in most approaches this influence is less than the methodological variability observed in BrainAGE. Overall, PyDeface had negligible impact on BrainAGE.

Teilnahme Young Investigator Award

17:30 - 17:35

Vortrag (Wissenschaft)

Multi-Axis Fusion zur zuverlässigen Unsicherheitsabschätzung in der MRT-Bildsynthetisierung

Ivo Baltruschat (Berlin)

weitere Autoren

Parvaneh Janbakhshi / Melanie Dohmen / Matthias Lenga

Zielsetzung

Diese Studie untersucht die Unsicherheitsabschätzung bei der Bild-zu-Bild- Synthetisierung für kontrastverstärkte T1-Bilder mithilfe einer neuartigen Multi-Axis Fusion (MAF)-Methode. Ziel ist es, Unsicherheiten zu quantifizieren und die MAF-Methode mit MC-Dropout und Deep Ensemble zu vergleichen, um die Zuverlässigkeit synthetisierter Bilder zu erhöhen.

Material und Methoden

Verwendet wurde der BraTS 2023-Datensatz mit 1251 Kopf MRT-Scans (gesunde und Tumorregionen). Ein U-Net-GAN-Modell wurde für die Synthetisierung von kontrastverstärkten T1-Bilder mittels T1-, T2- und T2-FLAIR-Bildern trainiert. Die Unsicherheitsabschätzung erfolgte durch MAF, MC-Dropout und Deep Ensemble, wobei der Pearson Korrelationskoffizent zwischen dem mittleren Unsicherheitswert und dem mittleren absoluten Fehler (MAE) untersucht wurde.

Ergebnisse

MAF zeigte den höchsten Pearson Korrelationskoffizent zwischen Unsicherheitswert und MAE (ρ = 0.89 für Gesunderegionen und ρ = 0.61 für Tumorregionen), was auf eine verbesserte Vorhersagegenauigkeit hinweist. Besonders in den gesunden Bereichen erfasst MAF die Fehlerstellen besser als MC-Dropout (ρ = -0.11) und Deep Ensemble (ρ = 0.38). Die Unsicherheitskarten für die MAF-Methode zeigten zudem eine räumliche Übereinstimmung mit den tatsächlichen Fehlerverteilungen.

Schlussfolgerungen

MAF bietet eine zuverlässige Unsicherheitsabschätzung, die einen wertvollen Proxy für die Fehlerlokalisation bei der MRT-Bildsynthetisierung darstellt. Diese Methode könnte eine klinische Unterstützung bei der Qualitätssicherung durch Erkennung potenzieller Syntheseausfälle bieten und eignet sich für Anwendungen, die robuste Bildübersetzungen erfordern.
17:35 - 17:40

Vortrag (Wissenschaft)

Automatisierte multimodale Organsegmentierung in der pädiatrischen Radiologie: Ein Ansatz zum Domänenshift für CT- und MR-Bildgebung

Marcel Eicke (Hannover)

weitere Autoren

Kai Geißler (Bremen) / Markus Benedikt Krüger (Hannover) / Jasmin Heepe (Hannover) / Hinrich Winther (Hannover) / Fabian Knörr (Hamburg) / Antonio Paul Kuhnt (Hannover) / Andreas Bucher (Frankfurt) / Hans-Joachim Mentzel (Jena) / Jochen Herrmann (Hamburg) / Clemens Benoit (Würzburg) / Andrea Schenk (Hannover) / Wilhelm Wößmann (Hamburg) / Diane Renz (Hannover) / Bianca Lassen-Schmidt (Bremen)

Zielsetzung

In der pädiatrischen Radiologie fehlen ausreichend etablierte Werkzeuge für eine automatisierte Segmentierung von CT- und MRT-Bildern, um den manuellen Aufwand bei der Organvolumetrie und Normwertbestimmung zu reduzieren. Wir präsentieren ein Segmentierungsnetzwerk, das mit einer Global Intensity Non-Linear (GIN-) Augmentation auf einem öffentlich verfügbaren, pädiatrischen CT-Datensatz trainiert wurde und zeigen dessen Potenzial für qualitative Segmentierungen von Thorax- und Abdominalorganen sowie des Spinalkanals in pädiatrischen CT- und MRT-Untersuchungen.

Material und Methoden

Wir haben ein 3D-UNet auf 250 Bildern des öffentlichen Pediatric-CT-Segmentation-Datensatzes trainiert und eine Global Intensity Non-Linear Augmentation integriert, die Domänenshifts ausgleichen und den Transfer auf andere Modalitäten erleichtern soll. Das Modell wurde auf 30 pädiatrischen MRTs und 30 Säuglings-CTs sowie auf 70 zusätzlichen Bildern des öffentlichen CT-Datensatzes evaluiert.

Ergebnisse

Unser GIN-Modell erreicht einen Dice-Score von 0,90 ± 0,11 auf den öffentlichen CT-Daten, 0,73 ± 0,08 auf den Säuglings-CTs und 0,68 ± 0,23 auf den MRT-Bildern. In allen drei Gruppen zeigt sich, dass Lungenflügel, Leber, Milz, Herz und Nieren durchschnittlich bessere Ergebnisse erzielen als Thymus, Pankreas und Spinalkanal. In unserer Evaluation über alle Daten erzielt das GIN-Modell bessere Ergebnisse als TotalSegmentator sowie ein vergleichbares pädiatrisches Segmentierungsmodell ohne GIN-Augmentierung.

Schlussfolgerungen

Unsere Studie zeigt, dass unser GIN-Modell auf pädiatrischen CTs hochqualitative Segmentierungen produziert und auch auf MRTs mit leichten Einschränkungen gute Ergebnisse erzielen kann. Das Netzwerk ist ausreichend robust um in einer größeren Studie zur automatisierten Erstellung von Normwerten für Organvolumina getestet zu werden und so, die klinische Anwendbarkeit umfassender zu evaluieren.
17:40 - 17:45

Vortrag (Wissenschaft)

Klassifikation der Darmwandinfiltration (T-Stadium) des Kolonkarzinoms: Ein multimodaler Deep Learning Ansatz unter Verwendung präoperativer CT-Aufnahmen

Tristan Lemke

weitere Autoren

Stefan Reischl (München) / Markus Graf (München) / Nicolas Lenhart (München) / Alexander W. Marka (München) / Philipp-Alexander Neumann (München) / Marcus R. Makowski (München) / Rickmer F. Braren (München) / Sebastian Ziegelmayer (München)

Zielsetzung

Die Identifizierung der Darmwandinfiltration des Kolonkarzinoms (CC), durch das histopathologische T-Stadium (pT) repräsentiert, ist von großer klinischer Bedeutung und spielt durch existierende Empfehlungen zur neoadjuvanten Chemotherapie von pT4-Tumoren eine wesentliche Rolle in der individualisierten Therapie dieser Tumorentität. Die radiologische Genauigkeit der T-Stadium-Klassifikation (cT) in der Computertomographie als prätherapeutischer diagnostischer Standard ist begrenzt. Das Ziel dieser Studie war daher die Entwicklung eines Deep-Learning-Modells zur Klassifikation zwischen pT1-3 und pT4 Kolonkarzinomen in präoperativen CT-Aufnahmen.

Material und Methoden

In dieser retrospektiven Kohortenstudie analysierten wir 528 Patienten, die am Klinikum rechts der Isar einer Resektion eines CC und einer präoperativen CT-Bildgebung unterzogen wurden. Das histopathologische TNM-Stadium sowie klinische Parameter (Alter, BMI, Ileus) wurden für alle Patienten erfasst. Ein multimodales 3D-Convolutional-Neural-Network (CNN) wurde anhand der präoperativen CT-Bilder und den klinischen Parametern trainiert. Die Leistung des Modells wurde auf einem balancierten Testdatensatz (n=30) evaluiert und mit der Leistung von drei Radiologen in einer verblindeten Befundungsstudie verglichen.

Ergebnisse

Das multimodale 3D-CNN erreichte im Testdatensatz eine Genauigkeit von 76.7%, eine Sensitivität von 80% und eine Spezifität von 73.3% anhand der CT-Bilddaten und klinischen Daten. In der Befundungsstudie lag die Sensitivität und Spezifität der teilnehmenden Radiologen für die Testkohorte im Durchschnitt bei 73.3% und 64.4%.

Schlussfolgerungen

In dieser Studie wurde ein multimodales 3D-CNN zur binären Klassifikation von pT1-3 und pT4 Kolonkarzinomen anhand von präoperativen CT-Aufnahmen und klinischen Parametern entwickelt und evaluiert. Der Algorithmus erreichte in der Testkohorte eine vergleichbare Sensitivität und Spezifität wie die der Radiologen.
17:45 - 18:00

Diskussion

Diskussion

Runlog

Öffnen