Jetzt teilnehmen

Bitte loggen Sie sich ein, um Ihre Teilnahme an diesem Webinar zu bestätigen. Sie sind dann vorgemerkt und werden, falls das Webinar innerhalb der nächsten 10 Minuten beginnt, sofort weitergeleitet.

Findet das Webinar zu einem späteren Zeitpunkt statt, kommen Sie kurz vor Beginn des Webinars erneut, um am Webinar teilzunehmen.

Einfach buchen

Buchen Sie jetzt RÖKO DIGITAL des 106. Deutschen Röntgenkongress 2025 - Kongress für medizinische Radiologie und bildgeführte Therapie und verpassen Sie keines unserer lehrreichen und informativen Webinare zu verschiedenen Themen der Radiologie.

  • Wissenschaft & Fortbildung
  • CME-Punkte
  • Themenvielfalt
  • Dialog & Interaktion

Jetzt teilnehmen

Bitte loggen Sie sich ein, um Ihre Teilnahme an diesem Webinar zu bestätigen. Sie sind dann vorgemerkt und werden, falls das Webinar innerhalb der nächsten 10 Minuten beginnt, sofort weitergeleitet.

Findet das Webinar zu einem späteren Zeitpunkt statt, kommen Sie kurz vor Beginn des Webinars erneut, um am Webinar teilzunehmen.

Ohne Buchung.

Sie können an dieser Veranstaltung auch ohne Buchung von RÖKO DIGITAL des 106. Deutschen Röntgenkongress 2025 – Kongress für medizinische Radiologie und bildgeführte Therapie kostenfrei teilnehmen.

Eine Teilnahmebescheinigung erhalten nur Personen, die das digitale Modul „RÖKO DIGITAL“ des 106. Deutschen Röntgenkongress 2025 – Kongress für medizinische Radiologie und bildgeführte Therapie gebucht haben oder noch nachbuchen.

Um teilzunehmen kommen Sie ca. 10 Minuten vor Beginn wieder. Freischaltung zur Teilnahme in:

Sie können an dieser Veranstaltungen auch ohne Buchung von RÖKO DITITAL des 106. Deutschen Röntgenkongress 2025 – Kongress für medizinische Radiologie und bildgeführte Therapie kostenfrei teilnehmen.

Eine Teilnahmebescheinigung erhalten nur Personen, die das digitale Modul „RÖKO DIGITAL“ des 106. Deutschen Röntgenkongress 2025 – Kongress für medizinische Radiologie und bildgeführte Therapie gebucht haben oder noch nachbuchen.

Melden Sie sich bitte hier an:

Bitte beachten Sie die Datenschutzhinweise.

Kongressteilnehmer.

Als Teilnehmer am RÖKO DIGITAL des 106. Deutschen Röntgenkongress 2025 – Kongress für medizinische Radiologie und bildgeführte Therapie loggen Sie sich bitte ein, um an dieser Industrie­veranstaltung teilzunehmen.

Ohne Buchung.

Sie können an Industrie­veranstaltungen auch ohne Buchung von RÖKO DIGITAL des 106. Deutschen Röntgenkongress 2025 – Kongress für medizinische Radiologie und bildgeführte Therapie kostenfrei teilnehmen.

Um teilzunehmen kommen Sie ca. 10 Minuten vor Beginn wieder. Freischaltung zur Teilnahme in:

Sie können an Industrie­veranstaltungen auch ohne Buchung von RÖKO DIGITAL des 106. Deutschen Röntgenkongress 2025 – Kongress für medizinische Radiologie und bildgeführte Therapie kostenfrei teilnehmen. Melden Sie sich bitte hier an:

Bitte beachten Sie die Datenschutzhinweise.

Das ist eine Meldung

Stet clita kasd gubergren, no sea takimata sanctus est. Ut labore et dolore aliquyam erat, sed diam voluptua.

Wissenschaftliche Sitzung

Radiologie und IT - Zwischen Rauschen und Realität: Was Neuroradiologen wirklich sehen

Radiologie und IT - Zwischen Rauschen und Realität: Was Neuroradiologen wirklich sehen
Mittwoch, 28. Mai 2025 · 12:00 bis 12:45 Uhr
Diese Veranstaltung findet ausschließlich als Präsenzveranstaltung im Rhein-Main-Congress-Center in Wiesbaden statt. Diese Veranstaltung kann nicht über einen Stream sondern nur vor Ort besucht werden.
28
Mai

Mittwoch, 28. Mai 2025

12:00 bis 12:45 Uhr · Raum: Terrassensaal C  in Kalender übernehmen:   iCal  ·  Google

Veranstaltungsdetails

Veranstalter
Deutsche Röntgengesellschaft e.V.
Art
Wissenschaftliche Sitzung
Thema
IT/ Bildverarbeitung / Software
Zielgruppe
Andere, Ärzte in Weiterbildung (AiW), Fachärzte, Ingenieure / Naturwiss., Studenten

Zertifizierungen

Der RÖKO WIESBADEN wird im Rahmen einer Kongresszertifizierung durch die LÄK Hessen bewertet. Bitte beachten Sie die Hinweise unter A bis Z.

Informationen

Moderation
Jawed Nawabi (Berlin)

Ablauf

12:00 - 12:05

Vortrag (Wissenschaft)

Steigerung der Workflow-Effizienz von Neuro-MRT durch optimiertes Facility Design und Deep Learning

Barbara Wichtmann (Bonn)

weitere Autoren

Alexander Herold (Boston, MA, USA) / Arhaan Gupta-Rastogi (Boston, MA, USA) / Wei-Ching Lo (Boston, MA) / Azadeh Tabari (Boston, MA, USA) / Bryan Clifford (Boston, MA, USA) / Andrew Sharp (Boston, MA, USA) / Sean P. Hartmann (Boston, MA, USA) / Min Lang (Boston, MA, USA) / John Conklin (Boston, MA, USA) / Stephen Cauley (Boston, MA, USA) / Michael Weber (Vienna, Austria) / Onofrio A. Catalano (Boston, MA, USA) / Fiona M. Fennessy (Boston, MA, USA) / James Brink (Boston, MA, USA) / Oleg Pianykh (Boston, MA, USA) / Susie Y. Huang (Boston, MA, USA)

Zielsetzung

Kürzere Protokolle, schnellere Untersuchungswechsel und längere Betriebszeiten ermöglichen Krankenhäusern eine bessere MRT-Ressourcennutzung. Ziel dieser Studie war es, den Einfluss eines optimierten Facility-Designs auf die Workflow-Effizienz bei ambulanten Neuro-MRTs zu untersuchen.

Material und Methoden

Diese retrospektive, IRB-/HIPAA-konforme Studie umfasste 8.434 Patient:innen (55±17Jahre; 3.487Männer), die von 04/2019-04/2024 Hirn-(36%), Hypophysen-(16%), HWS-(15%) oder LWS-(32%) MRTs erhielten. Alle Untersuchungen wurden an 3T-Scannern (MAGNETOM Vida, Siemens Healthineers, Forchheim, Deutschland) durchgeführt, die sich in einer von 2 traditionellen Referenzeinrichtungen (RF1:25%, RF2:23%) oder einer optimierten Einrichtung (OF:52%) mit 3 Scannern und 4 speziellen Vorbereitungsbuchten mit andockbaren Scannertischen befanden.
Effizienzmetriken wie Tischvorbereitungs-, Mess-, Tischwechsel- und Durchlaufzeiten sowie Pünktlichkeit wurden aus Scanner-Logs und elektronischen Patientenakten ermittelt und mittels dreifacher ANOVA und Chi-Quadrat-Tests analysiert.

Ergebnisse

In der OF waren die Tischvorbereitungs- und -wechselzeiten für alle anatomischen Regionen signifikant kürzer als in RF1/2, was die Durchlaufzeiten um 2,1-6,3 Minuten(6-19%) reduzierte (p<0,001). Die durchschnittlichen Messzeiten lagen nach Protokolloptimierung mit Deep Learning unter 15 Minuten.
Der Durchsatz in der OF war höher, mit einer jährlichen Wachstumsrate der Untersuchungen von 17% in RF1 (402 Scans/Scanner 2024), 23% in RF2 (772 Scans/Scanner 2024) und 72% in OF (901 Scans/Scanner 2024). Die Pünktlichkeit in der OF war signifikant höher, wobei 77% der Untersuchungen innerhalb von 5 Minuten nach dem geplanten Termin begannen, verglichen mit 50% bei RF1 und 63% bei RF2 (p<0,001).

Schlussfolgerungen

Das optimierte Facility-Design verbesserte die Effizienz der Neuro-MRTs signifikant und erhöhte Durchsatz und Pünktlichkeit. Die Ergebnisse belegen den strategischen Wert eines optimierten Facility-Designs zur Bewältigung steigender MRT-Nachfrage.

Teilnahme Young Investigator Award

12:05 - 12:10

Vortrag (Wissenschaft)

Deep Learning Denoising ermöglicht hochqualitative, voll diagnostische neuroradiologische Trauma-CTs bei 25 % Strahlendosis

Andreas Brendlin (Tübingen)

weitere Autoren

Ulrich Schmid (Tübingen) / Saif Afat (Tübingen)

Zielsetzung

Traumatische neuroradiologische Notfälle erfordern schnelle und präzise Diagnose per Computertomographie (CT). Die damit verbundene ionisierende Strahlung ist jedoch ein Risiko. Moderne Rekonstruktionsalgorithmen auf Basis von künstlicher Intelligenz haben gezeigt, dass sie die Strahlendosis reduzieren können, ohne die Bildqualität zu beeinträchtigen. Daher war es unser Ziel, die Dosisreduktionsfähigkeit eines Deep Learning Denopising (DLD) Algorithmus bei neuroradiologischen Notfall-CT-Scans von Traumapatienten zu bewerten.

Material und Methoden

Diese retrospektive Einzelzentrumsstudie umfasste 100 Patienten mit neuroradiologischen Trauma-CT-Scans. Simulierte Voll-Dosis-Scans (100%) und Niedrig-Dosis-Scans (25%) wurden unter Verwendung von iterativer Rekonstruktion (IR2) und DLD verarbeitet. Subjektive und objektive Bildqualitätsbewertungen wurden von vier Neuroradiologen zusammen mit einer Analyse klinischer Endpunkte durchgeführt. Bayes'sche Sensitivität und Spezifität wurden mit 95% Credible Intervals berechnet.

Ergebnisse

Die subjektive Analyse zeigte überlegene Bewertungen für 100% DLD im Vergleich zu 100% IR2 und 25% IR2 (p < 0.001). Zwischen 25% DLD und 100% IR2 wurden keine signifikanten Unterschiede festgestellt. Die objektive Analyse zeigte keine signifikanten Unterschiede bei den CT-Werten, jedoch höhere Bildrauschwerte bei 25% Dosis für DLD und IR2 im Vergleich zu 100% (p < 0.001). DLD zeigte bei beiden Dosisstufen geringeres Rauschen als IR2 (p < 0.001). Die klinische Endpunktanalyse zeigte eine Äquivalenz zu 100% IR2 in der Frakturdiagnose für alle Datensätze, mit Sensitivitätsverlusten bei der Erkennung von Blutungen bei 25% IR2. DLD (25% und 100%) behielt eine vergleichbare Sensitivität zu 100% IR2. Alle Vergleiche zeigten eine robuste Spezifität.

Schlussfolgerungen

Der evaluierte Algorithmus ermöglicht hochqualitative, voll diagnostische CT-Scans bei 25% der ursprünglichen Strahlendosis und verbessert die Patientenversorgung durch Reduzierung unnötiger Strahlenexposition.
12:10 - 12:15

Vortrag (Wissenschaft)

Impact of Defacing Procedures on Brain Age Gap Estimation

Vivien Lorena Ivan (Düsseldorf)

weitere Autoren

Marius Vach (Düsseldorf) / Daniel Weiss (Düsseldorf) / Dennis Hedderich (München) / Julian Caspers (Düsseldorf) / Christian Rubbert (Düsseldorf)

Zielsetzung

Brain Age Gap Estimation (BrainAGE) is increasingly explored as an imaging biomarker for atypical brain aging. Removal of facial features from MRI scans is mandatory from a data privacy perspective. However, defacing procedures may cause data integrity issues, which could also compromise the quality of BrainAGE. This study aims to systematically assess the impact of defacing on BrainAGE.

Material und Methoden

A total of 364 Alzheimer’s disease (AD) patients and 717 cognitively normal (CN) participants were included from the Alzheimer's Disease Neuroimaging Initiative (ADNI). For those, unaccelerated and accelerated 3D T1 imaging was available.
BrainAGE was derived for each AD and CN before and after defacing using afni_refacer, fsl_deface, mri_deface, mri_reface, PyDeface, and spm_deface.
Furthermore, for AD n=74 and CN n=84 within-session repeat imaging was available. BrainAGE differences between the two scans were calculated without defacing to serve as a benchmark. The difference in BrainAGE after defacing, as well as the mean absolute error (MAE) and mean squared error (MSE) of BrainAGE with and without defacing were calculated separately for unaccelerated and accelerated imaging.

Ergebnisse

MAE and MSE for BrainAGE difference between the initial and repeat scan in the benchmark, both without defacing, were 1.15 and 2.25 for CN (BrainAGE difference -0.15±1.5), and 1.43 and 3.29 for AD (BrainAGE difference of 0.15±1.82). PyDeface performed best with an overall MAE of 0.33 and MSE of 0.27 and the lowest number of outliers according to the benchmark. The overall MAE for fsl_deface and spm_deface was 0.35, for mri_reface 0.41, for mri_deface 0.63, and for afni_refacer 1.04.

Schlussfolgerungen

BrainAGE may be affected by defacing, however, in most approaches this influence is less than the methodological variability observed in BrainAGE. Overall, PyDeface had negligible impact on BrainAGE.

Teilnahme Young Investigator Award

12:15 - 12:20

Vortrag (Wissenschaft)

Feature-basierter Loss für KI-Modelle zur Auflösungsverbesserung von MR-Diffusionsdaten des Gehirns

David Lohr (Hamburg)

weitere Autoren

Rene Werner (Hamburg)

Zielsetzung

Die Auflösung von MR-Diffusionsdaten ist bei klinischer Messzeit eingeschränkt, was komplexere Analysen wie Traktografie und Konnektivität verhindert. KI-Modelle können die räumliche Auflösung von MR-Bildern retrospektiv verbessern. Ziel dieser Studie ist die Verbesserung solche Modelle durch die Optimierung einer Loss-Funktion basierend auf den Features der diffusionsgewichteten Bilder (DWIs).

Material und Methoden

KI-Modelle wurden mittels Pytorch und fastAI entwickelt und anhand von n=10 7T-Diffusionsdatensätze (korrespondierende Bilder niedriger und hoher Auflösung, Faktor 2) vom „Human connectome project“ trainiert. Als Architektur kam eine Kombination aus UNet und ResNet18 zur Anwendung. Während des Trainings wurden Modell-Vorhersagen für Bilder niedriger Auflösung und die Referenzbilder durch ein vortrainiertes Klassifizierungs-Modell (VGG16) geschickt, wobei mit entstehenden Features aus fünf Ebenen jeweils ein L1-Loss berechnet wurde. Die Summe dieser, plus ein L1-Loss auf Basis der DWI, bildete die Optimierungsfunktion. Eine Ablations- sowie eine Isolationsstudie wurden durchgeführt, um den Einfluss der fünf Feature-Loss-Komponenten sowie deren optimale Kombination zu ermitteln. Alle Modelle wurden mittels n=5 weiteren 7T-Datensätzen getestet.

Ergebnisse

SSIM-Werte für die zentrale Schicht (b0-Bilder) in den fünf Testdatensätzen lagen im Mittel zwischen 0,925-0,942. Die besten Werte erzielten dabei Modelle die Features auf Basis der ersten beiden Ebenen des VGG16-Modells verwendeten. SSIM-Werte für b-Werte von 1000 s/mm² und 2000 s/mm² waren niedriger (0,873-0,891 und 0,842-0,857). In ROI-basierten (Anterior und Posterior Commissure) Analysen zeigten MD und FA die höchste Übereinstimmung zu den Originaldaten für dieselben Modelle.

Schlussfolgerungen

KI-Modelle zur Auflösungsverbessung von DWIs scheinen abhängig von SNR zu sein. Feature-basierter Loss kann die Integrität von Diffusionsparametern verbessern, was eine klinische Anwendung komplexerer Analysen zunünftig erleichtert.

Teilnahme Young Investigator Award

12:20 - 12:25

Vortrag (Wissenschaft)

No MPRAGE? No Volumetry?! Evaluation of a synthetic-T1-MPRAGE from routine anisotropic 2D-T2/FLAIR for AI brain volumetry

Ludwig Singer (Erlangen)

weitere Autoren

Tim Möhle (Erlangen) / Stefan Lang (Erlangen) / Manuel Schmidt (Erlangen) / Angelika Mennecke (Erlangen) / Arnd Dörfler (Erlangen)

Zielsetzung

3D T1-weighted-sequences (e.g.MPRAGE) are considered the gold standard for AI-based brain volumetry. In clinical routine 2D-anisotropic-sequences (2DAS) are often preferred due to faster acquisition and higher in-plane-resolution. However, these sequences are not processable with currently available AI-volumetry software. The aim of our study was to evaluate volumetric data calculated from synthetic, 2DAS-based MPRAGE-like sequences (mprAIge).

Material und Methoden

In 206 patients (agemean=52±13y) 412 corresponding datasets (nMPRAGE=206; n2DAS=206) were acquired. Using the SynthSR-Convolutional Neural Network synthetic-MPRAGE (mprAIge) were generated from T2w/FLAIR-sequences and subesquently, both mprAIge and MPRAGE were assessed regarding total-brain-volume (TBV), gray/white-matter-volumes (GMV/WMV), hippocampus-volume (HV) and amygdala-volume (AV) using assemblyNET on the volBrain platform. Volume-correlations (mprAIge vs. MPRAGE) and average-volume-differences (AVD) were calculated.

Ergebnisse

Synhetic mprAIge was successfully generated in all cases. Quantitative analysis revealed good to excellent volume-correlations (r = 0.82 to 0.97). TBVmprAIge/MPRAGE=1227.4/1184ml, AVDTBV=3.73%, rTBV=0.978; GMVmprAIge/MPRAGE=787.8/743.6ml, AVDGMV=5.96%, rGMV=0.981; WMVmprAIge/MPRAGE=439.6/440.4ml, AVDWMV=0.12%, rWMV=0.951; HVmprAIge/MPRAGE=7.2/7.3ml, AVDHV=1.12%, rHV=0.890; AVmprAIge/MPRAGE=2.3/2.5ml, AVDAV=2.58%, rAV=0. 823).

Schlussfolgerungen

Synthetically generated MPR volumes calculated from routinely used 2D sequences allowed unrestricted application of current AI-volumetry software. Moreover, mprAIge-based volumetry of anatomical key structures (e.g. total-brain-volume) was equivalent with the current gold standard. Thus, mprAIge opens up new opportunities in terms of volumetric postprocessing and mapping of disease progression.

Teilnahme Young Investigator Award

12:25 - 12:30

Vortrag (Wissenschaft)

Multi-Axis Fusion zur zuverlässigen Unsicherheitsabschätzung in der MRT-Bildsynthetisierung

Ivo Baltruschat (Berlin)

weitere Autoren

Parvaneh Janbakhshi / Melanie Dohmen / Matthias Lenga

Zielsetzung

Diese Studie untersucht die Unsicherheitsabschätzung bei der Bild-zu-Bild- Synthetisierung für kontrastverstärkte T1-Bilder mithilfe einer neuartigen Multi-Axis Fusion (MAF)-Methode. Ziel ist es, Unsicherheiten zu quantifizieren und die MAF-Methode mit MC-Dropout und Deep Ensemble zu vergleichen, um die Zuverlässigkeit synthetisierter Bilder zu erhöhen.

Material und Methoden

Verwendet wurde der BraTS 2023-Datensatz mit 1251 Kopf MRT-Scans (gesunde und Tumorregionen). Ein U-Net-GAN-Modell wurde für die Synthetisierung von kontrastverstärkten T1-Bilder mittels T1-, T2- und T2-FLAIR-Bildern trainiert. Die Unsicherheitsabschätzung erfolgte durch MAF, MC-Dropout und Deep Ensemble, wobei der Pearson Korrelationskoffizent zwischen dem mittleren Unsicherheitswert und dem mittleren absoluten Fehler (MAE) untersucht wurde.

Ergebnisse

MAF zeigte den höchsten Pearson Korrelationskoffizent zwischen Unsicherheitswert und MAE (ρ = 0.89 für Gesunderegionen und ρ = 0.61 für Tumorregionen), was auf eine verbesserte Vorhersagegenauigkeit hinweist. Besonders in den gesunden Bereichen erfasst MAF die Fehlerstellen besser als MC-Dropout (ρ = -0.11) und Deep Ensemble (ρ = 0.38). Die Unsicherheitskarten für die MAF-Methode zeigten zudem eine räumliche Übereinstimmung mit den tatsächlichen Fehlerverteilungen.

Schlussfolgerungen

MAF bietet eine zuverlässige Unsicherheitsabschätzung, die einen wertvollen Proxy für die Fehlerlokalisation bei der MRT-Bildsynthetisierung darstellt. Diese Methode könnte eine klinische Unterstützung bei der Qualitätssicherung durch Erkennung potenzieller Syntheseausfälle bieten und eignet sich für Anwendungen, die robuste Bildübersetzungen erfordern.
12:30 - 12:45

Diskussion

Diskussion

Runlog

Öffnen