Ultraschall Med 2022; 43(S 01): S31
DOI: 10.1055/s-0042-1749565
Abstracts
Sono-Education

Evaluation der Ultraschallausbildung mit 3D-Gesichtserkennung und künstlicher Intelligenz in Echtzeit

Tim Hartmann
1   Universitäts-Hautklinik Tübingen
2   Klinik für Frauenheilkunde und Geburtshilfe, Universitätsklinikum Ulm
,
Ulrike Friebe-Hoffmann
2   Klinik für Frauenheilkunde und Geburtshilfe, Universitätsklinikum Ulm
,
Dieter Grab
2   Klinik für Frauenheilkunde und Geburtshilfe, Universitätsklinikum Ulm
,
Julien Hartmann
3   Universität Stuttgart
,
Christiane Lato
2   Klinik für Frauenheilkunde und Geburtshilfe, Universitätsklinikum Ulm
,
Wolfgang Janni
2   Klinik für Frauenheilkunde und Geburtshilfe, Universitätsklinikum Ulm
,
Krisztian Lato
2   Klinik für Frauenheilkunde und Geburtshilfe, Universitätsklinikum Ulm
› Author Affiliations
 

Zielsetzung Vergleich des Lernverhaltens zwischen der App basierten Ultraschallsimulation Scanbooster und dem Auszug aus einem Standardlehrbuch zu fetaler Echokardiographie.

Material und Methodik 226 Studenten des 9. Semesters Medizin wurden in fetaler Echokardiographie geschult. Die Einteilung erfolgte in zwei Gruppen: 118 Studenten wurde dabei ein Tablet mit der Scanbooster Ultraschall Simulator-App zur Verfügung gestellt, die Steuerung erfolgte durch ein Smartphone, das als virtueller Schallkopf diente.

108 Studenten wurden mittels eines Tablets mit konventionellem Lehrbuchmaterial in Form eines PDF-Lehrbuchauszuges geschult (PDF-Gruppe).

Die Inhalte beider Gruppen (PDF und Simulator) waren in eine eigens entwickelte Studienapp integriert, die ebenfalls die Randomisation mittels der Programmfunktion Bool.random() vornahm.

Während der gesamten Studie wurden die Gesichter der Teilnehmer ca. 30x/Sekunde mittels eines LIDAR/Kamera-Systems dreidimensional vermessen (eine Messung entspricht jeweils einem "Snapshot") und anschließend mit künstlicher Intelligenz in Bezug auf die gezeigten Gesichtsausdrücke analysiert. Zuvor wurden Trainingsdaten generiert, indem die Studenten gebeten wurden, definierte Gesichtsausdrücke einzunehmen. Mithilfe dieser Trainingsdaten wurde das künstliche neuronale Netz trainiert, um nachfolgend die Gesichtsausdrücke erkennen zu können.

Sowohl vor als auch nach der Lernphase wurden die Studenten anhand von Videos mit darin markierten Strukturen geprüft, die korrekt bezeichnet werden mussten (Videotest-Prüfung).

Ergebnisse Es gab keine signifikanten Unterschiede zwischen den beiden Gruppen in Bezug auf die Parameter Alter (p=0.87), Geschlecht (p=0.28) und Ultraschall-Vorkenntnisse (p=0.45).

Bis zur Lernphase gab es keine signifikanten Unterschiede zwischen den beiden Gruppen in Bezug auf die Anzahl registrierter Snapshots (p=0.067 und p=0.629) und die Anzahl oder Frequenz einer Kategorie an Gesichtsausdrücken (jeweils p > 0.05).

Während der Lernphase zeigten die Teilnehmer der PDF-Gruppe signifikant häufiger den Gesichtsausdruck "enttäuscht" (p=0.025), die Simulator-Gruppe den Ausdruck "gestresst" (p<0.001). Zudem wurden bei letzterer signifikant mehr Snapshots während der Lernphase aufgezeichnet (p<0.0001). Nach der Lernphase, während der Videotest-Prüfung zeigten die Teilnehmer der Simulator-Gruppe signifikant häufiger den Gesichtsausdrück der Kategorie „glücklich“ (p<0,01). Zudem war ihr Lerneffekt signifikant höher (p<0.001).

Zusammenfassung Zum einen konnten vorhergehende Studien zeigen, dass ein höheres Stresslevel, wie es bei der Simulator-Gruppe vorkam, mit einem höheren Maß an Konzentration einhergeht. Zum anderen wies die PDF-Gruppe signifikant weniger Snapshots während der Lernphase auf, was für eine geringere Lerninteraktion spricht, da die Aufzeichnung der Snapshots automatisch gestoppt wurde, sobald der Blick der Teilnehmer nicht auf den Bildschirm gerichtet war.

Zusammenfassend konnten wir zeigen, dass die neu entwickelte Ultraschall-Simulator-App eine gesteigerte Lernbereitschaft, ein höheres Konzentrationsvermögen und konsekutiv einen besseren Lerneffekt im Vergleich zur konventionellen Lehrmethode bewirkt, bei insgesamt größerer Zufriedenheit der Studienteilnehmer.



Publication History

Article published online:
20 June 2022

© 2022. Thieme. All rights reserved.

Georg Thieme Verlag
Rüdigerstraße 14, 70469 Stuttgart, Germany