Medizinische Geräte und Maschinen werden in immer mehr Bereichen eingesetzt, übernehmen neue Aufgaben und zeichnen sich durch eine zunehmende Komplexität aus. Für eine optimale Nutzung der Geräte, sowie eine intuitive, sichere und fehlerfreie Bedienung, werden daher neue Usability Technologien benötigt, die Bedienbarkeit und Benutzerfreundlichkeit gewährleisten. Für den Informationsaustausch und die Kommunikation zwischen Mensch und Maschine stehen immer mehr Möglichkeiten zur Verfügung. Von einfachen Tasten, Reglern und Monitoren über Touch Screens erstreckt sich das Spektrum bis hin zu neuen „Human Machine Interfaces“, die Technologien für Gestenerkennung, Spracherkennung oder Augmented Reality verwenden. Diese Technologien gewinnen zunehmend an Bedeutung in Situationen, in denen sich das medizinische Personal um die Behandlung des Patienten kümmern muss, gleichzeitig jedoch auch die Bedienung eines Gerätes, zum Beispiel zur Eingabe oder zum Erhalt von Informationen oder der unterstützenden Behandlung des Patienten, handhaben muss. In Monitoring Situationen, in denen der Blick ständig zwischen Patient und Monitor wechselt, kann beispielsweise ein Audio-Design helfen, welches akustische Signale abgibt. Diese können Informationen über relevante Patientendaten enthalten, sodass der Blick zu einem Monitor entfällt und das Personal sich besser auf andere Dinge konzentrieren kann. In ähnlicher Weise können auch Sprach- oder Gestenerkennung Behandlungssituationen vereinfachen.
Neben dem Nutzen für das medizinische Personal ist Usability aber auch für den Patienten selbst wichtig. Viele Patienten möchten aktiv an ihrer Behandlung mitwirken und sich an Behandlungsentscheidungen beteiligen. Voraussetzung dafür ist, dass sie die Behandlungsabläufe verstehen. Beispielsweise wird einigen Patienten durch Medical Apps die Möglichkeit gegeben selber bestimmte Teile der Behandlung zu übernehmen. Damit dies für die Patienten möglich ist, ist vor allem dort die Benutzerfreundlichkeit für ein sicheres Verständnis von Bedeutung.
Die Gestaltung der Usability eines Produktes unterliegt nicht allein dem Hersteller. Allgemeine Festlegungen für Sicherheit, Prüfungen und Richtlinien der Gebrauchstauglichkeit werden durch Normen, wie DIN EN 60601-1-6 und DIN EN 6236 geregelt. Für die Untersuchung der Gebrauchstauglichkeit werden beispielsweise Dokumentationen über Anforderungen an den Anwender, Spezifikationen über den Anwenderkreis und die Anwendungsumgebung oder vorhersehbare Fehlhandlungen gefordert.
Die zunehmende Autonomie technischer Systeme verändert das Zusammenspiel zwischen Mensch und Technik. Maschinen übernehmen immer mehr Aufgaben, um den Menschen zu unterstützen und Fehlverhalten zu minimieren. Hierfür muss der Nutzer der Maschine Informationen geben, die diese wiederum verwenden kann, um sich dem Nutzer anzupassen und entsprechend zu handeln. Diese Informationen können bewusst oder auch unbewusst, zum Beispiel durch einen hohen Puls, einen abgewandten Blick etc. mitgeteilt werden. Durch solche Signale kann die Maschine Schlüsse ziehen und anhand des menschlichen Verhaltens lernen, wie sie in bestimmten Situationen handeln muss. Insgesamt soll die Mensch-Maschine-Interaktion natürlicher und einfacher bzw. intuitiver gestaltet werden, sodass die Maschine ein menschenähnliches Verhalten annimmt. Dies ist auch das Ziel des Perceptual User Interface, der wahrnehmungsgesteuerten Benutzerschnittstelle. Sie konzentriert sich auf die Bedienung mehrere Sinne des Nutzers und unterstützt mehrere Eingabemodalitäten, sodass Mensch und Maschine unabhängig von Tastatur und Maus interagieren können. Dies soll hauptsächlich perzeptiv ablaufen, sodass Wahrnehmung und Informationsverarbeitung unbewusst von statten gehen und eine menschenähnliche Kommunikation geschaffen wird. Noch weiter geht das Brain Computer Interface, bei dem durch Messung der Hirnströme eine Verbindung zwischen Gehirn und Computer geschaffen wird, sodass mit Gedanken und der daraus resultierenden elektrischen Aktivität, bestimmte Dinge gesteuert werden können.
Insgesamt gewinnt somit eine multimodale Bedienung, also eine Steuerung durch mehrere Sinneskanäle des Menschen, an Bedeutung. Mit Hilfe der Augmented Reality können zukünftig „Head-up-Displays“ für verschiedenste Informationen eingesetzt werden. Hierdurch können beispielsweise Informationen und Bilder in das Sichtfeld eines Operateurs projiziert werden, sodass dieser den Kopf nicht in Richtung eines Monitors drehen muss. Neben der Effizienzsteigerung und Vermeidung von Fehlern werden bestimmte Behandlungsmethoden durch solche neuartigen Usability-Technologien überhaupt erst ermöglicht.
Referent/in: MSc. Critical Care Susanne Krotsetis, UKSH Campus Lübeck
Referent/in: Dipl.-Inform. Julia Mönks, Steute Schaltgeräte GmbH&Co.KG
Aus Sicht von steute ist die Interoperabilität von Medizingeräten ein zentraler Trend in der Medizintechnik, der sich in den kommenden Jahren durchsetzen wird. Im modernen OP steht der Operateur vor der Aufgabe, eine wachsende Anzahl von Medizingeräten unter anderem per Fußschalter zu steuern. Das erfordert Konzentration, zumal die Bedienfunktionen jeweils unterschiedlich angeordnet sind. Außerdem wird der Bediener kaum für jeden Schalter die ergonomisch optimale Position finden.
Durch die Vernetzung werden Bediensysteme im OP „interoperabel“. Voraussetzung dafür sind gemeinsame Kommunikationsstandards, an deren Erarbeitung sich steute beteiligt. Dadurch wird es bald möglich sein, mehrere Medizingeräte über ein einziges User Interface zu steuern. Ein Beispiel und auch die damit einhergehenden Herausforderungen werden in diesem Vortrag vorgestellt.
Referent/in: Prof. Dr. Harald Mathis, FIT Fraunhofer-Institut für Angewandte Informationstechnologie
Es wird ein Smart-Health-System präsentiert, das als Interface ein handelsübliches Smart-TV verwendet.
Alle Funktionen - Vitalparameter-Monitoring, Informationen, Bewegungsübungen etc. werden auf dem Fernseher in einem altersgerechten Design sichtbar.
Das System kann nicht nur für alte Menschen sondern für die ganze Familie als "Health-Interface genutzt werden."