Categories: BlogKI im Geschäft

Neue menschliche — KI-Interaktionen. Wie verändert künstliche Intelligenz die Art und Weise, wie wir Geräte bedienen? | KI im Geschäft #22

Wie funktionieren intelligente Benutzeroberflächen (IUIs) im Falle von KI-Interaktionen?

Intelligente Benutzeroberflächen (IUIs) sind Schnittstellen, die Techniken für KI-Interaktionen nutzen, um das menschliche Erlebnis mit Geräten zu verbessern. IUIs können beispielsweise die Sprache oder Gesten eines Benutzers erkennen, sich an Vorlieben anpassen, basierend auf der Analyse vergangener KI-Interaktionen, oder bei der Durchführung von Aufgaben helfen. Tatsächlich ist das Ziel, eine intuitive und natürliche Art der Kommunikation mit elektronischen Geräten zu schaffen, oder natürliche Benutzeroberfläche (NUI). Obwohl der Betrieb einer solchen Schnittstelle auch Lernen erfordert, wird es von Natur aus erleichtert, was das Gefühl vermittelt, dass alles natürlich geschieht und die Schnittstelle selbst unsichtbar ist.

Heute sind Touch-Oberflächen die am weitesten verbreiteten und Sprachschnittstellen die am weitesten entwickelten. Vielversprechende zukünftige Entwicklungen umfassen die Gestenerkennung in VR und AR, Smart Devices und Gehirn-Maschine-Schnittstellen.

Beispiele für IUI-Anwendungen betreffen intelligente Sprachassistenten wie Siri oder Alexa, die Fragen, die per Stimme gestellt werden, verstehen und Antworten geben oder Befehle ausführen. Weitere Beispiele sind IUIs, die Sensoren verwenden, um Körperbewegungen, Gesten oder Blicke zu verfolgen, um Geräte zu steuern. Sie verfügen über:

  • Natürliche Sprachverarbeitung (NLP) zum Verstehen und Erstellen von Sprache,
  • Bildverarbeitung (Computer Vision) zur Interpretation visueller Materialien,
  • Maschinelles Lernen (ML) zur Erkennung von Mustern und zur Vorhersage des Benutzerverhaltens.

Sie können maschinelles Lernen unter anderem anwenden, um Gehirnwellen zu interpretieren, die von intelligenten Kopfhörern erfasst werden. Diese Lösung wurde von Neurable entwickelt, um Kopfhörer für die Arbeit zu schaffen, die Momente der Konzentration erkennen und die präzise Bestimmung des optimalen Zeitpunkts und der Bedingungen ermöglichen, die die Konzentration fördern. Darüber hinaus schalten die Kopfhörer von Neurable während der Konzentration automatisch eingehende Anrufe stumm und ermöglichen es Ihnen, mit Ihren Gedanken zum nächsten Lied zu wechseln, das Sie hören.

Quelle: Neurable (https://neurable.com/headphones)

Geschäftsanwendungen von Touch-Oberflächen

Touch-Oberflächen sind aufgrund ihrer Vielseitigkeit äußerst beliebt. Deshalb hat sich das Geschäft schnell über den Bereich von Smartphones und Haushaltsgeräten hinaus bewegt. Sie sind zunehmend in Ticket- oder Snackautomaten, Schlössern und Flughafentoren verbreitet.

Tippen, Wischen, Ziehen, langes Drücken – das sind nur einige der Gesten, die unser digitales Erlebnis dominieren. Mit ihnen können wir sowohl auf einer auf dem Bildschirm angezeigten Tastatur tippen, Tasten drücken als auch durch die Bewegungen eines oder mehrerer Finger oder sogar der ganzen Hand navigieren.

Durch den Einsatz von KI sind Touch-Geräte standardmäßiger geworden und vervollständigen Bewegungen, die vom Gerät nicht korrekt erkannt werden. Sie kombinieren Daten von der Touch-Oberfläche mit Gesten, die von der Kamera erkannt werden, und verbessern die Fluidität des Benutzererlebnisses und steigern unmerklich das Vergnügen und die Sicherheit bei der Nutzung der Geräte.

Dreidimensionale Gesten, virtuelle Realität und erweiterte Realität mit KI-Interaktionen

Dank der Gestenerkennung bedienen wir zunehmend berührungslos in KI-Interaktionen mit Türen, Waschbecken oder Autodisplays. Auch im Automobilbereich wird die Anwendung immer verbreiteter. BMW hat beispielsweise kürzlich eine Gestensteuerungsfunktion mit einem berührungslosen Display eingeführt, um die Lautstärke des Autos, Anrufe und andere Funktionen zu steuern.

Es ist auch erwähnenswert, dass Software für die berührungslose Bedienung von Geräten an öffentlichen Orten verfügbar ist. Auf dem Markt finden Sie:

  • TouchFree – Programmierung, die es Unternehmen ermöglicht, bestehende Windows-basierte Kioske und Touchscreens auf berührungslose Gestensteuerung aufzurüsten,
  • Banuba – eine Lösung für die gestenbasierte Bedienung im Raum, wie das Auswählen eines Produkts durch Zeigen mit dem Finger oder das Hinzufügen zum Einkaufswagen mit einem Daumen-hoch-Gestus, was besonders in Geschäften mit Augmented-Reality-Technologien nützlich sein wird, in denen man beispielsweise virtuelle Kleidung anprobieren kann,
  • Quelle: Banuba (https://www.banuba.com/solutions/touchless-user-interface)

Tatsächlich spielen KI-Interaktionen eine Schlüsselrolle bei der Gestensteuerung in virtueller Realität (VR) und erweiterter Realität (AR). KI-Funktionen erkennen hier die Körperposition und interpretieren Bewegungen und Gesten der Benutzer, sodass sie auf natürliche Weise mit virtuellen Objekten und Umgebungen mit ihren Händen oder Controllern interagieren können. Ein Beispiel ist die Oculus Quest 2, VR-Brille, die mit Kameras ausgestattet ist, die Handbewegungen verfolgen, um intuitiv Objekte in der virtuellen Welt zu steuern. VR- und AR-Funktionen im Geschäft für:

  • Schulungen und Simulationen, bei denen die Gestensteuerung eine natürlichere und intuitivere KI-Interaktion ermöglicht,
  • Manipulation von 3D-Modellen während Design- und Ingenieurarbeiten, auch in einem Team, das sich nicht an einem einzigen physischen Ort befindet,
  • Einkaufen und E-Commerce-Präsentationen – Unternehmen nutzen AR, um interaktive Einkaufserlebnisse zu schaffen, bei denen Kunden Gesten verwenden können, um Produkte und Informationen zu durchsuchen.

Eines der neuesten Beispiele für die Anwendung von KI-Interaktionen zur Gestensteuerung in VR und AR ist das Apple Vision Pro. Es handelt sich um ein räumliches Computergerät, das über keinen Hardware-Steuermechanismus verfügt. Stattdessen verlässt sich das Vision Pro auf Augenverfolgung und Handgesten, um es den Benutzern zu ermöglichen, Objekte im virtuellen Raum vor ihnen zu manipulieren.

Quelle: Apple (https://www.apple.com/newsroom/2023/06/introducing-apple-vision-pro/)

Apple Vision Pro bietet Gesten wie Tippen, Doppeltippen, Kneifen und Ziehen sowie beidhändige Gesten wie Zoomen und Drehen. Diese Gesten gelten für verschiedene Aktionen, wie das Auswählen und Manipulieren von Objekten, Scrollen, Fenster bewegen und deren Größe anpassen.

Sprachsteuerungsgeräte und -software – wie nutzt man sie in Ihrem Unternehmen?

Die wachsende Rolle der künstlichen Intelligenz bedeutet, dass immer mehr Geräte und Anwendungen auch Sprachbenutzeroberflächen (VUI) verwenden. Sie verfügen über Technologien, die Sprache in Text (STT) und Text in Sprache (TTS) umwandeln.

Sprachsteuerung wird bereits sehr weitreichend im Geschäft eingesetzt für:

  • Kundenservice – der Kunde kann mit intelligenten Produkt- und Marketing-Voicebots sprechen, wie Inteliwise (Efecte),
  • Erstellen von Dokumenten – zum Beispiel mit Google Docs Voice Typing, das es Benutzern ermöglicht, Text direkt in ein Dokument zu diktieren,
  • Durchführung internationaler Meetings – die Sprachschnittstelle ermöglicht es, die eigene Sprache in Echtzeit mit einem automatischen Übersetzer zu übersetzen, indem Google Translate während Google Meet-Gesprächen verwendet wird oder ein spezielles Tool wie Verbum.ai.

Quelle: Verbum.ai (https://verbum.ai/).

Viele Menschen nutzen auch die Sprachsteuerung der Software des Autos, um beispielsweise ein Navigationsziel festzulegen und um intelligente Geräte zur Steuerung der Büroleuchten zu bedienen.

Die Zukunft der KI-Interaktionen oder Gehirn-Maschine-Schnittstelle

Der ideale Weg zu KI-Interaktionen mit Geräten wäre natürlich, das heißt, für den Benutzer völlig unsichtbar. Und das ist keine reine Fantasie. Es gibt bereits Prototypen von Gehirn-Maschine-Schnittstellen, die mit unvorstellbaren Geschwindigkeiten arbeiten, die der elektronischen Telepathie ähneln.

Die fortschrittlichsten Arbeiten an der Gehirn-Computer-Schnittstelle, oder Brain-Computer-Interface (BCI), werden von Neuralink durchgeführt. Dies ist ein Unternehmen, das eine Schnittstelle namens “The Link” entwickelt, die sich bereits in klinischen Tests befindet.

Quelle: Neuralink (https://neuralink.com/)

The Link ist ein münzgroßer Chip, der chirurgisch unter dem Schädel implantiert wird, wo er mit dünnen Drähten verbunden ist, die neuronale Fäden genannt werden und zu verschiedenen Teilen des Gehirns führen.

Neuronale Fäden enthalten Elektroden, die die Gehirnaktivität aufzeichnen und stimulieren können, sodass neuronale Signale decodiert und kodiert werden und Informationen zu und von einem Computer oder mobilen Gerät gesendet werden.

The Link wird von einem neurochirurgischen Roboter implantiert und ermöglicht dann die Steuerung einer App, die es dem Benutzer ermöglicht, eine Tastatur und eine Maus mit seinen Gedanken zu manipulieren.

Solche zukunftsweisenden Lösungen wecken jedoch ebenso viele Hoffnungen wie Bedenken. Einerseits wird man einfach denken können: “Ich möchte einen Beitrag in sozialen Medien über eine Unternehmensveranstaltung mit einem Porträtfoto des CEO, das während der Eröffnung des Treffens aufgenommen wurde, posten.” Andererseits – wie stellen wir sicher, dass die Verbindung nicht unsere privaten Gedanken abhört?

Wenn Ihnen unsere Inhalte gefallen, treten Sie unserer aktiven Community auf Facebook, Twitter, LinkedIn, Instagram, YouTube, Pinterest.

Robert Whitney

JavaScript-Experte und Dozent, der IT-Abteilungen schult. Sein Hauptziel ist es, die Produktivität des Teams zu steigern, indem er anderen beibringt, wie man effektiv beim Programmieren zusammenarbeitet.

View all posts →

Robert Whitney

JavaScript-Experte und Dozent, der IT-Abteilungen schult. Sein Hauptziel ist es, die Produktivität des Teams zu steigern, indem er anderen beibringt, wie man effektiv beim Programmieren zusammenarbeitet.

Share
Published by
Robert Whitney

Recent Posts

Die Rolle von KI in der Inhaltsmoderation | KI im Geschäft #129

Unternehmen haben Schwierigkeiten, eine große Menge an Inhalten zu verwalten, die online veröffentlicht werden, von…

4 days ago

Sentiment-Analyse mit KI. Wie hilft sie, Veränderungen im Geschäft voranzutreiben? | KI im Geschäft #128

In der Ära der digitalen Transformation haben Unternehmen Zugang zu einer beispiellosen Menge an Daten…

4 days ago

Beste KI-Transkriptionstools. Wie verwandelt man lange Aufnahmen in prägnante Zusammenfassungen? | KI im Geschäft #127

Wussten Sie, dass Sie die Essenz einer mehrstündigen Aufnahme aus einem Meeting oder einem Gespräch…

4 days ago

KI-Videoerstellung. Neue Horizonte in der Videoinhaltsproduktion für Unternehmen | KI im Geschäft #126

Stellen Sie sich eine Welt vor, in der Ihr Unternehmen ansprechende, personalisierte Videos für jeden…

4 days ago

LLMOps, oder wie man Sprachmodelle effektiv in einer Organisation verwaltet | KI im Geschäft #125

Um das Potenzial von großen Sprachmodellen (LLMs) vollständig auszuschöpfen, müssen Unternehmen einen effektiven Ansatz zur…

4 days ago

Automatisierung oder Augmentierung? Zwei Ansätze zur KI in einem Unternehmen | KI im Geschäft #124

Im Jahr 2018 hatte Unilever bereits eine bewusste Reise begonnen, um Automatisierungs- und Erweiterungsfähigkeiten in…

4 days ago