www.eco.de
+49 221 700048-0
info@servicemeister.org

Tippen & Wischen ade, Natural Language juchhe?

Tippen & Wischen ade, Natural Language juchhe?

„Deep Dive“ Experten-Roundtable
Speech Technologies: Mit Machine Learning und Cognitive Computing zum UI der Zukunft

Komplexe neue Welt – die Funktionen vieler Geräte und Systeme werden komplexer und die User Interfaces (UI‘s) damit häufig unübersichtlich und schwer bedienbar. Tastaturen oder graphische Benutzeroberflächen werden dabei immer mehr durch Sprachein- und Ausgabe ergänzt. Spätestens mit der Einführung der Smart Speaker ist die Bedienung via Sprache im Alltag angekommen. Beispiele finden sich im Smart Home, bei Smart TV‘s, oder bei der Bedienung des Boardcomputers im Auto. Die maschinelle Verarbeitung gesprochener und geschriebener Sprache – auch als Natural Language Processing (NLP) bezeichnet – wird aber auch in Business-Anwendungen immer häufiger eingesetzt.

Im Vordergrund der Entwicklung steht seit einigen Jahren die Sprachein- und -ausgabe per Assistent*in, per Bots o.ä. Der eine hält das für eine weitere Bedienungsmöglichkeit unter vielen, der andere sieht darin einen gesellschaftlichen Umbruch. Wenn heutige Sprach-Assistentinnen betrachtet werden, wird man eher der ersteren Position zuneigen – typischerweise dominieren einfache Anwendungen wie ein-eindeutige Befehle an Maschinen und Anlagen, Aufrufe singulärer Infos wie Kontakte, Navigieren, Fragen an Suchmaschinen, Terminerinnerung, Wetter- und Stauvorhersage oder das abrufen von Musik und Videos. Dies funktioniert vor allem bei geordneten Datensätzen und vordefinierten Sprachbefehlen. Mit Hilfe von Sprach-Technologie werden z.B. im Medizin-sektor Arztberichte erstellt oder im Finanzsektor automatisierte Reportings erstellt .

Da die natürliche Sprache jedoch nicht immer logischen Mustern folgt, sehr komplex ist und Emotionen beinhaltet, bedarf es Machine Learning und Cognitive Computing um die komplexen Zusammenhänge zu verarbeiten. Doch was genau ist bereits möglich und wo liegen die Grenzen?

Hindernisse liegen nach wie vor bei den sehr unterschiedlichen Sprechgewohnheiten, bei Mehrdeutigkeiten oder bei Ironie. Wenn sich allerdings das Verständnis der Assistentinnen weiter so schnell entwickelt wie zuletzt, kommen ungeahnte Visionen zum Zuge, etwa von der Assistentin als ständige Begleiterin in allen Berufs- und Lebenslagen, mit Informations- genauso wie Entertainment- oder Transaktions-Diensten. Allerdings muss in einem solchen Szenario auch konzediert werden, dass der oder die Assistent*in dann alles, oder fast alles über den Nutzer und sein Umfeld weiß, mit allen Folgen für Datenschutz, Vertraulichkeit oder ständige Überwachung.

Im Experten-Roundtable am 30.6.2021 wollen wir wesentliche Aspekte diskutieren, u.a. die Nutzerfreundlichkeit, die bessere Nutzung von Big Data oder die Rolle von KI hinter der Sprachein- und –ausgabe.


AGENDA

Moderation: Ekkehart Gerlach, Geschäftsführer, deutsche ict + medienakademie, Köln

12:00 Begrüßung

12:20  Einführung

  • Dr. Christoph Andreas Schmidt, Geschäftsfeldleiter Speech Technologies, Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS, Sankt Augustin

12:45 Technologische Eckpunkte – Impuls-Statements + Diskussion

  • Sprach-Technologie: Mehr als Worte aus der Sprache?
    Jun.-Prof. Dr.-Ing. Ingo Siegert, Fachgebiet Mobile Dialogsysteme, Institut für Informations- und Kommunikationstechnik (IIKT), Otto-von-Guericke-Universität Magdeburg
  • Watson spricht
    Rainer Größer, Associate Partner -AI Practice, IBM Deutschland GmbH. Frankfurt
  • Conversational Automation
    Sascha Poggemann, Founder & CEO, Cognigy GmbH, Düsseldorf

14:15 Pause

14:45  Rahmenbedingungen – Impuls-Statements + Diskussion

  • Verträge – Haften die Online-Assistenten?
    Dr. Philip Kempermann, LL.M., Partner, Heuking Kühn Lüer Wojtek, Düsseldorf (tbc.)
  • Sicherheit – Noch mehr Deep Fakes?
    Matteo Große-Kampmann, Geschäftsführer, AWARE7 GmbH, Gelsenkirchen
  • Psychologie – Kreativität und Empathie bei Maschinen?
    Prof. Dr. Heiko Hecht, Leiter Allgemeine Experimentelle Psychologie, Universität Mainz

16:15 Pause

16:30 Use Cases – Impuls-Statements + Diskussion

  • Voice Search, Skill Crawling und andere Use cases
    Maik Metzen, Geschäftsführer, Beyto GmbH, Berlin
  • Egal, ob Tippen oder Sprache – Chatbots für Servicetechniker
    Hans-Peter Zorn, Head of Artificial Intelligence, inovex GmbH
  • Sprachgeführte Assistenzsysteme für die Logistik
    Tim Just, CEO, topsystem GmbH, Aachen

18:00 Ende