Computer, die Emotionen lesen können.
Die emotionale Dimension bei komplexen kognitiven Aufgaben ist unbestritten. Forscher glauben, dass Computer, die Emotionen lesen können, den Menschen tatsächlich effektiver unterstützen können.
Im MBA Data-Driven Business Development lernen wir unseren Teilnehmern, bewusst und kompetent Trends zu erkennen.
Ein zentrales Thema in der Digitalisierung sind Softwaresysteme, die Unternehmen helfen, ihre Leistungen noch besser zu erbringen.
Es gibt eine Reihe von Unternehmen, die an der Entwicklung künstlicher Systeme arbeiten, die menschliche Emotionen erkennen können. Doch warum ist es sinnvoll, dass Maschinen menschliche Emotionen erkennen können?
Unsere Kommunikationsgewohnheiten sind nicht mehr dieselben wie in der jüngeren Vergangenheit. Auch wenn wir bei persönlichen Gesprächen mit Missverständnissen und Unsicherheiten konfrontiert sind, ist die Fehlerwahrscheinlichkeit höher, da unsere Kommunikation in Online-Umgebungen gefiltert wird.
Angesichts neuer Trends und Konzepte wie Virtual-Reality-Technologien und Metaverse gehen weder Wissenschaftler noch Unternehmer davon aus, dass wir in Zukunft weniger online kommunizieren werden. Sie suchen daher nach Möglichkeiten, die Interaktion zwischen Mensch und Computer effizienter zu gestalten. Die heutige Technologie hat viel IQ, aber keinen EQ, viel kognitive Intelligenz, aber keine emotionale Intelligenz. Außerdem haben wir kein Instrument, mit dem wir unsere Gefühle ausdrücken können, wenn wir mit anderen Menschen aus der Ferne kommunizieren.
Der Ausgangspunkt für eine solche Analyse ist das Gesicht. Ein Algorithmus erkennt das Gesicht einer Person und verfolgt die wichtigsten Merkmale wie Augenbrauen, Nase, Augen und Mund. Bei Vorhandensein vieler verschiedener Aktionseinheiten (einzelne Komponenten der Muskelbewegung, die zusammen einen Gesichtsausdruck ergeben, Anm.) entspricht jeder ihrer Messwerte einem Emotionsdatenpunkt.
Diese Punkte zusammen stellen dann verschiedene Emotionen dar. Zum Beispiel sind hochgezogene Augenbrauen ein Indikator für Überraschung, eine Stirnfalte für Verwirrung und eine gerümpfte Nase für Abscheu. Die Software, die in Echtzeit läuft, verwendet eine Deep-Learning-Architektur und einen riesigen Datensatz von 7,5 Millionen Gesichtern aus 87 Ländern.
Das zentrale forschende Unternehmen Affectiva erklärt, dass die Ergebnisse auf dem Markt für Fahrerüberwachungssysteme und Innenraumsensoren mit fortschrittlicher künstlicher Intelligenz eingesetzt werden können. Es ist damit in den Bereichen Medienanalytik und Mobilität (vor allem Verkehrssicherheit) tätig.
Die Technologien des „Affektiven Computings“ (oder Emotions-KI) werden bereits in zahlreichen Bereichen eingesetzt. Führungskräfte sind zunehmend dabei, über die Veränderungen nachzudenken, die solche Technologien für ihre Branchen und Unternehmen bringen könnten. Trends zu erkennen, lernst Du bei uns.
Mehr dazu gibt es in unseren MBA`s Data Driven Business Development und Business Administration & Sport: