Wir stellen uns einmal vor wir hätten heute Abend um 20 Uhr ein Geschäftsessen. Es ist 19 Uhr und der Weg dorthin dauert ca. 30 Minuten, genug Zeit also, normalerweise. Durch einen Unfall vor ein paar Minuten auf der A100 hat sich allerdings bereits ein Stau gebildet, welcher die Anfahrtszeit um mehr als 45 Minuten verzögern wird. Der Digitale Assistent meldet sich unaufgefordert und gibt mir diese
Informationen über den gekoppelten Lautsprecher, dass ich unverzüglich aufbrechen sollte, um nicht all zu spät anzukommen. Ich akzeptiere mit einem kurzen „O.K.“ und sofort schickt eben dieser an alle Teilnehmer eine vorgefertigte Benachrichtigung aus, dass ich mich um ca. 15 Minuten verspäten würde.
Dies ist nur ein Beispiel, wie sich kontextübergreifend Daten zielgerichtet für einen Nutzer aufbereiten und nutzbringend eingesetzt werden können. Besitzen wir aktuell zahlreiche Apps in unseren Smartphones, welche für sich genommen eine Funktion gut beherrscht, sind diese meist blind für die Funktionen der anderen Apps, wenn man sie denn aus den unübersichtlichen App-Stores überhaupt kennt und bereits auf dem entsprechenden Gerät installiert hat. Diesen Wust an separierten Funktionen wollen uns die großen Konzerne als Ganzes mittels sogenannter Digitaler Assistenten, auf Basis unserer natürlichen Sprache anbieten und somit das Zeitalter der Apps ablösen.
Der Assistent verliest die Wettervorhersage auf Zuruf, übersetzt Sätze, stellt den Wecker, rezitiert gezielt Wikipedia-Einträge, erinnert uns an Geburtstage, reserviert im Restaurant einen Tisch oder kann unsere Lieblingsmusik von verknüpften Musikdiensten wie Spotify und TuneIn nach Stimmungslage (Pulsmesser gekoppelt) abspielen. Auch die Steuerung des Smart-Home ist beliebig ausweitbar. Der Assistent kann somit nicht nur Informationen bereitstellen, sondern auch als lästig empfundene Aktionen selbständig ausführen.
Hierbei ist bereits das Who-Is-Who der Tech-Branche vertreten, welche an diesen Assistenten eifrig arbeiten. Bereits bekannte Vertreter wie „Siri“ von Apple gesellen sich mittlerweile auch hinzu: „Echo“ (Amazon), dessen Lunch mit dem heutigen Tag in Deutschland ansteht; Cortana (Microsoft), „Google Now“; „Facebook M“; „Viv“ (Samsung) oder „Samantha“ aus dem Film „Her“, welches als künstliche Intelligenz, mit der Stimme von Scarlett Johansson (s. Bild) sogar eine intime Beziehung zum Hauptdarsteller aufbaut.
Die technische Basis bilden hierbei riesige Mengen an Datensätze und genug Rechenleistung aus der Cloud um zig-fache Faktoren so zu wählen, dass der Assistent aus den Daten die richtige Ausgabe erzeugt. Man könnte statt K.I. (Künstlicher Intelligenz) auch einfach R.S. (Raffinierte Statistiken) sagen.
Diese Datensätze besitzen die meisten Konzerne bereits und ins besonders Amazon hat durch unsere Kaufentscheidungen und Vorlieben eine nicht unbedeutende Wissenssammlung von uns anreichern können. Amazons „Echo“ kann für uns Einkaufslisten erstellen und gleichzeitig auf besondere Angebote hinweisen, welche unseren Interessen noch viel weiter treffen als es ohnehin schon der Fall ist.
Es gibt jedoch auch hier wiederum ein altbekanntes Problem, wenn gleich hier weit stärker ausgeprägt. Zwar zeichnen diese Systeme nur nach einem Signalwort (bei Echo ist es „Alexa“) die Sprachbefehle auf, allerdings landen diese Datensätze immer konzentrierter bei einem Anbieter. Dies hat auch durchaus seinen Nutzen, denn je mehr Informationen sie über einen Nutzer angesammelt haben, desto besser und genauer funktionieren sie auch. Ob man jedoch wirklich will, dass eine Maschine und somit der dahinter stehende Konzern bald so viel persönliche Informationen erhält und in Verbindung zueinander setzen kann wie bei den Digitalen Assistenten, darf sich letztlich jeder selber beantworten.
0 Kommentare