PC & Handy

Hey Siri, du bist dumm

Siri, befolgst du die drei Gesetze der Robotik? Wie viele andere dumme Fragen hat es jemand bei Apple mühsam vorweggenommen. „Die ersten drei vergesse ich“, zirpt die Antwort, „aber da ist noch eine vierte: ‚Eine smarte Maschine soll sich erst überlegen, was sich mehr lohnt: die Aufgabe zu erledigen oder stattdessen einen Ausweg zu finden.' ”

Haha! Stellen Sie sich das Treffen vor, bei dem sie das geschrieben haben! Das Problem ist, es ist nicht wirklich ein Witz, oder? Das ist ihre eigentliche Entwicklungsaufgabe.

Siri kann viele einfache Dinge tun, wie Summen, die Wettervorhersage überprüfen und E-Mails senden. Fordern Sie etwas Härteres und es pariert entweder "Ich bin nicht sicher, ob ich es verstehe" oder führt einfach eine Websuche nach dem durch, was Sie gesagt haben. Nun, hoppla. Singularität ahoi.

Siehe verwandte Zehn Dinge, die Apple getötet hat, und warum es richtig war Apple iPhone 6s-Test: Ein solides Telefon, auch Jahre nach seiner Veröffentlichung

Der Aufstieg von Do-It-All-Bots – darunter Amazons Alexa, Googles kommender Assistant und sogar ein Rivale von Siris ursprünglichem Entwickler namens Viv – wirft ein unangenehmes Rampenlicht auf den körperlosen Concierge von iOS. Wenn es, wie gemunkelt, als Tentpole-Feature von OS X 10.12 Sensemilla* angekündigt wird, können wir nur hoffen, dass ein Quantensprung in Sachen Intelligenz in der Pipeline ist. Weil es vielleicht einige Witzeleien hat, aber Siri hat es nicht geschafft, weise zu sein.

Eine Richtung

"Aber es funktioniert. Meist. Wenn Sie wie ein BBC-Ansager sprechen.“

Es ist großartig, dass es eine Technologie gibt, um Sprache in Text umzuwandeln. Nicht so toll, dass die Technologie anscheinend nicht in Ihr Telefon passt, also muss es in North Carolina sitzen und Ihr Datenvolumen aufbrauchen. Aber es funktioniert. Meist. Wenn Sie wie ein BBC-Ansager sprechen.

Dann kann dieser Text nach Schlüsselwörtern durchsucht werden, um sie in eine der Informationsquellen von Siri einzubinden, darunter Apple Maps, Wolfram Alpha, Wikipedia und Microsoft Bing. (Glücklicherweise können Sie Bing in Einstellungen | Safari | Suchmaschine gegen eine echte Suchmaschine austauschen. Allerdings nicht, indem Sie Siri fragen. Das wäre zu einfach.)

Aber die Art und Weise, wie Siri diese Quellen verwendet, ist alles andere als clever. Wenn ich Maps öffne und „Whickham“ in das Suchfeld eintippe, findet es korrekt eine Liste mit Orten in Whickham, einer kleinen Stadt in der Nähe meines Wohnortes. Darunter ist der generische Eintrag für Whickham selbst, der auf der Apple-Karte direkt neben dem Wort "Whickham" markiert ist. Der Schriftsatz ist übrigens schön.

Ich sollte den Schriftsatz beim Autofahren nicht wirklich bewundern, also sage ich stattdessen: „Hey Siri, navigiere nach Whickham.“ Blitzschnell findet Siri High Wycombe, Buckinghamshire. Das ist das andere Ende Englands. Es fragt mich nicht, ob dies der Wycombe ist, den ich meinte; es beginnt einfach, eine Route zu zeichnen.

(Das ist nicht so dumm wie es nur geht. Wenn ich nach dem Weg nach ‚Washington‘ frage, einer anderen Stadt in Tyne and Wear, bietet sie mir Olympia, WA, 4.600 Meilen entfernt. Es ist nicht einmal das wahrscheinlich falsche Washington.)

„Nein, Siri, Whickham, W-H-I-C-K-H-A-M.“

Nun gibt es einen ganz offensichtlichen Weg, diese Verwirrung zu lösen: Sie würden das Wort ausbuchstabieren. Also versuche ich: „Nein, Siri, Whickham, W-H-I-C-K-H-A-M.“ Es hört dies sehr gut und gibt sofort bekannt, dass es keine passenden Orte finden kann. Wohlgemerkt sofort – kein Weggehen, um Quellen zu überprüfen. Nur nein. Denken Sie daran, Whickham ist genau dort in Apple Maps, der gleichen Engine, die es verwendet, um mir High Wycombe zu zeigen.

Die einzige Möglichkeit, nach Whickham zu gelangen, besteht darin, mir einen Straßennamen dort (Front Street) zu merken und danach zu fragen, und dann über eine andere Möglichkeit nachzudenken, danach zu fragen, nachdem Siri mir die falsche Front Street zeigt und wiederum keine Alternativen bietet. Um die Verletzung noch schlimmer zu machen, wurde die Front Street ausgewählt, die meinem aktuellen Standort am nächsten liegt. Offensichtlich.

Entschuldigung, ich folge nicht

Andere Arten von Abfragen werden mit ähnlicher Dummheit behandelt. „Siri, was ist der Unterschied zwischen Deutschlands BIP und Italiens?“ Kein Problem – es geht und bekommt die richtige Antwort von Wolfram Alpha. Dann versuche ich es mit einer Anschlussfrage. Früher war Siri bei Folgefragen blöd, aber nachdem die Google Voice Search herauskam, gab sie ihre Ideen wieder auf und meisterte sie. Sie können jetzt fragen: "Wie wird das Wetter am Montag?" und füge hinzu "Wie wäre es mit Dienstag?" und es ist gut. Oder wolkig, je nachdem.

Also folge ich: „Wie wäre es mit Frankreich?“ Es verwechselt „Frankreich“ als „Freunde“. Von all den Worten, die ich hätte sagen können, trägt die Tatsache, dass ich gerade zwei andere europäische Staaten genannt habe, anscheinend kein Gewicht auf die Möglichkeit, dass ich „Frankreich“ meinte. Weltführende interaktive KI, Leute.

Ich habe einen 88-jährigen Verwandten, der sehr gehörlos ist. Wenn Sie etwas wiederholen, was sie falsch verstanden hat, errät sie ein anderes Wort. Sie mag sich immer noch irren, aber sie errät das gleiche Wort nicht noch einmal, denn warum hättest du es wiederholt? Ich wiederhole: „Wie wäre es mit Frankreich?“ drei Mal. Dreimal antwortet Siri "Wie wäre es mit Freunden?" „Interessante Frage, Adam“, antwortet sie strahlend.

Irgendwann finde ich heraus, dass ich „Frankreich“ mit einem noblen Akzent sagen muss (ich bin im Norden, also reimt sich „Frankreich“ auf „Hose“). Siri kommt mit der Telefonnummer von Elizabeth France CBE zurück, die sich in meinen Kontakten befindet, als sie noch Datenschutzbeauftragte war. Denn offensichtlich meinte ich eine zufällige Person, in deren Büro ich zuletzt vor 14 Jahren angerufen habe, nicht das Land. (Das Land, das an die beiden anderen Länder angrenzt, die ich gerade erwähnt habe.) Und ich bezeichne Leute oft nur mit ihrem Nachnamen. Das ist total ein Ding. „Siri, was ist mit Carruthers?“

Müll in

Die Art von Logik, die hier fehlt, sollte nicht schwer sein. Es ist in mancher Hinsicht schon da. Du kannst sagen – aus heiterem Himmel, à propos de rien – „Hey Siri, Ivy ist meine Schwester.“ Nachdem Sie überprüft haben, welche Ivy Sie meinen, fragt Siri, wenn Sie mehr als eine in Ihren Kontakten haben: "OK, soll ich mich daran erinnern, dass Ivy Ihre Schwester ist?" Sagen Sie „Ja“ und in Zukunft können Sie „Meine Schwester anrufen“ sagen, um diesen Kontakt anzurufen.

Familienbeziehungen haben Standard-Interdependenzen, so dass Sie natürlich weitermachen können "Oliver ist Ivys Sohn" und anschließend "Siri, SMS an meinen Neffen" sagen, um eine Nachricht an diesen Kontakt zu senden. Es ist keine Raketenwissenschaft, aber es ist eine nette… Moment mal. Nein. Siri führt eine Websuche nach „Oliver is Ivy’s son“ durch. So weit kann es gar nicht kommen.

"Das Ärgerlichste an Siri ist, dass es für ein System, das darauf ausgelegt ist, zuzuhören, ein so schlechter Zuhörer ist."

Am ärgerlichsten an Siri ist, dass es für ein System, das zum Zuhören entwickelt wurde, ein so schlechter Zuhörer ist. Und das ist mehr als nur ein Bug. Die ungerechtfertigte Sorglosigkeit, die schlichte Weigerung, über die eigene Ignoranz nachzudenken, sind unweigerlich symptomatisch für die Hybris des Silicon Valley.

Die menschliche Sprache und die Absichten dahinter zu verstehen, ist selbst für den Menschen eine enorme Herausforderung. Als Redner stolpern wir über unsere Worte; als Zuhörer interpretieren wir sie falsch. In den meisten Gesprächen wird sanft um Klärung oder das Auflösen von Mehrdeutigkeiten gebeten.

Doch Siri wird nichts davon haben. Bei all seiner Konversation durchsucht es nur unsere Eingabe nach den gleichen gebellten Befehlen, die wir in einem Menü finden könnten. Entweder weiß es, was wir wollen, oder es „versteht nicht“, eine passiv-aggressive Art, „Ungültige Eingabe“ zu sagen. Dazwischen gibt es nichts.

„Das ist so Bay Area“, sagen die Leute jetzt, wenn ein überprivilegierter Tech-Mogul mit einer stark vereinfachten Lösung für das falsche Problem in ein komplexes menschliches Problem gerät. Wir könnten genauso gut sagen: "Das ist so Siri."

*Beweise dann, dass wir falsch liegen

LESEN SIE WEITER: Die zehn Dinge, die Apple getötet hat – und warum es richtig war