Viele TV-Präsentationen haben eine Szene, in der ein Käufer versucht, ein wahrscheinlich peinliches Produkt zu kaufen – höchstwahrscheinlich ein pornografisches Magazin oder ein Durchfallmittel – am praktischsten, um den Assistenten die Kosten laut testen zu lassen oder Fragen zu stellen, die die Leute hören können.

Solche Eventualitäten treten in Apotheken und verschiedenen Einzelhandelsgeschäften auf. Und sie neigen dazu, die Leute dazu zu bringen, sich zu winden. Was aber, wenn sie sich mit einem Roboter als Ersatz für einen menschlichen Arbeiter beschäftigen können? In unserer neuen Analyse entdeckten meine Kollegen und ich den Einsatz von Robotern, moderater als Leute, da Assistenten die Emotionen der Verlegenheit der Leute reduzieren könnten. In einem einzigen Experiment baten wir 170 Personen, zu berücksichtigen, dass sie in einem klinischen Krankenhaus waren, um ein Gespräch mit einem Hämorrhoidennachteil zu buchen. Ein Teil von ihnen stellte sich vor, mit einer menschlichen Empfangsdame zu plaudern und ein Teil mit einer Roboter-Rezeptionistin. Wir haben das Stadium der Verlegenheit der Leute in diesem Szenario gemessen und festgestellt, dass es den Leuten viel weniger peinlich war, sobald sie einem Roboter mäßig Details über ihre klinische Situation mitteilen mussten als einem menschlichen Rezeptionisten.

Die Leute neigen im Allgemeinen dazu, sich wirklich peinlich zu fühlen, nachdem wir aufgeregt sind von dem, was die Leute annehmen oder wirklich über uns fühlen könnten. Eine andere Analyse in der Client-Verhaltensbox hat bewiesen, dass die bloße Anwesenheit anderer, selbst wenn sie am besten vorgestellt wird, ausreicht, um Verlegenheit hervorzurufen.

Unsere Analyse ergab, dass sich die Leute nicht wirklich für Roboter schämen, weil sie sich nicht vorstellen, dass Roboter Urteileformen oder Gefühle zeigen können. In unserem 2. Experiment haben wir Einzelpersonen gebeten, in Betracht zu ziehen, dass sie in einer Apotheke waren, um ein Antimykotikum zu sammeln. Wie in den früheren herausgefunden, zerstückelten wir die Teams, also zum Teil stellten wir uns vor, mit einem menschlichen Apotheker zu sprechen, und den anderen Teil mit einem Roboter. Wir haben dann nicht am handlichsten gemessen, wie peinlich sie gewesen waren, sondern auch, wie sehr sie sich vorstellen, dass der Roboter besondere psychologische Talente hatte, die an Gefühle und Urteile erinnerten. Die Individuen hatten das Gefühl, dass, da Robotern einer von ihnen fehlt, sie nicht in der Lage wären, Kritiken aufzuhängen.

Frische Variationen von humanoiden Robotern, die an Sophia erinnern, sind in der Lage, eine Vielzahl von menschlichen Ausdrücken nachzuahmen, und wir vermenschlichen sie sogar, indem wir ihnen Namen geben. Trotzdem entdeckte unsere Analysebelegschaft, dass Individuen das Gefühl hatten, dass Roboter kein Urteil über ihr Verhalten abgeben.

Nehmen Sie Curly, einen Roboter, der entwickelt wurde, um Curling zu spielen, eine Nachbildung des Ortes, an dem Spieler Steine auf einer Eisplatte in Richtung eines Torhauses schieben. Als Curly im letzten Jahr die menschliche Elite des Curlings erhielt, gewann es nicht im Tor. Es führte einfach den Sport aus, für den es programmiert war, losgelöst davon, ob es es einmal höher oder schlechter genoss als jemand anderes.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein