Was muss ein Roboter haben, damit der Mensch bereit ist, ihn als sozialen Partner zu akzeptieren? Braucht er ein Gesicht, oder muss die Maschine Gefühle verstehen oder gar zeigen können? Die Psychologin, Hirnforscherin und Philosophin Agnieszka Wykowska, die am ‘Italienischen Institut für Technologie’ in Genua forscht, meint: "Wir tendieren dazu, alles zu vermenschlichen. Wir sehen sogar Gesichter in Autofronten. Das wird noch verstärkt, wenn ein Roboter menschenähnliches Verhalten zeigt." In einem Altenheim in Rendsburg zeigt der Film, welche Beziehung Pflegebedürftige zu Robotern aufbauen. Hannes Eilers von der Fachhochschule Kiel testet dort den Robotereinsatz im Auftrag von Krankenkassen. Die Roboter singen mit den betagten Menschen, spielen Spiele mit ihnen oder demonstrieren Physioübungen - nur beten dürfen sie nicht mit ihnen. Die Systeme dort funktionieren autonom. Das bedeutet, sie können nicht auf einen KI-Server im Hintergrund zugreifen, sind damit aber datenschutzrechtlich unbedenklich. KI-Server im Hintergrund steuern aber schon sehr viel von unserer Kommunikation. Sie machen nicht nur Vorschläge, was wir als Nächstes lesen, essen oder kaufen sollten: Es gibt auch ‘Chatbots’, die als persönliche Ansprechpartner dienen. Der Wissenschaftler Hossein Rahnama perfektioniert am Massachusetts Institute of Technology (MIT) in Boston das Aussehen und die Kommunikation mit solchen Chatbots. Er glaubt: "Wir können mittlerweile auf solche Rechenleistungen und Datenmengen zugreifen, dass wir eine digitale Version jeder Person erschaffen und sie bald sogar empfindungsfähig werden lassen können." Werden wir in Zukunft unterscheiden können, ob wir einen Menschen aus Fleisch und Blut sehen oder seinen digitalen Klon?