Panasonic Educational Partner: Die Apokalypse ist in etwa so gross wie ein Fussball

Wir werden alle sterben. Roboter werden kommen und uns den garaus machen. Die jüngste Bedrohung heisst Panasonic Educational Partner und ist ein faszinierender Prototyp, der viel kann und will, aber wirklich unheimlich ist.
An der IFA in Berlin werden nicht nur Neuheiten vorgestellt, die bald in den Handel kommen. Da und dort wird Technologie gezeigt, die es noch gar nicht gibt. Oder noch eine Weile lang nicht geben wird. Einer dieser Prototypen ist der Panasonic Educational Partner, der nicht nur die technologische Messlatte hoch setzt, sondern auch den Gruselfaktor in ungeahnte Höhen dreht.
Doch bevor ich die Roboterapokalypse hinaufbeschwöre und laut proklamiere, dass wir alle dem Tode geweiht sind, eine Erklärung des Educational Partners. Und ich werde auch mal schnell drauf eingehen, warum die Roboter uns hoffentlich nicht alle umbringen werden.
Die Zukunft in Fussballform
Der Panasonic Educational Partner ist klein, kompakt und farblich neutral gehalten. Er ist eine Kugel, die etwa so gross wie ein Fussball ist. Die Kugel besteht aus drei Elementen.

In den seitlichen Partitionen sind Sensoren wie Kameras, Mikrofone und Umgebungsmesser verbaut. Der Mittlere Teil ist milchig glasig und dient dem Roboterkopf als Fortbewegungsmittel wie auch als Displayfläche für das Gesicht. Denn damit der Educational Partner etwas menschlicher, aber nicht zu menschlich wirkt, hat er ein Emoji-ähnliches Gesicht, das so Bitzli animiert ist und der Anthropomorphisierung des Geräts dienen soll. Dahinter sind Mikrofone, LEDs und jede Menge Rechenpower verbaut.
Der Educational Partner soll dereinst zum Kameraden von Kindern im Alter von drei bis sechs Jahren werden. Hier wird das Gerät wirklich gut, denn der grinsende Fussball, der in Kinderstimme mit einem leichten Lispeln spricht, soll mit allerlei Cloud-Diensten verbunden werden. Diese sollen ihn laufend über neue Spielmöglichkeiten, medizinische Erkenntnisse und Daten sowie einen ganze Berg andere Dinge informieren.
“Der Educational Partner soll dem Kind starke moralische und ethische Grundwerte mit auf den Lebensweg geben”, sagt eine Stimme aus dem Off während einer Präsentation. Ein Beispiel macht die Präsentation auf der Leinwand mit gesunder Ernährung. Der Educational Partner erzählt eine Geschichte, die im Wesentlichen so geht: “Iss dein Rüebli, dann wirst du mal so stark wie Carrot Man”.
Als Mutter oder Vater musst du dank dem Educational Partner nicht mal im gleichen Raum wie dein Kind sein, um deinen elterlichen Pflichten nachzukommen. Der Fussball kann nämlich regelmässig Bilder von deinem Sprössling schiessen und dir auf dein Smartphone senden. Da der kleine Roboter mit medizinischen Datenbanken verbunden ist, dürfte er wohl auch einige Dinge selbst diagnostizieren können und zumindest eine Warnung “Bring dein Kind zum Arzt” ausspucken, wenn die Daten des Kindes von einer Baseline abweichen.
Warum wir alle sterben werden
Der lispelnde, süsse Roboter ist unheimlich. Trotz seiner Kinderstimme klingt seine Stimme künstlich. Der Duktus einiger Sätze ist falsch, die Emoji-Gesichter decken sich nicht immer mit dem Gesagten. Er erzählt von moralisch-ethischen Werten und macht ein zwinkerndes Smiley-Gesicht. Nicht direkt vertrauenswürdig.
Ferner schrillen in mir die Alarmglocken, dass im rollenden Roboterkopf massiv viel Überwachungstechnologie verbaut ist. Nicht nur eine Kamera, sondern wohl auch Biometrie-Messer und sonstige Leser von Umgebungsdaten. Ich scherze mit Video Producerin Stephanie Tresch, dass Panasonic da bestimmt Messer verbaut, die alle erstechen werden, sobald die Apokalypse beginnt. Denn überprüfbar ist das genaue Hardware Setup nicht, da am ganzen Ball keinerlei Ports oder Zugangswege zu seinem Innenleben zu sehen sind. Zumindest nicht auf den ersten Blick.
“Wir werden sogar noch dafür bezahlen, dass uns die von uns gekauften Roboter in unserem Haushalt töten werden”, sage ich. Neben mir beginnt ein Mann zu lachen. Stephanie nimmt das alles auf Kamera auf, meint aber, dass der Take Schrott sei weil sie mitlachen muss.
Realistisch tun sich aber beim Kauf eines Roboters wie dem Educational Partner zig Risiken auf. Was, wenn Dritte sich Zugang zu einem der Services beschaffen, mit denen der unheimliche Roboterkopf kommuniziert? Kommt dann auf einmal ein Rat wie “Schüttle dein Kind, damit es aufhört zu schreien”, der eigentlich grausam falsch ist, aber weil der Roboter dem Service vertraut und die Eltern dem tapsigen Roboter, der so süss hin- und herwackelt, wenn er spricht… Das Unheil nimmt seinen Lauf.
Die einzige Mitigation hier ist, dass der Roboter seine medizinische Diagnostik limitiert und nur grade Daten wie “Die Temperatur deines Kindes ist erhöht. Bitte suche einen Arzt auf” ausspuckt. Aber du und ich wissen beide, dass es nicht dabei bleiben wird. Denn wir Menschen haben so die Tendenz, solche Dinge zu übertreiben, wenn wir schonmal dabei sind. Und warum sollten wir auch nicht? Der kleine Roboter bietet zu viele coole Möglichkeiten. Der Tech-Freak in mir weiss: Diese nicht auszunutzen wäre totale Verschwendung.
Zudem müssen wir uns die Frage stellen, ob wir unsere Kindererziehung wirklich einem kleinen Roboter überlassen wollen. Wo soll eine Dreijährige ihre ersten Geschichten von wilden Abenteuern erhalten? Aus einer Kiste, die nur erzieherisch wertvoll über Carrot Man redet oder darf es auch mal menschlicher Unsinn von Weltraumpiraten sein? Was geschieht mit unserem Nachwuchs, wenn sie alle mit Geschichten von Carrot Man aufwachsen? Sind sie dann schon im Kindergarten genormt? Werden sie alle von Panasonic reden, mit der Marke aufwachsen und lebenslang emotional an einen Grosskonzern gebunden sein? Antworten auf diese Fragen habe ich nicht und die hat wohl noch keiner. Doch jetzt, wo auf einem Tisch vor den Augen der Weltöffentlichkeit ein Roboterkopf Kinder erziehen will, meine ich, dass wir uns diese Fragen stellen müssen.
“Und das Teil könnte mit Messern bewaffnet sein”, füge ich an. Stephanie versaut wieder den Take. Wir sind nach sechs Tagen IFA definitiv zu müde für eine ernsthafte Diskussion von IT-Security-Risiken im Falle von Erziehungsrobotern.
Warum wir alle nicht sterben werden
Das ganze Szenario von den eingebauten Messern ist natürlich Unsinn. Dennoch: In so einem harmlosen kleinen Ball liegt ganz viel Gefahr für Leib, Leben und zu einem gewissen Grad die Menschlichkeit. Dies haben Autoren schon lange als Gedankengut aufgegriffen. Ich bin einer, der meint, dass das Gerede von wegen “$autor hat $ding vorausgesehen” Unsinn ist. Denn Fiktion ist nun mal genau das, Fiktion.
- Ein mögliches Szenario mit Imprinting von Grosskonzernen hat Autor Max Barry in seinem Roman “Jennifer Government” beschrieben
- Die stete Überwachung hat Dave Eggers wenig emotional wirksam in “The Circle” thematisiert
- Indoktrinierung und vor allem aber Kontrolle ist das Hauptthema von George Orwells “1984”
In den Fragen der Robotik aber war Science-Fiction-Autor Isaac Asimov aber Vordenker, wenn man denn einen Fiktionsautoren Vordenker nennen kann. Er hat in seiner Kurzgeschichte “Runaround” drei Gesetze niedergeschrieben, denen jeder Roboter gehorchen müsse. Diese sind bis heute so mehr oder weniger der Standard bei der Entwicklung künstlicher Intelligenzen.
- Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
- Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
- Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.
Im Jahre 1975 hat Asimov die Gesetze dann etwas gelockert und in der ersten Regel das Wort “wissentlich” hinzugefügt. Also, dass ein Roboter einen Menschen nicht wissentlich verletzen darf oder wissentlich zusehen, wenn ein Mensch verletzt wird. Ferner hat er anno 1985 ein “nulltes” Gesetz hinzugefügt, das es einem Roboter verbietet, der Menschheit als Kollektiv Schaden zuzufügen.
Der Educational Partner also, selbst wenn er denn mit Messern bewaffnet wäre, dürfte diese Klingen nicht dazu einsetzen, dir und/oder deinem Nachwuchs bei Unachtsamkeit oder im Schlaf ins Gesicht zu stechen bis seine Biodatensensoren die komplette Exsanguinatierung feststellen. Das hindert den kleinen Roboter aber nicht daran, den Kindern Flöhe ins Ohr zu setzen. Denn wenn er generell gutgesinnte Messages von Panasonic und/oder ausgewählten Partnern weitergibt, dann verletzt er ja keine der Gesetze. Denn die Gefahr geht nicht nur von irgendwelchen Hackern aus, die dich dazu verleiten wollen, deinen Kindern zu schaden, sondern auch vom Hersteller. Ein paar Millionen hier oder da für einen Spruch zu einem Thema... wer kann da widerstehen? Und ohnehin, wenn es schon okay ist, dass der Educational Partner von Rüebli erzählt, warum sollte es dann nicht okay sein, wenn er sagt "Die Rüebli von Nestlé schmecken super"? Ist ja fast das selbe, nicht?
Am Ende dieses Gedankengangs hält Stephanie Tresch dem Roboterkopf die Kamera ins Gesicht und ich halte das Mikrofon in die generelle Gegende des animierten Mundes und frage mich, ob der Lautsprecher wirklich etwa dort ist. Der Educational Partner wackelt hin und her, lispelt uns etwas vor und nach dem gelungenen Take wird der weisse Plastikball wieder mit einer Plexiglasglocke abgedeckt. Team digitec geht mit vollen Speicherkarten und leeren Akkus davon. Wir haben keine Antworten, aber eine Menge Fragen und ein leicht mulmiges Gefühl, selbst wenn wir Witze über unseren kommenden Untergang reissen.


Journalist. Autor. Hacker. Ich bin Geschichtenerzähler und suche Grenzen, Geheimnisse und Tabus. Ich dokumentiere die Welt, schwarz auf weiss. Nicht, weil ich kann, sondern weil ich nicht anders kann.