Nouveautés + tendances

Panasonic Educational Partner : L'apocalypse a la taille d'un ballon de football

Dominik Bärlocher
6/9/2017
Traduction : traduction automatique

Nous allons tous mourir. Les robots vont arriver et nous tuer. La dernière menace en date s'appelle Panasonic Educational Partner et c'est un prototype fascinant qui peut et veut beaucoup, mais qui fait vraiment peur.

L'IFA de Berlin ne présente pas seulement des nouveautés qui seront bientôt commercialisées. Ici et là, des technologies qui n'existent pas encore sont présentées. Ou qui n'existera pas avant un certain temps. L'un de ces prototypes est le Panasonic Educational Partner, qui non seulement place la barre technologique très haut, mais fait également monter le facteur d'épouvante à des niveaux insoupçonnés.

Mais avant d'invoquer l'apocalypse robotique et de proclamer haut et fort que nous sommes tous voués à la mort, une explication sur le Educational Partner. Et je vais aussi rapidement expliquer pourquoi les robots ne vont pas tous nous tuer, j'espère.

Le futur en forme de ballon de foot

Le Panasonic Educational Partner est petit, compact et de couleur neutre. Il se présente sous la forme d'une sphère de la taille d'un ballon de football. La sphère est composée de trois éléments.

"Le partenaire éducatif doit transmettre à l'enfant de solides valeurs morales et éthiques fondamentales", déclare une voix off lors d'une présentation. Un exemple fait la présentation à l'écran avec une alimentation saine. Le partenaire éducatif raconte une histoire qui se résume à ceci : "Mange ta carotte, tu seras un jour aussi fort que Carrot Man".

Pourquoi nous allons tous mourir

Ce robot zézayant et mignon fait peur. Malgré sa voix d'enfant, sa voix semble artificielle. L'intonation de certaines phrases est fausse, les visages en emoji ne coïncident pas toujours avec ce qui est dit. Il parle de valeurs morales et éthiques et fait un visage de smiley qui cligne de l'œil. Pas directement digne de confiance.

"Nous allons même payer pour que les robots que nous avons achetés nous tuent dans notre foyer", dis-je. À côté de moi, un homme se met à rire. Stéphanie filme tout cela, mais elle dit que la prise est nulle parce qu'elle rit avec lui.

"Et cette chose pourrait être armée de couteaux", ajoute-je. Stéphanie gâche encore la prise. Après six jours d'IFA, nous sommes définitivement trop fatigués pour discuter sérieusement des risques de sécurité informatique dans le cas des robots éducatifs.

Pourquoi nous ne mourrons pas tous

L'ensemble du scénario des couteaux intégrés est bien sûr une absurdité. Il n'en reste pas moins qu'une petite balle inoffensive représente un grand danger pour la vie et, dans une certaine mesure, pour l'humanité. Cela fait longtemps que les auteurs s'en inspirent. Je suis de ceux qui pensent que dire que l'auteur avait prévu la situation est un non-sens. Parce que la fiction, c'est exactement ça, de la fiction.

  • L'auteur Max Barry a décrit un scénario possible avec l'imprinting des grandes entreprises dans son roman "Jennifer Government"
  • La surveillance constante a été abordée de manière peu émotionnelle par Dave Eggers dans "The Circle"
  • L'endoctrinement, mais surtout le contrôle, est le thème principal de "1984"

de George Orwell.

Mais sur les questions de robotique, l'auteur de science-fiction Isaac Asimov a été un maître à penser, si l'on peut appeler un auteur de fiction un maître à penser. Dans sa nouvelle "Runaround", il a écrit trois lois auxquelles tout robot doit obéir. Celles-ci sont aujourd'hui encore plus ou moins la norme dans le développement des intelligences artificielles.

  1. Un robot ne doit pas blesser un être humain ou permettre, par son inaction, qu'un être humain soit blessé.
  2. Un robot doit obéir aux ordres qui lui sont donnés par un être humain - à moins qu'un tel ordre n'entre en conflit avec la règle 1.
  3. Un robot doit protéger son existence, tant que cette protection n'entre pas en conflit avec la règle une ou deux.

En 1975, Asimov a ensuite légèrement assoupli les lois en ajoutant le mot "sciemment" à la première règle. En d'autres termes, un robot ne peut pas sciemment blesser un être humain ou regarder sciemment un être humain se faire blesser. De plus, en 1985, il a ajouté une loi "zéro" interdisant à un robot de nuire à l'humanité en tant que collectivité.

Cet article plaît à 8 personne(s)


User Avatar
User Avatar

Journaliste. Auteur. Hackers. Je suis un conteur d'histoires à la recherche de limites, de secrets et de tabous. Je documente le monde noir sur blanc. Non pas parce que je peux, mais parce que je ne peux pas m'en empêcher.


Nouveautés + tendances

Du nouvel iPhone à la résurrection de la mode des années 80. La rédaction fait le tri.

Tout afficher