
Panasonic Educational Partner: l'apocalisse ha le dimensioni di un pallone da calcio
Moriremo tutti. I robot arriveranno e ci finiranno. L'ultima minaccia si chiama Panasonic Educational Partner ed è un affascinante prototipo che può e vuole fare molto, ma fa davvero paura.
L'IFA di Berlino non si limita a presentare nuovi prodotti che saranno presto in vendita. Qua e là verrà mostrata una tecnologia che non esiste ancora. O che non esisterà ancora per un po'. Uno di questi prototipi è il Panasonic Educational Partner, che non solo fissa l'asticella della tecnologia, ma innalza anche il fattore inquietudine a livelli inimmaginabili.
Ma prima di invocare l'idea di un nuovo prodotto, non posso che dire che il mio è un progetto che non ha nulla a che fare con la tecnologia.
Ma prima di invocare l'apocalisse dei robot e proclamare a gran voce che siamo tutti destinati a morire, ti spiego come funziona l'Educational Partner. E ti spiegherò anche perché spero che i robot non ci uccidano tutti.
Il futuro in forma di calcio
L'Educational Partner di Panasonic è piccolo, compatto e di colore neutro. È una sfera delle dimensioni di un pallone da calcio. La palla è composta da tre elementi.
Piano abbozzato dell'Educational Partner"Il Partner Educativo è un dispositivo che parla al bambino con una voce leggermente biascicata.
"Il Partner Educativo è progettato per instillare nel bambino forti valori morali ed etici", dice una voce fuori campo durante una presentazione. La presentazione sullo schermo fornisce un esempio di alimentazione sana. Il partner educativo racconta una storia che essenzialmente recita così: "Mangia le carote e diventerai forte come l'uomo carota".
Come mamma e come bambino, il partner educativo è stato progettato per inculcare al bambino forti valori morali ed etici.
Perché moriremo tutti
Il simpatico robot biascicante è inquietante. Nonostante la sua voce infantile, la sua voce sembra artificiale. Lo stile di alcune frasi è sbagliato, le faccine emoji non sempre corrispondono a ciò che viene detto. Parla di valori morali ed etici e fa una faccina ammiccante. Non è direttamente affidabile.
"Non ci sono porte o vie d'accesso all'interno della sfera.
"Pagheremo anche i robot che compreremo per ucciderci in casa", dico. Un uomo accanto a me inizia a ridere. Stephanie riprende il tutto con la telecamera, ma dice che la ripresa è pessima perché deve ridere insieme a lui.
L'unica mitigazione possibile è che il robot sia in grado di fornire un'assistenza adeguata.
L'unica attenuazione è che il robot limiti la sua diagnostica medica e fornisca solo dati semplici come "La temperatura del bambino è elevata. Si rivolga a un medico". Ma sappiamo entrambi che non si fermerà qui. Perché noi umani abbiamo la tendenza a esagerare queste cose. E perché non dovremmo? Il piccolo robot offre troppe possibilità cool. Il geek tecnologico che è in me sa che non sfruttarle sarebbe uno spreco totale.
"E la cosa potrebbe essere armata di coltelli", aggiungo. Stephanie sbaglia di nuovo la ripresa. Dopo sei giorni all'IFA, siamo decisamente troppo stanchi per una discussione seria sui rischi della sicurezza informatica nel caso dei robot educativi.
Perché tutti noi dobbiamo essere in grado di rispondere a queste domande?
Perché non moriremo tutti
L'intero scenario dei coltelli incorporati è ovviamente senza senso. Tuttavia, una pallina così innocua nasconde molti pericoli per la vita, gli arti e, in una certa misura, l'umanità. Gli autori ci hanno pensato a lungo. Io sono uno di quelli che pensa che il discorso "l'autore aveva previsto una cosa" non abbia senso. Perché la finzione è solo questo, finzione.
- Un possibile scenario che prevede l'imprinting delle grandi aziende è stato descritto dall'autore Max Barry nel suo romanzo "Jennifer Government"
- La costante sorveglianza è stata affrontata da Dave Eggers con scarso impatto emotivo in "The Circle"
- L'indottrinamento e, soprattutto, il controllo sono il tema principale di "1984" di George Orwell.
Quando si parla di robotica, tuttavia, l'autore di fantascienza Isaac Asimov è stato un leader di pensiero, se si può definire un autore di narrativa un leader di pensiero. Nel suo racconto "Runaround", scrisse tre leggi che ogni robot deve rispettare. Queste sono ancora oggi più o meno lo standard nello sviluppo dell'intelligenza artificiale.
Nel 1975, Asimov ha poi mitigato un po' le leggi e ha aggiunto la parola "consapevolmente" alla prima regola. Ciò significa che un robot non può consapevolmente ferire un essere umano o assistere consapevolmente al ferimento di un essere umano. Nel 1985 aggiunse anche la "terza" legge, che proibisce a un robot di danneggiare l'umanità in quanto collettività.
Giornalista. Autore. Hacker. Sono un contastorie e mi piace scovare segreti, tabù, limiti e documentare il mondo, scrivendo nero su bianco. Non perché sappia farlo, ma perché non so fare altro.
Dal nuovo iPhone al revival della moda anni '80. La redazione fa chiarezza.
Visualizza tutti