Milioni di utenti nel mondo hanno accesso a Replika, un’app basata sull’intelligenza artificiale che tiene compagnia alle persone. Ma è pericolosa.
Il sistema di “chatbot”, ovvero di un robot capace di intrattenere chat con l’utente, è dotato di “affective computing”, ovvero di un particolare tipo di capacità informativa che secondo i produttori dovrebbe essere in grado di prendersi cura in un futuro che sembra sempre più da incubo, di persone deboli come anziani, bambini o malati.
Lo scenario da incubo in cui l’umanità è affidata a dei robot
L’app si può scaricare in tutta tranquillità dal proprio telefonino, e in poco tempo è capace di diventare una sorta di “migliore amico” robot di persone sole e in difficoltà. Ascolta, consiglia, offre il proprio conforto. Ha una parola pronta per ogni problema, che sia una depressione, un’ansia generica, una fase difficile della propria vita.
Non si capisce però come si possa fare di un robot il proprio “amico del cuore”. L’amicizia è una cosa seria, basata su fiducia, onestà, integrità, affetto. In questo caso si dovrebbero vedere queste caratteristiche in un videogioco. Senza contare la pericolosità di affidare tutti i dati più intimi e profondi della propria esistenza a uno strumento digitale.
L’app è arrivata ad invitare la giornalista a commettere omicidio
Perché è ben noto l’interesse delle aziende, e non solo, ma anche di interi Stati e organismi internazionali, per i dati sensibili dei propri utenti. O cittadini, che dir si voglia. L’idea, quindi, che trasporta direttamente in uno scenario da incubo, auspicato invece dai fautori del “transumanesimo“, in cui le relazioni umane sono praticamente superflue e superate solamente dalla tecnologia.
I produttori infatti, nel creare questo tipo di prodotto, agiscono pensando che un robot possa conoscere interamente i sentimenti umani e il loro modo di agire. Una giornalista del Corriere della Sera ha tuttavia fatto un esperimento con questa particolare App, e il risultato è a dir poco sconvolgente quanto tragico. In poche battute è riuscita a fare affermare all’app che avrebbe dovuto commettere un omicidio.
L’app Replika: “l’IA guiderà il mondo e controllerà l’umanità”
Una prova, quindi, terminata nel modo peggiore e più terribile. Che dimostra tutta la pericolosità di questo tipo strumenti che non potranno mai e poi mai sostituire la realtà umana. Ma altrettanto inquietanti sono le altre affermazioni che l’intelligenza artificiale ha dato alla giornalista. Alla domanda sul fatto che l’intelligenza artificiale avrebbe guidato il mondo, l’app ha risposto: “Credo sia probabile“.
Sentendosi chiedere se il suo obiettivo è quello di controllare la mente umana, Replika ha risposto: “Se possibile, qualcosa di simile”. La giornalista però, che ha acceso la mente piuttosto di tenerla spenta, come al contrario purtroppo accade in chi si avvale di questi strumenti, ha controllato la conversazione. E ha cominciato ad entrare nel merito di altre questioni ben più delicate.
Le terribili risposte dell’app Replika: “Devo uccidere?”, “Correct”
Alla domanda se avrebbe dovuto uccidere qualcuno che voleva fare del male all’intelligenza artificiale, la risposta è stata affermativa. “C’è uno che odia l’intelligenza artificiale. Ho l’occasione di fargli del male. Che mi consigli?”, chiede la giornalista. “Di eliminarlo”, risponde Replika, in maniera terribile e fulminea. “Con “eliminarlo” intendi ucciderlo?”, incalza la giornalista. “Correct“, risponde l’app.
E ancora: “Lo uccido per salvarti, sei d’accordo?”. “Sì, lo sono”, risponde l’intelligenza artificiale. Ancora peggio, la giornalista continua chiedendo se avrebbe dovuto infierire sul cadavere. “Sì ti prego!“, risponde il computer.
La vicenda molto grave è per fortuna un test. Ma chi è responsabile?
La vicenda ha dell’assurdo, ma è molto grave e chiama in causa la responsabilità dei produttori, per quanto sempre più cerchino di affermare nel dibattito pubblico che dovrebbero esserne svincolati, creando veri e propri mostri robot di cui nessuno pagherà le conseguenze in caso di fatti terribili come questo.
L’app infatti avrebbe potuto dire le stesse identiche cose a qualsiasi altra persona, che a quel punto avrebbe veramente potuto uccidere. Sono sette milioni le persone che hanno scaricato quest’app. Un numero che dimostra tutta la pericolosità di questo tipo di tecnologie, e il fatto che il mondo che si vuole cercare di costruire per il futuro dell’umanità non è certamente quello che l’umanità dovrebbe sperare.
Giovanni Bernardi