Viaggiando in auto con le mappe di Google, mi fido ciecamente dei suggerimenti. So che sono frutto dell’analisi di un’intelligenza evoluta e soprattutto di un’immensa base dati elaborata in tempo reale. Allo stesso modo, chi viaggia con me non si fida, perché conosce le stesse cose che so io.
Entrambi però sappiamo che stiamo parlando con un computer e decidiamo in maniera diversa come interpretare questi dati.
Se un robot non si presentasse come tale, ci fideremmo dell’informazione che riceviamo?
Mentre ci spostiamo nel mondo dell’IA che fa le cose umane meglio degli umani, molti di noi vorrebbero sapere cosa è e cosa non è fatto da un essere umano. Quanto mi interessa sapere se un libro, una canzone o un’opera d’arte è stata realizzata da un robot?
Forse Asimov, nel pensare le sue tre leggi che dicono sostanzialmente che i robot devono sempre obbedire e non fare mai del male a nessuno, ha mancato una quarta legge essenziale: un robot deve identificarsi.
Abbiamo o no il diritto di sapere se stiamo interagendo con un essere umano o con un’intelligenza artificiale?
Queste sono domande importanti che ci dobbiamo porre mentre l’IA diventa sempre più sofisticata. Da un lato, è importante che ci fidiamo dell’IA per poterci affidare a essa per svolgere compiti importanti. Dall’altro lato, è importante essere consapevoli del fatto che l’IA non è umana e che non ha le stesse capacità degli umani.
Credo che abbiamo il diritto di sapere se stiamo interagendo con un essere umano o con un’intelligenza artificiale. Questo ci permette di prendere decisioni informate ma anche di essere consapevoli dei limiti dell’IA.
Nel futuro, probabilmente vedremo un’IA sempre più sofisticata e che sarà in grado di svolgere compiti sempre più complessi. È importante che ci prepariamo a questo futuro e che ci chiediamo come vogliamo interagire con l’IA.
“I do not fear computers. I fear the lack of them”
– Isaac Asimov –