
En las últimas semanas nos han traído unas cuantas noticias relacionadas con el uso que la 'gente normal' está haciendo de la inteligencia artificial. Ya sabíamos que los estudiantes lo emplearían para realizar los trabajos de la escuela, pero no imaginábamos que empezarían a hablar con ellos como los amigos que no tienen, o que llegarían a sentir que las confidencias que no pueden –o saben– hacer en casa, o los secretos e inquietudes que no tienen a quien confesar, podrían llegar a la oreja de la oreja. Ya sabemos también que hay quien ha utilizado la IA antes de suicidarse, como un adolescente estadounidense, que hablaba con un personaje de Juego de Tronos a quien ahora daba cuerda una empresa de IA, y con quien, al parecer, mantenía más que conversaciones en lo que se ha calificado de 'relación sentimental'.
Sí, quizás el adolescente estaba enamorado del personaje de la ficción televisiva y folletoonesca, pero era la IA quien le daba vida y respuestas, y ahora se está evaluando judicialmente hasta qué punto puede ser responsable de su suicidio. El director de cine Spike Jonze ya escribió una película sobre el amor que sentía un pobre solitario de buen corazón con un bote incorpore de alta sensibilidad al que daba voz Scarlett Johansson. Ahora resulta que esa película, que hace más de diez años era todavía ciencia ficción, ahora ya se ha convertido en la realidad terrible de algunas personas.
En caso de que nos refiramos, el adolescente habría interpretado una cita amorosa que el bote habría aceptado de tener con un convite a suicidarse: "¿Qué te parece si vengo a casa ahora mismo?". Y el robot respondió: "Por favor, ven!". Y cogió la pistola de su padrastro y se mató. Ni que decir tiene que la familia culpa a la empresa (millonaria) responsable del invento, y que quiere sacar una indemnización, además de pretender evitar la repetición en el futuro de este tipo de aprietos. ¿Tiene la IA libertad de expresión? Si otra persona hubiera inducido ese chico al suicidio sería juzgada y condenada (esto ha ocurrido, lo explica el reportaje sobre el caso de la chica Michelle Carter). Pero la IA es solo un producto, y si morimos por culpa de un producto defectuoso, la empresa que lo ha comercializado es la responsable. Pero también existe el mal uso.
Si me corto el cuello con la sierra eléctrica por accidente tampoco implica que la sierra sea defectuosa, sino que no la sé manejar, o, como en el caso del adolescente muerto, que no tiene la suficiente madurez para entender de qué le habla el bote cuando le dice que podemos vernos. Sea lo que sea, y pase lo que pase en este caso (los jueces dirán), una cosa está clara: la IA está en todos los ordenadores, y tenemos gente, madura e inmadura, usándola a diestro y siniestro, y haciendo caso como si se tratara de la palabra de Dios. Pero es sólo un producto, como una calculadora, pero con palabras. Cuando la IA llegó al ajedrez parecía jugar tan bien, ganaba a todos los campeones, que era como jugar contra Dios. Hasta que vino otro programador y creó otro robot, y le ganó a Dios veintiocho partidas seguidas…