¿Existe un problema con la IA?

La inteligencia artificial está abriendo a mucha gente un horizonte de posibilidades y retos, mientras que otros la ven como una amenaza. Tomarse en serio este debate implica, en primer lugar, tratar de entender qué es y cómo funciona esta tecnología para saber cuáles son los riesgos que supone y cómo podemos minimizarlos. Esto se ve muy bien en uno de sus usos más atractivos: su capacidad predictiva.

Nada fascina más a los humanos que la posibilidad de predecir el futuro, y eso la IA lo hace bastante bien. Aún así, la labor de la IA no tiene nada que ver con una intuición especial, sino con su capacidad de procesamiento de información a partir de los datos del pasado, de los que extrae patrones y modelos que le permiten realizar predicciones. Éstas pueden tener, además, un efecto sobre las personas que pueden intentar, por ejemplo, cambiar lo que se ha predicho, como los efectos de determinados fenómenos meteorológicos. Pero estas predicciones, que funcionan en el ámbito de la física, resultan problemáticas cuando se refieren al comportamiento humano.

Cargando
No hay anuncios

Un caso muy conocido es el del software COMPAS, empleado en EEUU para asistir a los tribunales a la hora de determinar la posibilidad de reincidencia de los delincuentes. No lo hace mal. Las decisiones de COMPAS son más acertadas que las de un juez con poca experiencia pero peores que el criterio de un grupo de magistrados experimentados. Su eficacia sería lo suficientemente razonable si no fuera por un detalle: cuando se equivoca, en la mayoría de los casos el perjudicado es una persona negra.

El problema es que este sesgo racista, que sería un error censurable si proviniera de un juez, no puede considerarse un mal funcionamiento de la IA, ya que no tiene prejuicios morales. Como hemos dicho, la IA sólo hace uso de datos pasados, y si en el pasado los presos negros solían ser considerados potencialmente más reincidentes, éste es un patrón que no puede ignorar.

Cargando
No hay anuncios

Los defensores de esta tecnología pueden alegar que este sesgo se puede corregir, pero hay otro aspecto de la IA que dificulta esta corrección: la apariencia de neutralidad. Pese a lo dicho, el hecho es que mucha gente piensa que la IA, no siendo humana, no tiene prejuicios y su respuesta es imparcial y razonada. A pesar de saber que la IA se equivoca, tendemos a desconfiar más de lo que nos dice una persona que de lo que responde ChatGPT, lo que hace difícil un discurso crítico en relación con la tecnología.

Pero el principal peligro del uso acrítico de estos sistemas es que dejan de lado un elemento característico de los humanos: la capacidad de reconocer los errores y rectificar. Que en un determinado grupo exista un índice de criminalidad elevado no es un obstáculo para que un miembro del grupo decida seguir otro camino. Automatizar las decisiones sobre el encarcelamiento de personas, ignorando la capacidad de autocorregirse, es una actitud inhumana porque, por mucho trabajo que quite a los jueces, en la práctica niega la libertad de cambiar.

Cargando
No hay anuncios

Esto no hace inútiles estas herramientas, pero sí evidencia la necesidad de evaluar las implicaciones éticas y legales que tienen, y esta evaluación no corresponde ni a los programadores que las crean ni a las empresas que las comercializan. Hoy existe un problema con la IA, y no es el miedo a una rebelión de robots, sino la ausencia de un debate político y social serio sobre su uso y los límites a imponer.