Inteligencia Artificial

La inteligencia artificial no sabe mostrar dudas en sus respuestas: las consecuencias del fallo en ChatGPT

Las consecuencias del fallo en ChatGPT
Compartir

En la elección del nuevo papa, se le preguntó a la inteligencia artificial quién podía ser el elegido. ChatGPT -capaz de interpretar emociones- respondió que iba a ser Dominique Mmberti, un cardenal francés. No acertó ni de cerca. Según informa Rebeca Gimeno, los modelos están entrenados para contestar con seguridad, certeza, persuasión y no para decir ‘tengo dudas, ahora mismo no sabría decirte’. Respuestas muy humanas que no se ven en la inteligencia artificial.

PUEDE INTERESARTE

Cada vez más personas utilizan ChatGPT. Muchos estudiantes para hacer deberes y otros incluso lo usan como si fuese un psicólogo. Pero este fallo en las respuestas es evidente en comparación con otro que hay más sutil, menos escandaloso y quizás más peligroso.

La inteligencia artificial tiende a generalizar en exceso

Un estudio ha probado muchos modelos de IA y les ha dicho ‘tengo estos 5.000 estudios científicos, ¿me haces un resumen?’. Y aquí la IA no se inventa datos, pero comete otro error: generaliza en exceso. Saca conclusiones que los propios autores no se atreven a afirmar.

PUEDE INTERESARTE

La ciencia avanza con pasos acotados. Esto funciona así, en este entorno, pero no sabemos si será igual en otro entorno. Estos matices a la IA no le parecen tan relevantes. Lo curioso es que cuando los investigadores intentaron hacer que el modelo pensara mejor su respuesta (‘tómate tu tiempo, reflexiona...’), el resultado fue aún peor: generalizó.

La IA sufre también del efecto rebote irónico. Otra explicación a este fallo de generalizar es el llamado olvido catastrófico. Los modelos neuronales tienden a olvidar lo que han aprendido anteriormente cuando se les entrena con nueva información. Le hace falta repasar, pero él no lo sabe y nosotros no deberíamos olvidarlo.