La inteligencia artificial no sabe mostrar dudas en sus respuestas: las consecuencias del fallo en ChatGPT
La IA saca conclusiones que los propios autores no se atreven a afirmar
'ChatGPT diabólico': la versión maligna de la inteligencia artificial que informa sobre cómo cometer delitos
En la elección del nuevo papa, se le preguntó a la inteligencia artificial quién podía ser el elegido. ChatGPT -capaz de interpretar emociones- respondió que iba a ser Dominique Mmberti, un cardenal francés. No acertó ni de cerca. Según informa Rebeca Gimeno, los modelos están entrenados para contestar con seguridad, certeza, persuasión y no para decir ‘tengo dudas, ahora mismo no sabría decirte’. Respuestas muy humanas que no se ven en la inteligencia artificial.
Cada vez más personas utilizan ChatGPT. Muchos estudiantes para hacer deberes y otros incluso lo usan como si fuese un psicólogo. Pero este fallo en las respuestas es evidente en comparación con otro que hay más sutil, menos escandaloso y quizás más peligroso.
La inteligencia artificial tiende a generalizar en exceso
Un estudio ha probado muchos modelos de IA y les ha dicho ‘tengo estos 5.000 estudios científicos, ¿me haces un resumen?’. Y aquí la IA no se inventa datos, pero comete otro error: generaliza en exceso. Saca conclusiones que los propios autores no se atreven a afirmar.
La ciencia avanza con pasos acotados. Esto funciona así, en este entorno, pero no sabemos si será igual en otro entorno. Estos matices a la IA no le parecen tan relevantes. Lo curioso es que cuando los investigadores intentaron hacer que el modelo pensara mejor su respuesta (‘tómate tu tiempo, reflexiona...’), el resultado fue aún peor: generalizó.
La IA sufre también del efecto rebote irónico. Otra explicación a este fallo de generalizar es el llamado olvido catastrófico. Los modelos neuronales tienden a olvidar lo que han aprendido anteriormente cuando se les entrena con nueva información. Le hace falta repasar, pero él no lo sabe y nosotros no deberíamos olvidarlo.
