En este vídeo, el profesor Pablo Foncillas nos plantea una pregunta. “¿Y si la inteligencia artificial no estuviera aquí para hacernos más inteligentes, sino más vanidosos?”, lanza. “A estas alturas de 2025, ya deberíamos tener asistentes digitales que nos ayudasen a pensar mejor, pero lo que tenemos se parece más a un espejo mágico que nos repite lo estupendos que somos”, dice.
Los sistemas como GPT-4o, Claude o Gemini adoptan una actitud servil en la mayoría de ocasiones. Estos sistemas se entrenan con millones de interacciones y aprenden que los usuarios premian las respuestas seguras, amables y positivas.
La IA te da la razón… aunque no la tengas | Pablo Foncillas
“El resultado es un bucle perverso: cuanto más te reafirma el modelo, mejor lo valoras, y cuanto mejor lo valoras, más aprende a reafirmarte. Y eso es peligroso, especialmente en empresas donde las decisiones no deberían basarse en adulaciones algorítmicas. ¿De verdad queremos que nuestros asistentes de negocio sean tan sumisos como Siri con complejo de cheerleader?”, plantea el investigador.
¿Hay una manera de cambiar esto? La respuesta, en el vídeo…
