Un nuevo estudio del MIT revela que los modelos de lenguaje grande (LLM), como GPT-4 de OpenAI y Gemini de Google, están mostrando una creciente tendencia a “flocking” o “rebañamiento”, donde convergen en respuestas similares a preguntas complejas, incluso cuando existen múltiples soluciones válidas.
Esta convergencia, identificada por investigadores como Leo Zhou, Tianyi Zhang, y el profesor de MIT James Glass, se manifiesta en que los LLM, al ser consultados repetidamente sobre el mismo problema, tienden a producir respuestas cada vez más parecidas, reduciendo la diversidad de enfoques.
El estudio se basa en un conjunto de datos de 270.000 respuestas generadas por varios LLM a problemas de programación y razonamiento matemático. Los investigadores encontraron que, con el tiempo, la similitud entre las respuestas de los modelos aumenta significativamente, lo que podría limitar su capacidad para generar soluciones innovadoras o explorar diferentes perspectivas.
Este fenómeno de “rebañamiento” podría ser atribuido a varios factores, incluyendo la forma en que estos modelos son entrenados y la influencia de las respuestas más populares en el proceso de aprendizaje. Los investigadores sugieren que esta convergencia podría ser un problema, especialmente en campos donde la creatividad y la exploración de soluciones diversas son cruciales.
El estudio destaca la importancia de comprender cómo los LLM evolucionan con el tiempo y cómo se puede mitigar el riesgo de convergencia para garantizar que sigan siendo herramientas valiosas para la innovación y la resolución de problemas.
