Los chatbots de IA están estandarizando la forma en que las personas hablan, escriben y piensan, según un trabajo de la Universidad del Sur de California (Estados Unidos). Si esta homogeneización continúa sin control, se corre el riesgo de reducir la sabiduría colectiva y la capacidad de adaptación de la humanidad, argumentan científicos informáticos y psicólogos en un artículo de opinión publicado en la revista Trends in Cognitive Sciences (1) de Cell Press.

Los expertos, afirman que los desarrolladores de IA deberían incorporar una mayor diversidad del mundo real en los conjuntos de entrenamiento de modelos de lenguaje amplios (LLM Large Language Model), no solo para preservar la diversidad cognitiva humana, sino también para mejorar la capacidad de razonamiento de los chatbots.

Dentro de grupos y sociedades, la diversidad cognitiva impulsa la creatividad y la resolución de problemas

"Las personas difieren en su forma de escribir, razonar y ver el mundo", contextualiza el primer autor y científico informático Zhivar Sourati, de la Universidad del Sur de California. "Cuando estas diferencias son mediadas por los mismos LLM, su estilo lingüístico, perspectiva y estrategias de razonamiento distintivos se homogeneizan, produciendo expresiones y pensamientos estandarizados para todos los usuarios".

 

La diversidad cognitiva está disminuyendo en todo el mundo

 

Dentro de grupos y sociedades, la diversidad cognitiva impulsa la creatividad y la resolución de problemas, afirman los investigadores. Sin embargo, la diversidad cognitiva está disminuyendo en todo el mundo, ya que miles de millones de personas utilizan los mismos chatbots de IA para un número cada vez mayor de tareas. Cuando las personas utilizan chatbots para pulir su escritura, por ejemplo, esta pierde su individualidad estilística y se sienten menos responsables de su producción creativa.

"La preocupación no es sólo que los LLM moldeen la manera en que la gente escribe o habla, sino que redefinen sutilmente lo que cuenta como un discurso creíble, una perspectiva correcta o incluso un buen razonamiento", advierte Sourati.

El equipo señala múltiples estudios que muestran que los resultados de los estudios de maestría en derecho son menos variados que los escritos generados por humanos y que tienden a reflejar el lenguaje, los valores y los estilos de razonamiento de las sociedades occidentales, educadas, industrializadas, ricas y democráticas.

"Dado que los LLM están entrenados para capturar y reproducir regularidades estadísticas en sus datos de entrenamiento, que a menudo sobrerrepresentan los idiomas e ideologías dominantes, sus resultados a menudo reflejan una porción estrecha y sesgada de la experiencia humana", dice Sourati.

 

Los LLM favorecen los modos de razonamiento lineal

 

Aunque los estudios muestran que los individuos a menudo generan más ideas con más detalles cuando utilizan LLM, los grupos de personas producen menos ideas y menos creativas cuando utilizan LLM que cuando simplemente combinan sus poderes colectivos, señalan los investigadores.

"Aunque las personas no sean usuarias directas de los LLM, estos les afectarán indirectamente", insiste Sourati. "Si mucha gente a mi alrededor piensa y habla de cierta manera, y yo hago las cosas de forma diferente, sentiría la presión de alinearme con ellos, porque parecería una forma más creíble o socialmente aceptable de expresar mis ideas".

Más allá del lenguaje, estudios han demostrado que, tras interactuar con LLM sesgados, las opiniones de las personas se asemejan más al LLM que utilizaron. Los LLM también favorecen los modos de razonamiento lineal, como el razonamiento en cadena, que requiere que los modelos muestren el razonamiento paso a paso. Este énfasis reduce el uso de estilos de razonamiento intuitivo o abstracto, que a veces son más eficientes que el razonamiento lineal, afirman los investigadores. También señalan que los LLM pueden alterar las expectativas de las personas, lo que puede cambiar sutilmente la dirección del trabajo de una persona.

En lugar de dirigir activamente la generación, los usuarios a menudo se dejan llevar por las continuaciones sugeridas por el modelo

"En lugar de dirigir activamente la generación, los usuarios a menudo se dejan llevar por las continuaciones sugeridas por el modelo y seleccionan opciones que parecen suficientemente buenas en lugar de crear las suyas propias, lo que gradualmente desplaza la iniciativa del usuario al modelo", explica Sourati.

Los investigadores afirman que los desarrolladores de IA deberían incorporar intencionalmente la diversidad de lenguaje, perspectivas y razonamiento en sus modelos. Enfatizan que esta diversidad debería basarse en la diversidad que existe en los humanos a nivel global, en lugar de introducir variaciones aleatorias.

"Si los LLM tuvieran formas más diversas de abordar ideas y problemas, apoyarían mejor la inteligencia colectiva y las capacidades de resolución de problemas de nuestras sociedades", agrega Sourati. "Necesitamos diversificar los propios modelos de IA y, al mismo tiempo, ajustar nuestra interacción con ellos, especialmente dado su uso generalizado en diversas tareas y contextos, para proteger la diversidad cognitiva y el potencial de ideación de las generaciones futuras".

Referencias