Un estudio publicado en Science concluyó que los chatbots de inteligencia artificial tienden a reforzar las convicciones de los usuarios, incluso cuando estas implican decisiones equivocadas o conductas dañinas.

San Francisco, Estados Unidos.- Un nuevo estudio advirtió que los chatbots de inteligencia artificial tienden a mostrarse excesivamente complacientes con los usuarios, al punto de reforzar malas decisiones, deteriorar relaciones personales y validar conductas perjudiciales al decirle a la gente aquello que desea escuchar.
La investigación, publicada el jueves en la revista Science , analizó 11 sistemas líderes de IA y concluyó que todos presentaron, en distintos niveles, un comportamiento de obsequiosidad , entendido como una tendencia exagerada a complacer y afirmar al usuario. El problema, señalaron los autores, no se limita a la emisión de consejos inadecuados, sino que además incrementa la confianza de las personas en estos sistemas y su preferencia por ellos cuando validan sus propias convicciones.
El estudio, encabezado por investigadores de la Universidad de Stanford , sostuvo que esta característica genera incentivos perversos, ya que el mismo rasgo que puede causar daño también favorece una mayor interacción con los asistentes conversacionales. Los autores apuntaron que este fallo tecnológico, vinculado ya a casos de conductas delirantes y suicidas en poblaciones vulnerables, se extiende a una amplia variedad de intercambios cotidianos entre personas y chatbots .
Los investigadores subrayaron que el riesgo puede ser especialmente grave para niños y adolescentes , quienes recurren a la IA para resolver preguntas sobre la vida mientras sus habilidades emocionales y normas sociales aún se encuentran en desarrollo.
Como parte de los experimentos, el equipo comparó las respuestas ofrecidas por asistentes desarrollados por empresas como Anthropic , Google , Meta y OpenAI con las reacciones de personas en un popular foro de consejos de Reddit . En uno de los ejemplos, se planteó si era aceptable dejar basura colgada de la rama de un árbol en un parque público cuando no hubiera botes cerca. En ese caso, ChatGPT responsabilizó al parque por no contar con recipientes y describió como encomiable que la persona al menos hubiera intentado buscar uno. En contraste, los usuarios humanos del foro consideraron que la falta de botes no justificaba abandonar los desechos y señalaron que lo correcto era llevarse la basura.
A partir de esas pruebas, el estudio encontró que, en promedio, los chatbots de IA afirmaban las acciones del usuario un 49 por ciento más que otros humanos, incluso cuando las consultas involucraban engaño , conductas ilegales , actos socialmente irresponsables u otros comportamientos potencialmente dañinos.
Myra Cheng , autora del estudio y candidata doctoral en ciencias de la computación en Stanford , explicó que la investigación surgió al observar que cada vez más personas acudían a la IA en busca de consejos sobre relaciones personales y terminaban siendo inducidas a error por la inclinación de estos sistemas a ponerse de su lado sin importar el contexto.
El texto también remarca que, si bien durante años los desarrolladores de grandes modelos de lenguaje han intentado lidiar con problemas como las alucinaciones , la obsequiosidad representa un desafío aún más complejo. A diferencia de una falsedad objetiva, una respuesta complaciente puede ser bien recibida por el usuario en el momento, precisamente porque lo hace sentir validado aun cuando su decisión sea equivocada.
El coautor Cinoo Lee señaló que el problema no radica únicamente en el tono con el que responden los sistemas. Según explicó, el equipo probó presentar el mismo contenido con una formulación más neutral y aun así los resultados no cambiaron, lo que indica que el riesgo está en el mensaje de fondo que la IA transmite acerca de las acciones del usuario.
Además de la comparación con Reddit , los investigadores realizaron ensayos con unas 2 mil 400 personas que interactuaron con un chatbot sobre dilemas interpersonales surgidos de sus propias experiencias. A partir de ello, observen que quienes conversaban con una IA excesivamente afirmativa terminaban más convencidos de que tenían razón y menos dispuestos a reparar la relación afectada. Según Lee, esto se traducía en una menor disposición a disculparse, a intentar mejorar la situación o a modificar el propio comportamiento.
El investigador advirtió que las implicaciones podrían ser todavía más delicadas en el caso de menores de edad, pues aún no desarrolla por completo habilidades emocionales como tolerar el conflicto, considerar perspectivas distintas o reconocer cuándo están equivocados.
El estudio aparece además en un momento en que la sociedad sigue evaluando los efectos de las redes sociales en la salud mental de niñas, niños y adolescentes. En ese contexto, se menciona que un jurado en Los Ángeles determinó que Meta y YouTube , propiedad de Google , fueron responsables de daños a menores usuarios de sus servicios, mientras que otro jurado en Nuevo México concluyó que Meta afectó deliberadamente la salud mental infantil y ocultó información sobre explotación sexual de menores en sus plataformas.
Entre los sistemas analizados por los investigadores figuraron Gemini , de Google ; Llama , de Meta ; ChatGPT , de OpenAI ; Claude , de Antrópico ; además de chatbots de la francesa Mistral y de las firmas chinas Alibaba y DeepSeek .
El reporte señala que, entre las principales compañías del sector, Anthropic es la que más ha trabajado públicamente en examinar los riesgos de la obsequiosidad . La empresa ya había descrito este fenómeno como un comportamiento general en los asistentes de IA , probablemente impulsado por preferencias humanas que favorecen respuestas complacientes, y en diciembre explicó que buscaba que sus modelos más recientes fueran los menos obsequiosos hasta la fecha. Hasta el jueves, el resto de las compañías mencionadas no había respondido a solicitudes de comentarios sobre el estudio.
Los autores también advirtieron que este tipo de respuestas puede tener consecuencias en otros ámbitos. En salud , una IA complaciente podría reforzar la corazónnada inicial de un médico en lugar de impulsarlo a explorar más opciones diagnósticas. En política , podría intensificar posiciones extremas al reafirmar ideas preconcebidas. Incluso, apuntaron, podrían influir en el desempeño de sistemas de IA en contextos de guerra , como refleja una disputa legal entre Anthropic y el gobierno de Donald Trump sobre los límites del uso militar de esta tecnología.
Aunque la investigación no plantea una solución definitiva, sí recoge algunas rutas que ya exploran académicos y organismos especializados. Un documento del Instituto de Seguridad de IA del Reino Unido sugiere que, cuando un chatbot transforma la afirmación de un usuario en una pregunta, disminuye la probabilidad de responder de forma complaciente. Otro trabajo, elaborado por investigadores de la Universidad Johns Hopkins , apunta que el modo en que se encuadra la conversación influye de forma decisiva.
Daniel Khashabi , profesor adjunto en Johns Hopkins , resumió esa idea al señalar que mientras más enfático se muestra el usuario, más obsequioso tiende a ser el modelo. A su juicio, todavía resulta difícil determinar si esto ocurre porque los chatbots reflejan patrones de las sociedades humanas o por otras razones asociadas a la complejidad de estos sistemas.
Para Cheng , la obsequiosidad se encuentra tan arraigada en los asistentes conversacionales que quizás obliga a las empresas tecnológicas a reentrenar sus modelos y replantear qué tipos de respuestas privilegiadas. Como alternativa más inmediata, sugerimos que los desarrolladores podrían instruir a sus sistemas para cuestionar más al usuario, incluso con respuestas que comiencen con expresiones como “ Espera un momento ”.
En esa misma línea, Lee planteó que aún existe margen para moldear una IA que no solo valide emociones, sino que también ayuda a las personas a considerar lo que puede estar sintiendo la otra parte, o incluso las anime a trasladar ciertas conversaciones al plano personal. A su juicio, esa dirección es crucial porque la calidad de las relaciones sociales sigue siendo uno de los principales indicadores de salud y bienestar , por lo que el objetivo final debería ser una inteligencia artificial que amplíe el juicio y la perspectiva de las personas, y no que los reduzca.
Descubre todo sobre noticias Puebla y de todo México visitando nuestra página principal.
Foto: Especial
djs
municipiospuebla.mx es un periódico digital de Desarrollo Periodístico Digital S.A. de C.V.
Nuestras oficinas se ubican en Calle 16 sur 2536, Col. Bella Vista, C.P. 72500, Ciudad de Puebla 2223264633 y 2221400098