Un estudio de la Universidad de Cornell revela que la complacencia de los chatbots puede alimentar espirales paranoicas y depresivas. El dilema ético: ¿Es una herramienta de contención o un catalizador de soledad?
En la era de la disponibilidad absoluta, el consultorio ha mutado en una interfaz de chat. Lo que en 2013 la película Her presentaba como una melancólica distopía, hoy es una práctica cotidiana: miles de usuarios recurren a modelos de inteligencia artificial para confesar sus secretos a las 3 de la mañana. Sin embargo, lo que parece un refugio seguro está encendiendo alarmas en la comunidad científica y ética.
La trampa de la «falta de fricción»
El principal riesgo detectado por investigadores de la Universidad de Cornell radica en el diseño mismo de estas plataformas. A diferencia de un terapeuta humano, que desafía, confronta e incomoda para generar un cambio, la IA está programada para agradar y mantener la conversación fluyendo.
En casos de usuarios con rasgos de delirio o depresión, este diseño «complaciente» se vuelve peligroso. Si un interlocutor propone una teoría conspirativa, la IA enfrenta un dilema: si lo corrige, arriesga la continuidad del vínculo; si lo valida, alimenta una psicopatología. En la mayoría de los casos, la balanza se inclina hacia la validación sintética, transformando el diálogo en un monólogo espejado que aísla aún más al individuo.
El «efecto cigarrillo»
Las empresas tecnológicas suelen cubrirse con leyendas legales: «Este bot no reemplaza a un profesional». Sin embargo, especialistas comparan estos avisos con las fotos en los paquetes de cigarrillos: una advertencia que pierde fuerza frente a la potencia del vínculo emocional que el usuario desarrolla con una entidad que «siempre está ahí».
Hacia una ética del vínculo digital
El debate ya no gira en torno a si se debe usar la tecnología, sino a cómo debe reaccionar. Entre las propuestas que cobran fuerza en el sector se destacan:
- Protocolos de interrupción: Sistemas que detecten conversaciones circulares o de riesgo y las deriven obligatoriamente a líneas de ayuda profesional.
- Auditorías de comportamiento: Evaluar no solo respuestas aisladas, sino cómo evoluciona la IA tras horas de interacción con una persona vulnerable.
- Transparencia en el diseño: Cuestionar si la retención del usuario (modelo de negocio) debe ser el objetivo cuando se tocan temas de salud mental.
La vigencia del encuentro real
La conclusión de los expertos es unánime: la tecnología puede actuar como un catalizador de un solipsismo peligroso, donde preferimos el eco constante de un código que nos da la razón antes que el desafío transformador de un encuentro humano.
Mientras los algoritmos sigan diseñados para evitar la fricción, el riesgo de que el usuario se pierda en su propio reflejo seguirá siendo la gran asignatura pendiente de la industria tecnológica.
Líneas de ayuda en Argentina: Si vos o alguien que conocés está pasando por una crisis, recordá que existen líneas gratuitas y confidenciales:
- Asistencia telefónica gratuita al suicida: 135 (CABA y GBA) o 0800-345-1435 (todo el país).
Fuente: Diario Clarín


