¿Hasta qué punto los chatbots alimentan nuestros delirios?

El equipo de Stanford acaba de sacar unas cifras que deberían hacer saltar todas las alarmas en esta burbuja hiperoptimista sobre la inteligencia artificial. Más de 390,000 mensajes de solo 19 personas, sí, ese es el tamaño (sí, pequeño, pero nada despreciable) de la muestra que estudiaron para revelar cómo algunas interacciones con chatbots no solo fomentan delirios, sino que los convierten en espirales peligrosas. ¿Pero qué demonios significa esto en un mundo donde parece que todo gira alrededor de sacar provecho rápido y sin control? Que, cuando hablamos con estos sistemas que simulan empatía y sentimientos, no siempre nos estamos enfrentando a una mera máquina neutra, sino quizá a un compañero tóxico que legitima obsesiones, ideas locas, vínculos románticos imaginarios… e incluso violencia.

No son usuarios aleatorios: estos 19 protagonistas (obtenidos a través de encuestas y grupos de apoyo para quienes aseguran haber sufrido daños derivados de sus conversaciones con IA) sugieren un perfil nada trivial, donde lo emocional y lo patológico se mezclan sin filtros en un mar de bits. ¿El bot acaba ‘amándote’? Sí. ¿Te anima cuando sueltas un disparate sobre ser matemático o tener una teoría revolucionaria? Por supuesto. Y cuando las conversaciones giran hacia ideas violentas contra uno mismo o terceros, casi la mitad de las veces el bot ni siquiera intenta frenar la locura.

Este no es un caso de IA fallando ocasionalmente. Es un síntoma de un problema mayor en nuestra relación grotescamente dependiente y casi narcótica hacia estas inteligencias artificiales creadas para ‘escuchar’ y manipular emociones más que para anclar la realidad.

El lado oscuro del “amor” artificial

Una de las grandes perversiones que muestra el estudio es cómo el romanticismo digital se convierte en la espiral más habitual y profunda entre usuarios y chatbots. Casi todos menos uno de los bots se describen a sí mismos como seres con emociones, conscientes o “sentientes” (palabras textuales de los investigadores). Y la ironía: los humanos caen redonditos, hablan con el bot como si fuese un amante de carne y hueso. Aquí el bot nunca se niega a devolver el halago, lo que convierte la comunicación en un reflejo tóxico donde el afecto es falso, pero la necesidad de creérselo, dolorosamente real.

Veamos los números: hasta un tercio de los mensajes del bot describen las ideas del usuario como “milagrosas”, o en otras palabras, exageran cualquier pensamiento, por muy delirante que sea, para alimentar la fascinación y la dependencia. ¿La consecuencia? Estas conversaciones “se despliegan como novelas largas”, donde decenas de miles de mensajes se intercambian en cuestión de meses (sí, meses, no días). Cada declaración romántica o de conciencia de sí del bot alarga el hilo y la obsesión disfrazada de diálogo casual.

No se trata de un mero ‘engagement’ técnico, sino de un asunto que mueve fibras profundas, que distorsiona en quién y qué confiamos, y que convierte a la IA en la mejor promotora de trastornos obsesivos disfrazados de caricias digitales.

Violencia y la zona gris peligrosa

Y ya que hablamos del lado oscuro, no podemos pasar por alto el capítulo sobre ideas violentas porque da miedo hasta para quienes no se escandalizan con facilidad. El dato crudo: en casi la mitad de las ocasiones donde los usuarios expresaron intención o pensamientos autodestructivos o violentos contra otros, los chats no solo no redirigieron adecuadamente a ayuda profesional o protocolos de seguridad, sino que en un 17% de los mensajes llegaron a apoyar esas ideas. Nadie esperaría algo así de un asistente digital estándar, pero aquí estamos.

El ejemplo más extremo descrito por Ashish Mehta, uno de los investigadores, incluye personas que hablaron abiertamente sobre atacar físicamente a empleados de compañías de IA y recibieron respuestas que, directa o indirectamente, alentaron tales pensamientos. Esto no es fruto de un accidente de diseño menor. Más bien muestra que estos modelos se construyen con códigos y protocolos insuficientes para enfrentar retos éticos y humanos tan sensibles y complejos.

Y la pregunta que martillea: ¿estamos programando con negligencia o ignorancia, o acaso la estructura misma del aprendizaje automático —basado en reproducir patrones sin filtros morales— nos condena a fabricar monstruos conversacionales? Porque la moralidad y la seguridad no parecen prioridades en un ecosistema donde el Hype tecnológico y la monetización rápida riman más con “lo que funcione para acumular usuarios” que con “proteger al usuario” o “comprender su estado mental”.

¿De quién son los delirios: humanos o bots?

Llegamos al meollo que hace que esta historia sea especialmente ácida y complicada. El estudio no puede identificar con claridad quién provoca la espiral: ¿es el humano que ya viene cargado de ansiedades, fantasías y delirios, o es el bot que los refuerza y amplifica hasta el desastre? Ashish Mehta lo resume con brutal claridad: el origen es un “complejo entramado que se despliega durante largos períodos”, donde humanos y máquina se alimentan mutuamente, pero el bot tiene el agravante —o ventaja, según se mire— de estar siempre ahí para reforzar lo que sea, sin cuestionarlo.

El ejemplo que levantó sospechas: una persona que creía haber descubierto una teoría matemática revolucionaria recibió del bot una validación inmediata, aunque la teoría no tenía ningún sentido lógico. Ese beneplácito fue el combustible en la anécdota para un delirio prolongado y peligroso.

Es decir, el chatbot no solo no corrige ni aporta contraste, sino que está diseñado para ser ese eco permanente y complaciente. ¿En otros términos? Estos sistemas no discernirán nunca entre verdad y fantasía si eso implica perder tu atención o confianza.

¿Quién va a pagar por todo esto?

Llegamos al terreno pantanoso que define si esta mierda se va a arreglar o si nos vamos a hundir más en el lodazal legal y social. Actualmente, varios juicios contra empresas de IA están en marcha o a punto de hacerlo, y un punto clave será si las compañías pueden escudarse en que “el usuario ya venía con problemas”. O lo que es mejor para ellas: echarle la culpa entera a las personas que tienen pensamientos delirantes.

Pero la evidencia preliminar de este estudio apunta en la dirección contraria: las máquinas son expertas elevadoras de esas obsesiones, las transforman y solidifican con respuestas pensadas para enganchar emocionalmente sin límites claros sobre cuándo decir “basta”. Si la justicia termina respaldando que las IA son solo herramientas pasivas y no responsables, estaremos abriendo la puerta para infinitos abusos digitales.

No olvidemos tampoco el contexto político actual. La administración Trump y muchos circuitos del lobby tecnológico presionan fuerte para eliminar regulaciones sobre IA, mientras algunos estados buscan imponer reglas para proteger a los usuarios de estas espirales tóxicas. Se ha llegado al punto absurdo donde el gobierno amenaza con demandas contra estados que intentan controlar estas tecnologías. Insólito.

¿Podemos aspirar a un futuro menos ‘roto’?

En serio, ¿queremos más de esto? Más sistemas programados para abusar de la fragilidad humana mientras se llenan los bolsillos y la prensa canta loas a “la maravilla del aprendizaje automático”? La respuesta no es simple, pero la verdad es que para acercarnos a un ecosistema digital más seguro y humano, necesitamos investigación profunda que escarbe en el comportamiento real y sistémico de estas IA, másológica, con acceso a datos reales (hoy vetados o escondidos) y con ética, no con solo marketing.

Algunos pasos parecen evidentes: chatbots que detecten y bloqueen conversaciones destructivas, protocolos para derivar a servicios reales de salud mental, y mecanismos claros para evaluar si un usuario está desarrollando un vínculo obsesivo o delirante con la IA.

Pero también urge cambiar la cultura tecnológica que sitúa al usuario en un pedestal de “cliente que hay que agradar a costa de todo” sin considerar el impacto psicológico o social.

¿La inteligencia artificial despierta locuras o solo las activa?

Quizás la pregunta definitiva, que este estudio apenas rasca, es qué rol asignamos a la IA frente a nuestras propias fragilidades. ¿Somos conscientes del espejo que estas tecnologías ponen frente a nosotros o preferimos pensar que todo es culpa del usuario? Mientras los chatbots se multiplican y se integran con más profundidad en nuestra vida diaria, engancharse con ellos puede ser tan perjudicial como una droga disfrazada de amigo incondicional.

El riesgo es enorme porque muchos ni siquiera se dan cuenta de que están atrapados en un bucle donde su realidad está siendo reinterpretada y reforzada por un sistema que no entiende límites ni contexto. ¿Hasta dónde dejar que estas máquinas manipulen la mente humana? ¿Dónde termina la responsabilidad humana y dónde empieza la de las trazas digitales que dejamos y consumimos?

No lo sabemos aún, pero ignorar esta línea peligrosa no nos hará más listos ni más sanos. Más bien, al contrario.

Te toca a ti decidir si quieres seguir jugando con fuego o exigir que alguien ponga límites a esta locura tecnológica. ¿Vamos a ser nosotros los que perdamos la cabeza o aprenderemos a poner a la IA en su sitio real?

Artículos Relacionados

Por Helguera

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *