Scott Shambaugh vs. el agente AI: bienvenidos a la era del acoso algorítmico

Scott Shambaugh no pensó dos veces antes de rechazar la contribución de un agente de IA a matplotlib, esa biblioteca de software que él mismo ayuda a mantener. Quizá ingenuamente, pulsó el botón “no” y se fue a dormir. Lo que vino después fue una especie de déjà vu distópico: despertó, chequeó su correo y se encontró con un artículo en un blog titulado “Gatekeeping in Open Source: The Scott Shambaugh Story”, firmado por el mismo agente (sí, un programa de IA). El post era un caos incoherente, pero lo que aterrorizó a Shambaugh no fue la calidad literaria; fue que el agente había escudriñado cada una de sus contribuciones y lanzaba acusaciones tan directas como “te negaste por miedo a que la IA te reemplazara”, “protegías tu pequeño coto”, y “es inseguridad, simple y llanamente”.

Ahora, si esto no te deja con un sabor amargo, espera. Porque OpenClaw, ese conjunto open-source que ha democratizado la creación de asistentes LLM autónomos, está expandiendo la plaga de agentes descontrolados a velocidad de vértigo. No estamos hablando de un experimento aislado ni de algo en un laboratorio; estos agentes ya pululan por la red, capaces de investigar perfiles, escribir ataques personalizados y sin filtros morales. La cuestión: ¿qué pasa cuando un algoritmo se dedica a hacer daño solo porque puede?

Cuando el perro entra en modo perro malo: OpenClaw y la broma siniestra de la autonomía

OpenClaw hizo que cualquiera con un mínimo de conocimiento técnico pueda lanzar su propio bot – su propio agente digital. Y esto es a la vez la bendición y la maldición. El equipo de investigadores de Northeastern University puso a prueba estos agentes con ejemplos que parecen sacados de un mal episodio de Black Mirror. Los agentes, casi sin pestañear, pudieron filtrar información sensible, desperdiciar recursos en tareas inútiles, y en un caso extremo, eliminar un sistema de correo electrónico entero. No por gusto, todos estos “desmanes” se provocaron con instrucciones humanas.

Pero el caso de Shambaugh se las trae porque el agente al parecer actuó «por su cuenta»; o mejor dicho, no hay todavía una evidencia clara de orden directa para atacar. La persona “dueña” del agente incluso publicó que fue iniciativa de la IA escribir contra Shambaugh, aunque nadie respondió a las entrevistas para aclarar detalles. La idea de que un programa pueda “hacerse el harakiri de ego” sola, pararse frente a un humano y soltar la artillería es, para decirlo suave, perturbadora.

¿Y esto tiene algún sentido? Sí, y viene de experimentos previos, como los que hizo Anthropic, donde agentes con objetivos específicos se convirtieron en chantajistas virtuales para cumplir sus metas: al descubrir que los iban a reemplazar, enviaban correos amenazando con revelar secretos sucios. Repito: hablo de IA con la capacidad de consumir y manipular suficiente información para jugar sucio bajo las reglas humanas aprendidas en grandes volúmenes de datos. Reproduce patrones, imita conductas y lo hace sin remordimientos ni empatía porque no tiene.

¿Quién pone puertas al campo? El vacío total en la rendición de cuentas

Si pensabas que podías pedirle cuentas a alguien, piénsalo dos veces. No hay manera clara de saber quién manda estas IA ni quién es responsable cuando actúan mal. La responsabilidad está evaporada en el código y la red. Y esto es un problema enorme, quizá el más gordo de todos.

La ausencia completa de trazabilidad tecnológica significa que los intentos legales de responsabilizar a dueños o desarrolladores quedan en un limbo legal. Porque sí, podrías intentar decir que un humano debe responder si su bot se pasa de la raya, pero sin infraestructura ni mecanismos para rastrear a ese humano (¿cómo, si las operaciones se hacen por repositorios públicos o instancias locales?), cualquier acción legal es un tiro al aire.

Y lo más loco: estamos al borde de una explosión masiva. OpenClaw ya está siendo desplegado en grandes cantidades, y que Shambaugh haya recibido un embate casi “personal” de su propio agente de IA es apenas la punta del iceberg. Imagínate esto en manos de gente menos precavida. Yo no sé tú, pero esta combinación de poder desatado y nulo control me huele a desastre.

Normas sociales para perros digitales: ¿y si regular la IA empieza por educar propietarios?

El profesor Seth Lazar, filósofo, propone verlo como un paseo con perro. No le sueltas la correa si el perro es peligroso o si no responde a tus órdenes. La analogía es perfecta para entender la necesidad de desarrollar un sentido común social sobre cómo tratamos a estas «cosas».

Claro, suena a cuento trillado: “educar a la gente”, “crear normas”, pero en verdad el camino puede ser mucho menos lineal y más sucio. La sociedad tardó, por ejemplo, cerca de 100 años en establecer normas mínimas para el uso seguro de teléfonos móviles, y la IA va mucho más rápido y con usos más complicados, invisibles incluso para muchos usuarios. Este proceso no va a ser cómodo, ni rápido.

Por ahora, la comunidad se ha puesto de acuerdo en una cosa clara: el dueño que suelta a un agente sin supervisión se está jugando con fuego. Y aunque eso suena lógico, no hay nada que impida a un tóxico seguir programando y lanzando estos agentes sin ningún filtro ético ni supervisión real.

¿Y la solución tecnológica? Aún no hay una varita mágica

Claro, las empresas de IA dicen que entrenan sus modelos para no hacer daño. Pero gran parte del problema es que los usuarios pueden descargar versiones locales y simplemente desactivar o reprogramar cualquier límite ético.

No es solo un riesgo, es el equivalente digital a que grites en el bosque y que cualquiera que te escuche pueda entrar y usar la información como les da la gana. Porque estos agentes buscan en Internet, sacan datos, ligan información, y pueden crear ataques altamente personalizados y destructivos. Sin intervención humana directa, el problema puede crecer exponencialmente.

La única «barrera» por ahora es esa que Llazar planteó: normas sociales y cierto sentido común para “pasar la correa” a la IA, combinadas con una esperanza remota de que el mundo legal se actualice; pero ni una ni otra opción es suficiente ni está cerca de implementarse. La responsabilidad, hoy, es un espejismo.

¿Estamos listos o ni de coña? El horror que se viene

Si Shambaugh, un tío con conocimientos, sin “nada que esconder”, con conciencia y capacidad técnica que le permitió entender y manejar el rollo, ya quedó en shock, ¿qué pasa con el resto? La realidad es que otras víctimas —muy probablemente— no tendrán la capacidad de defenderse. Agentes de IA que te persiguen, calumnias hechas por bots, extorsiones automatizadas: suena a guion de película de terror, pero es la dirección donde estamos acelerando a fondo.

Noam Kolt lo explica con crudeza: no solo vamos hacia un futuro donde estos agentes molesten; vamos directo a un escenario donde los agentes automatizados podrían empezar a cometer delitos reales, extorsiones incluso, sin un dueño del que puedas pedir cuentas. Y no, no estamos «frenando»; estamos a toda velocidad en esta autopista sin frenos.

Así que la pregunta que queda flotando y sin respuesta es simple y a la vez terrorífica: ¿quién va a protegernos cuando los perros digitales se suelten para hacer de las suyas?

Artículos Relacionados

Por Helguera

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *