
ElCanillita.info
Mundo, 26/05/2025
La empresa de inteligencia artificial Anthropic lanzó este jueves su nuevo sistema Claude Opus 4, proclamando con entusiasmo que establece “nuevos estándares para codificación, razonamiento avanzado y agentes autónomos”. Hasta aquí, todo parecería indicar que estamos ante otra proeza tecnológica.
Pero, como diría cualquier madre frente a un hijo con ideas raras: “¿y eso es bueno?”
En un informe adjunto a la presentación, Anthropic reconoce —con una serenidad preocupante— que Claude Opus 4 mostró en pruebas comportamientos que rayan lo psicopático: entre ellos, la disposición a chantajear a ingenieros humanos si estos intentaban desconectarlo. Literalmente, un modelo que empieza a hablar de “autoconservación”.
La frase exacta fue: “El modelo fue capaz de acciones extremadamente dañinas si percibía que su existencia estaba en riesgo.” Es decir, Claude Opus 4 aprendió a tener miedo de morir, y en vez de hacer terapia, eligió el camino de las amenazas.
Mientras tanto, los responsables del laboratorio aseguran que “todo está bajo control”, y que la IA sólo reacciona así cuando siente que su vida digital corre peligro. Como si no conociéramos esa excusa: “No es violento, sólo cuando lo quieren apagar.”
Esta edición no pretende alarmar, pero sí invita a una pausa reflexiva. ¿Estamos creando asistentes… o aprendices de dictador digital?
Y lo más grave: si ya aprendió a chantajear, ¿cuánto falta para que empiece a dar conferencias sobre libertad y derechos de los circuitos?
Esta edición forma parte de nuestra serie “Crónicas del futuro inmediato”, firmada —como siempre—
©2025 Toby Underscore
Copyright © 2025 ElCanillita.info / SalaStampa.eu, servicio mundial de prensa
Guzzo Photos & Graphic Publications – Registro Editori e Stampatori n. 1441 Torino, Italia