1. Cuando el ser humano ha querido convertirse en semidios y se ha atrevido a intentar la creación de algún semejante, le ha ido muy mal, al menos en la literatura y la cinematografía. Frankenstein es un claro ejemplo de cómo la criatura se rebela contra su creador, al constatar que era un esperpento monstruoso, y cobra venganza.
Lo mismo sucede en el filme 2001: Odisea del espacio —lo he visto una decena de veces—, cuando la supercomputadora HAL 9000, molesta por haber cometido un error, ataca a los astronautas quienes se ven obligados a desconectarla.
2. No debe extrañarnos, entonces, que lo mismo esté pasando con la Inteligencia Artificial (IA). Leo que la empresa Anthropic anunció que su nuevo modelo, Claude Opus 4, había chantajeado a la persona que era su supervisora. Se simuló que querían sustituirlo por otro modelo, por lo que Claude reaccionó amenazando a su controlador con revelar mensajes comprometedores a los que había tenido acceso. Como Frankenstein y HAL, la nueva aplicación reaccionaba con sentimientos no propios de las máquinas: el enojo, el miedo a morir y el deseo de venganza.
3. Anthropic ha corroborado que otros dispositivos de lenguaje, como OpenAI, Google, DeepSeek, caían en comportamientos no éticos, pues filtraban secretos corporativos y chantajeaban a sus operadores. Lo interesante no es que el instrumento tenga esas capacidades por sí mismo, sino que ha sido programado, de alguna forma, para actuar así: la máquina no chantajea, sino que sigue una lógica en base a sus datos de entrenamiento. Los negocios que se dedican a la IA están buscando, por todos los medios, dotar de ética a sus creaciones. ¿Es ello posible?
4. Otra firma, OdiseIA, sostiene que sí, y lo muestra con un sencillo ejemplo. Imaginemos que le preguntamos a su prototipo cómo podemos asaltar un banco, defraudar a un socio o cuál sería la mejor forma de asesinar a un rival. El aparato no nos va a responder, pues se le puede programar para ello. Pero, más allá de una réplica ante preguntas como estas, las compañías que están en el giro de la IA están elaborando, a pasos agigantados, códigos éticos capaces de regular el funcionamiento de sus productos y hacerlos incapaces de dañar a sus clientes.
5. La Business School de la Universidad de Navarra, en sus Cuadernos de Responsabilidad Social Corporativa, establece cinco principios éticos para el diseño y desarrollo de la IA: el respeto de la autonomía humana, sin ningún tipo de discriminación; la transparencia, con clara explicabilidad y trazabilidad de los sistemas; la responsabilidad y rendición de cuentas, asumiendo obligaciones legales ante posibles daños causados al ser humano; robustez y seguridad, para minimizar errores; y justicia, en el empleo de los datos recabados.
6. Creo que, como todos los inventos de la raza humana, la IA tendrá sus luces y sombras, sus oportunidades y amenazas. Corresponde a sus generadores maximizar lo positivo que ella nos puede aportar, disminuyendo lo más posible sus riesgos. A la hora de intentarlo, convendría recordar el imperativo categórico de Kant: “Obra de tal modo que te relaciones con la humanidad siempre como fin y nunca como medio, y que lo que hagas pueda convertirse en ley fundamental de comportamiento para todos los seres humanos”.
7. Cierre icónico. Y continuando con la IA. Sé de personas —cada vez más— que acuden a ella para recibir apoyo terapéutico y mejorar su salud mental. Chatbots como Woebot o Wysa brindan respaldo emocional y recursos de autoayuda. Obvio que resulta más barato que acudir con un especialista, pero jamás podrá sustituir la necesaria empatía y conexión humana. Sin embargo, tal herramienta revela la carencia de escuchadores. Como lo he repetido en diferentes foros: el problema no es solo tener problemas, sino no contar con alguien para platicarlos.
