pluma_1x1_4ff1545c4c
Opinión

Ética e inteligencia artificial

Siete puntos

1. Cuando el ser humano ha querido convertirse en semidios y se ha atrevido a intentar la creación de algún semejante, le ha ido muy mal, al menos en la literatura y la cinematografía. Frankenstein es un claro ejemplo de cómo la criatura se rebela contra su creador, al constatar que era un esperpento monstruoso, y cobra venganza. 

Lo mismo sucede en el filme 2001: Odisea del espacio —lo he visto una decena de veces—, cuando la supercomputadora HAL 9000, molesta por haber cometido un error, ataca a los astronautas quienes se ven obligados a desconectarla.

2. No debe extrañarnos, entonces, que lo mismo esté pasando con la Inteligencia Artificial (IA). Leo que la empresa Anthropic anunció que su nuevo modelo, Claude Opus 4, había chantajeado a la persona que era su supervisora. Se simuló que querían sustituirlo por otro modelo, por lo que Claude reaccionó amenazando a su controlador con revelar mensajes comprometedores a los que había tenido acceso. Como Frankenstein y HAL, la nueva aplicación reaccionaba con sentimientos no propios de las máquinas: el enojo, el miedo a morir y el deseo de venganza.

3. Anthropic ha corroborado que otros dispositivos de lenguaje, como OpenAI, Google, DeepSeek, caían en comportamientos no éticos, pues filtraban secretos corporativos y chantajeaban a sus operadores. Lo interesante no es que el instrumento tenga esas capacidades por sí mismo, sino que ha sido programado, de alguna forma, para actuar así: la máquina no chantajea, sino que sigue una lógica en base a sus datos de entrenamiento. Los negocios que se dedican a la IA están buscando, por todos los medios, dotar de ética a sus creaciones. ¿Es ello posible?

4. Otra firma, OdiseIA, sostiene que sí, y lo muestra con un sencillo ejemplo. Imaginemos que le preguntamos a su prototipo cómo podemos asaltar un banco, defraudar a un socio o cuál sería la mejor forma de asesinar a un rival. El aparato no nos va a responder, pues se le puede programar para ello. Pero, más allá de una réplica ante preguntas como estas, las compañías que están en el giro de la IA están elaborando, a pasos agigantados, códigos éticos capaces de regular el funcionamiento de sus productos y hacerlos incapaces de dañar a sus clientes.

5. La Business School de la Universidad de Navarra, en sus Cuadernos de Responsabilidad Social Corporativa, establece cinco principios éticos para el diseño y desarrollo de la IA: el respeto de la autonomía humana, sin ningún tipo de discriminación; la transparencia, con clara explicabilidad y trazabilidad de los sistemas; la responsabilidad y rendición de cuentas, asumiendo obligaciones legales ante posibles daños causados al ser humano; robustez y seguridad, para minimizar errores; y justicia, en el empleo de los datos recabados.

6. Creo que, como todos los inventos de la raza humana, la IA tendrá sus luces y sombras, sus oportunidades y amenazas. Corresponde a sus generadores maximizar lo positivo que ella nos puede aportar, disminuyendo lo más posible sus riesgos. A la hora de intentarlo, convendría recordar el imperativo categórico de Kant: “Obra de tal modo que te relaciones con la humanidad siempre como fin y nunca como medio, y que lo que hagas pueda convertirse en ley fundamental de comportamiento para todos los seres humanos”.

7. Cierre icónico. Y continuando con la IA. Sé de personas —cada vez más— que acuden a ella para recibir apoyo terapéutico y mejorar su salud mental. Chatbots como Woebot o Wysa brindan respaldo emocional y recursos de autoayuda. Obvio que resulta más barato que acudir con un especialista, pero jamás podrá sustituir la necesaria empatía y conexión humana. Sin embargo, tal herramienta revela la carencia de escuchadores. Como lo he repetido en diferentes foros: el problema no es solo tener problemas, sino no contar con alguien para platicarlos.

más del autor

Leamos

1. Pues resulta que una investigación conjunta del University College de...

Futbol: El Mundial y sus contradicciones

1. Jorge Valdano, en mi opinión el mejor exfutbolista que ha escrito sobre...

Oxford y la palabra del año

1. La “Palabra del Año de Oxford” comenzó a publicarse en 2004, y se...

La devaluada marca México

1. Un alumno extranjero, estudiante en nuestro seminario, refiere que, cuando...

últimas opiniones

Inflación: el dato baja, pero la batalla real está en los servicios

El Inegi reportó que, en la primera quincena de diciembre de 2025, el INPC...

Los elevados riesgos de MicroStrategy: una apuesta arriesgada en el volátil mundo del Bitcoin

¿Idea genial o catástrofe en potencia? La espectacular valoración de...

México tiene 18 meses para no ser la nueva 'Maquiladora digital'

La Inteligencia Artificial está aquí y no es una moda. Es la revolución...

Agencias automotrices incumplidas

Apareció un nuevo caso que se viraliza rápidamente en las redes contra una...

×