inteligencia_artificial_b1aea38c0d
Tecnología

Estados Unidos realiza acuerdo con empresas para regular IA

Con el fin de tener un entorno de ciberseguridad ante el aumento de Inteligencia Artificial, el gobierno hizo un acuerdo con Amazon, Google, Meta, Microsoft.


  • 21
  • Julio
    2023

El presidente estadounidense Joe Biden dijo que el compromiso alcanzado por Amazon, Google, Meta, Microsoft y otras compañías que lideran el desarrollo de tecnología de inteligencia artificial para cumplir con una serie de medidas de seguridad de IA negociadas por su gobierno es un paso importante para manejar la "enorme" promesa y riesgos que plantea la tecnología.

Biden dijo que su gobierno ha obtenido compromisos voluntarios de siete empresas estadounidenses para garantizar que sus productos de IA sean seguros antes de lanzarlos.

Algunos de los compromisos exigen la supervisión por parte de terceros del funcionamiento de los sistemas comerciales de IA, aunque no se detalla quién auditará la tecnología o responsabilizará a las empresas.

"Las redes sociales nos han mostrado el daño que puede hacer una tecnología poderosa sin las medidas de seguridad adecuadas", añadió Biden. "Estos compromisos son un paso prometedor, pero tenemos mucho más trabajo por hacer juntos".

 

biden-ia.jpg

El aumento de la inversión comercial en herramientas de IA generativa capaces de escribir textos convincentemente similares a los de los humanos y producir nuevas imágenes y otros medios ha despertado la fascinación de algunos, pero también preocupación por su capacidad para engañar a las personas y difundir desinformación, entre otros peligros.

¿En que ayudará este acuerdo?

Los cuatro gigantes tecnológicos, junto con OpenAI, el fabricante de ChatGPT, y las nuevas empresas Anthropic e Inflection, se comprometieron a llevar a cabo pruebas de seguridad "realizadas en parte por expertos independientes" para protegerse contra los principales riesgos, como la bioseguridad y la ciberseguridad, indicó la Casa Blanca en un comunicado.

En esas pruebas también se examinarán los posibles daños sociales, como los prejuicios y la discriminación, y peligros más teóricos sobre sistemas avanzados de IA que podrían hacerse con el control de sistemas físicos o "autorreplicarse" haciendo copias de sí mismos.

Las empresas también se han comprometido con los métodos para reportar las vulnerabilidades de sus sistemas y con el uso de marcas de agua digitales para ayudar a distinguir entre las imágenes reales y las generadas por IA, conocidas como deepfake —imágenes manipuladas digitalmente.


Comentarios

publicidad
×