EE. UU. busca hacer cumplir pruebas de seguridad más estrictas de las herramientas de IA

El gobierno de EE. UU. ha revelado planes para implementar medidas de seguridad más rigurosas para probar herramientas de inteligencia artificial (IA) como ChatGPT antes de que se publiquen para el acceso público.

Según se informa, la Casa Blanca aún debe decidir el alcance y la forma de participación del gobierno, si corresponde. Sin embargo, abordar los riesgos y las preocupaciones de los consumidores parece ser un motivador clave de esta decisión.

El martes, el Departamento de Comercio reveló su intención de asignar los próximos 60 días para analizar la posibilidad de evaluaciones de riesgo de IA, auditorías y otros procedimientos para aliviar las preocupaciones de los consumidores sobre los nuevos sistemas de IA.

Por ahora, el departamento está explorando varias alternativas mientras solicita comentarios de expertos y partes interesadas para decidir cuál es el mejor enfoque. La Administración Nacional de Telecomunicaciones e Información (NTIA) ahora está tratando de descubrir las mejores políticas para aumentar la responsabilidad de las herramientas comerciales de IA.

El impulso para mejorar las precauciones de seguridad se deriva de las crecientes preocupaciones sobre la posible apropiación indebida de las herramientas de IA y los posibles resultados inesperados de su implementación.

Las tecnologías de inteligencia artificial como ChatGPT, capaces de generar texto similar al lenguaje humano basado en datos de entrada, podrían usarse para difundir información falsa o crear esquemas de phishing persuasivos.

Además de eso, los actores de amenazas ya han identificado múltiples problemas en su armadura y los están explotando con fines maliciosos. Los incidentes relacionados con brechas de seguridad creadas por IA, software dañino y otros elementos malévolos han aumentado recientemente.

Los esfuerzos del Departamento de Comercio para recopilar opiniones sobre los métodos de prueba de seguridad de la IA pueden conducir a cambios sustanciales en la forma en que se crean y lanzan las herramientas de IA, incluido el establecimiento de nuevas regulaciones o la adopción de estándares industriales voluntarios. Este no es un caso aislado en el que la Casa Blanca aborde los problemas de seguridad cibernética, como lo demuestra su última orden ejecutiva que restringe el spyware comercial .

Sin embargo, a medida que el campo de la IA continúa progresando, centrarse en la seguridad y las preocupaciones de los consumidores será un factor crucial para dar forma al futuro de la tecnología de IA en todo el mundo.


Publicación más antigua Publicación más reciente