OpenAI y Anthropic instan al gobierno de EE. UU. a priorizar la evaluación de riesgos de nuevos modelos de IA.

OpenAI y Anthropic Colaboran en la Seguridad de Modelos de IA

Como empresas líderes en el sector de la IA, OpenAI y Anthropic reconocen su responsabilidad de impulsar el avance tecnológico de manera responsable. Antes de lanzar nuevos modelos de IA, ambas organizaciones han decidido asociarse con el Instituto de Seguridad de IA del gobierno de EE. UU. para realizar evaluaciones exhaustivas de seguridad. Esta colaboración tiene como objetivo garantizar que el progreso tecnológico beneficie a largo plazo a la sociedad y mitigue posibles impactos negativos.

Establecido en 2023 como resultado de una orden ejecutiva de la administración Biden-Harris, el Instituto de Seguridad de IA se dedica a promover una innovación responsable en inteligencia artificial. El Instituto evaluará de manera integral los nuevos modelos de IA de OpenAI y Anthropic, centrándose en sus capacidades, riesgos potenciales y estrategias de mitigación correspondientes. Este proceso de evaluación es esencial para alinear el desarrollo de la IA con las expectativas sociales.

Los líderes de OpenAI y Anthropic han expresado un fuerte apoyo a esta asociación, subrayando la importancia de la seguridad en la evolución de la IA. Destacaron que la colaboración con el gobierno profundizará la comprensión de cómo los avances tecnológicos impactan a la sociedad, permitiendo la exploración de métodos para reducir riesgos de seguridad. Esta iniciativa establece una base sólida para promover tecnologías de IA seguras y responsables.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles