Google Cloud abordará los riesgos legales para sus clientes que utilizan inteligencia artificial generativa.

Google Cloud está dando un paso importante para tranquilizar a sus clientes al comprometerse a cubrir reclamaciones legales derivadas de infracciones de derechos de autor relacionadas con sus herramientas de IA. Este compromiso es especialmente relevante para las empresas que utilizan modelos de IA entrenados con contenido protegido. Bajo esta protección, se cubren dos situaciones principales: cuando un cliente corporativo es demandado por usar modelos de IA desarrollados con datos protegidos de Google, y cuando la aplicación de las herramientas de IA de Google genera trabajos que infringen involuntariamente los derechos de autor de terceros.

Como se señala en una reciente publicación del Vicepresidente Legal de Google Cloud, Neal Suggs, y el Director de Seguridad de la Información, Phil Venables, esta protección no es completamente nueva; Google ha ofrecido históricamente salvaguardias respecto a los datos de entrenamiento. Sin embargo, los comentarios de los clientes indicaron un deseo de contar con garantías más claras y explícitas sobre su seguridad legal al utilizar estas poderosas herramientas.

Las protecciones abarcan una variedad de servicios. Duet AI, diseñado para ayudar en tareas como redactar correos electrónicos y mejorar presentaciones al agregar imágenes, está incluido en herramientas de Google Workspace como Google Docs, Gmail, Slides y Meet. Además, la cobertura se extiende a Vertex AI, una plataforma avanzada que apoya estrategias de MLOps para gestionar proyectos de aprendizaje automático. Las funciones de Vertex AI cubiertas incluyen capacidades de búsqueda, mejoras de conversación, APIs de incrustación de texto para integraciones multimodales, subtitulación visual a través de Visual Q&A y APIs de Codey diseñadas para la generación de código.

Es importante señalar que esta cobertura se anula si los clientes incurren en infracción de derechos de autor deliberada. Este enfoque está en línea con anuncios recientes de gigantes de la industria como Microsoft y Adobe. El mes pasado, Microsoft se comprometió a asumir la responsabilidad en casos donde sus clientes corporativos que usan productos de AI Copilot enfrenten demandas por derechos de autor. Del mismo modo, Adobe, con su última herramienta de IA generativa Firefly, ha ampliado sus protecciones existentes para imágenes de stock para incluir también imágenes generadas.

Aunque estas garantías legales son significativas, las empresas que integran IA generativa enfrentan desafíos adicionales más allá de las preocupaciones por derechos de autor. Problemas como las alucinaciones de IA—donde los modelos generan información ficticia o presentan falsedades como si fueran precisas—junto con sesgos, vulnerabilidades cibernéticas, altos costos operativos, la complejidad de las arquitecturas de modelos y la escasez de personal calificado en IA siguen siendo obstáculos prevalentes en el panorama de la IA generativa. Estos factores requieren una estrategia integral para las organizaciones que buscan aprovechar las tecnologías de IA de manera efectiva y responsable.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles