Microsoft presenta nuevas herramientas de Azure AI para mitigar riesgos en la seguridad y fiabilidad de los modelos de lenguaje de gran tamaño (LLM).

A medida que la demanda de IA generativa aumenta, asegurar su implementación segura y confiable se vuelve más crucial que nunca. Las empresas buscan desarrollar aplicaciones de modelos de lenguaje grande (LLM) que produzcan resultados de alta calidad de manera consistente, evitando posibles inconvenientes.

En respuesta, Microsoft ha presentado nuevas herramientas de Azure AI diseñadas para abordar problemas como las alucinaciones automáticas—comunes en la IA generativa—y amenazas de seguridad como la inyección de prompts, donde atacantes manipulan el modelo para generar contenido dañino o personal, como los deepfakes creados con el generador de imágenes de IA de Microsoft.

Características Clave de las Nuevas Ofertas de Microsoft

Actualmente en fase de vista previa, estas mejoras a Azure AI se espera que estén ampliamente disponibles en los próximos meses, aunque no se ha proporcionado una fecha de lanzamiento específica.

Los ataques de inyección de prompts pueden comprometer la seguridad al permitir que actores maliciosos alteren los prompts de entrada para eludir operaciones normales del modelo, incluidos los controles de seguridad. Microsoft aborda tanto las interacciones directas como los métodos indirectos—como el uso de páginas web maliciosas—integrando Prompt Shields en Azure AI. Esta avanzada característica utiliza algoritmos de aprendizaje automático (ML) y procesamiento de lenguaje natural para analizar prompts y datos de terceros en busca de intenciones maliciosas, bloqueando entradas dañinas antes de que lleguen al modelo.

Prompt Shields funcionará con tres ofertas de IA de Microsoft: Azure OpenAI Service, Azure AI Content Safety y Azure AI Studio.

Mejorando la Confiabilidad y Seguridad

Además de bloquear ataques de inyección de prompts, Microsoft está comprometido a mejorar la confiabilidad de las aplicaciones de IA generativa. Las nuevas herramientas incluyen plantillas preconstruidas para mensajes de sistema centrados en la seguridad y una característica llamada “Detección de Fundamento”.

Las plantillas preconstruidas ayudan a los desarrolladores a crear mensajes de sistema que promuevan resultados seguros, responsables y basados en datos. La Detección de Fundamento aplica un modelo de lenguaje personalizado y ajustado para identificar alucinaciones o inexactitudes en el texto generado. Ambas características se integrarán en Azure AI Studio y Azure OpenAI Service.

Además, la métrica de Fundamento incluirá evaluaciones automatizadas que permitirán a los desarrolladores realizar pruebas de estrés en las aplicaciones de IA generativa para identificar riesgos y preocupaciones de seguridad. Estas evaluaciones evalúan la probabilidad de que la aplicación sea explotada y produzca contenido inapropiado, proporcionando explicaciones en lenguaje natural para ayudar a los desarrolladores a implementar mitigaciones efectivas.

Sarah Bird, Directora de Producto de IA Responsable en Microsoft, subrayó que muchas organizaciones carecen de recursos para realizar pruebas de estrés exhaustivas de aplicaciones de IA generativa. Crear conjuntos de datos de prueba de alta calidad que reflejen riesgos emergentes como ataques de jailbreak es un desafío, y la interpretación de los resultados de evaluación puede ser compleja.

Monitoreo en Tiempo Real para Aplicaciones en Producción

Una vez que las aplicaciones están en producción, Microsoft ofrecerá funciones de monitoreo en tiempo real. Estas herramientas rastrearán las interacciones de entrada y salida que activan mecanismos de seguridad como Prompt Shields. Disponibles a través de Azure OpenAI Service y Azure AI Studio, este monitoreo proporciona visualizaciones detalladas de las entradas de usuario bloqueadas y las salidas del modelo, categorizadas por severidad.

Tal visibilidad permite a los desarrolladores identificar tendencias de solicitudes dañinas con el tiempo, lo que les permite refinar filtros de contenido y controles para mejorar la seguridad de la aplicación.

Microsoft ha estado mejorando sus ofertas de IA, inicialmente centradas en los modelos de OpenAI antes de expandirse hacia asociaciones con otras empresas como Mistral. La reciente incorporación de Mustafa Suleyman y el equipo de Inflection AI representa un esfuerzo estratégico por diversificar sus capacidades en IA.

Con estas nuevas herramientas de seguridad y confiabilidad, Microsoft busca empoderar a los desarrolladores para crear aplicaciones de IA generativa seguras, reafirmando su compromiso con soluciones de IA confiables—un requisito esencial para las empresas que navegan por este panorama en rápida evolución.

Most people like

Find AI tools in YBX