Microsoft presenta Phi-Silica: un modelo de 3.3 mil millones de parámetros diseñado para Copilot+ y avanzados NPUs para PC.

Microsoft está intensificando su inversión en modelos de lenguaje pequeños (SLMs). Durante su conferencia de desarrolladores Build, la compañía anunció la disponibilidad general de sus modelos Phi-3 y presentó Phi-3-vision. Tras el anuncio de los PCs Copilot+, Microsoft introduce Phi-3-Silica, un SLM diseñado específicamente para las potentes Unidades de Procesamiento Neural (NPUs) de estos dispositivos.

Phi-3-Silica se incluirá en todos los PCs Copilot+ disponibles a partir de junio. Este modelo es el más pequeño de la línea Phi, con 3.3 mil millones de parámetros.

Según Microsoft, la latencia de generación de tokens para Phi-3-Silica es de 650 tokens por segundo y consume solo 1.5 vatios de energía, lo que garantiza que el sistema se mantenga ágil y eficiente. Esto permite que la CPU y la GPU del PC se concentren en otras tareas. Además, su generación de tokens puede aprovechar la caché KV de la NPU, permitiendo que la CPU produzca aproximadamente 27 tokens por segundo.

Un portavoz de Microsoft destacó que Phi-Silica es significativo como el primer modelo de lenguaje desplegado localmente en Windows. Optimizado para la NPU de los PCs Copilot+, ofrece inferencia local rápida en los dispositivos de los usuarios. Este desarrollo representa un paso importante para equipar a los desarrolladores de terceros con herramientas avanzadas de IA optimizadas para Windows, mejorando la productividad y la accesibilidad dentro del ecosistema. Los usuarios pueden esperar experiencias innovadoras tanto de desarrolladores de primera como de terceros este otoño.

Phi-Silica es la quinta adición a la serie Phi-3 de Microsoft, que incluye Phi-3-mini con 3.8 mil millones de parámetros, Phi-3-small con 7 mil millones de parámetros, Phi-3-medium con 14 mil millones de parámetros y Phi-3-vision con 4.2 mil millones de parámetros.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles