Cómo Capacitar a Tu Fuerza Laboral para Pensar Como Profesionales de la IA

Si sientes un impulso inexplicable de sonreírle a esta roca, no estás solo. Como humanidad, a menudo atribuimos características humanas a objetos, un fenómeno conocido como antropomorfismo, que resulta cada vez más relevante en nuestras interacciones con la IA.

El antropomorfismo se manifiesta cuando decimos “por favor” y “gracias” a los chatbots o expresamos admiración por los resultados de la IA generativa que cumplen con nuestras expectativas. Sin embargo, el verdadero desafío surge al esperar que la IA replique su rendimiento en tareas simples, como resumir un artículo, en temas más complejos, como una antología de trabajos científicos. De manera similar, cuando la IA proporciona una respuesta sobre las ganancias de Microsoft y esperamos que realice una investigación de mercado basada en las transcripciones de ganancias de múltiples empresas, nos arriesgamos a la decepción. Estas tareas, aunque aparentemente similares, son fundamentalmente diferentes para los modelos de IA. Como explica Cassie Kozyrkov, “la IA es tan creativa como un pincel.” El principal obstáculo para la productividad con la IA radica en nuestra capacidad para usarla de manera efectiva como una herramienta.

Anécdotas indican que algunos clientes que implementaron licencias de Microsoft Copilot redujeron posteriormente el número de asientos porque los usuarios no las encontraron valiosas. Esta desalineación proviene de expectativas poco realistas sobre las capacidades de la IA frente a la realidad de su rendimiento. Todos hemos experimentado ese momento de realización: "Oh, la IA no es buena para eso."

En lugar de abandonar la IA generativa, podemos cultivar la intuición necesaria para comprender mejor la IA y el aprendizaje automático, evitando así las trampas del antropomorfismo.

Definiendo la Inteligencia y el Razonamiento en el Aprendizaje Automático

Nuestra definición de inteligencia siempre ha sido ambigua. Cuando un perro pide golosinas, ¿es un comportamiento inteligente? Cuando un mono usa una herramienta, ¿eso muestra inteligencia? De manera similar, cuando las computadoras realizan estas tareas, ¿podemos considerarlas inteligentes? Hasta hace poco, creía que los modelos de lenguaje grande (LLMs) no podían "razonar" genuinamente. Sin embargo, una reciente discusión con fundadores de IA en quienes confío nos llevó a proponer una posible solución: un criterio para evaluar los niveles de razonamiento en la IA.

Así como tenemos criterios para la comprensión lectora y el razonamiento cuantitativo, la introducción de un criterio específico para IA podría ayudar a transmitir las capacidades de razonamiento esperadas de las soluciones impulsadas por LLM, junto con ejemplos de lo que es irrealista.

Expectativas Irrealistas de la IA

Los humanos tienden a ser más indulgentes con los errores cometidos por otras personas. Aunque los coches autónomos son estadísticamente más seguros que los conductores humanos, los accidentes provocan una gran conmoción. Esta respuesta amplifica la decepción cuando la IA falla en tareas que esperaríamos que los humanos manejaran bien. Muchos describen la IA como un vasto ejército de "pasantes", sin embargo, las máquinas pueden fallar de maneras en que los humanos no lo hacen, incluso mientras las superan en varias áreas.

Como resultado, menos del 10% de las organizaciones logran desarrollar e implementar proyectos de IA generativa con éxito. La desalineación con los valores empresariales y los costos imprevistos relacionados con la curaduría de datos complican aún más estas iniciativas. Para superar estos obstáculos y lograr el éxito en los proyectos, es esencial dotar a los usuarios de IA de la intuición necesaria para saber cuándo y cómo usar la IA de manera efectiva.

Capacitación para Construir Intuición con la IA

La capacitación es crucial para adaptarse al panorama de IA en rápida evolución y redefinir nuestra comprensión de la inteligencia en el aprendizaje automático. Aunque el término "capacitación en IA" puede parecer vago, se puede categorizar en tres áreas clave:

1. Seguridad: Aprender a usar la IA de manera responsable y evitar esquemas emergentes de phishing potenciados por IA.

2. Competencia: Comprender lo que la IA puede hacer, qué esperar de ella y los posibles escollos.

3. Preparación: Dominar el uso habilidoso y eficiente de herramientas impulsadas por IA para mejorar la calidad del trabajo.

La capacitación en seguridad de IA protege a tu equipo, similar a las rodilleras y coderas para un nuevo ciclista; puede prevenir algunos rasguños, pero no los preparará para escenarios más desafiantes. Por el contrario, la capacitación en preparación para la IA empodera a tu equipo para maximizar el potencial de la IA y el aprendizaje automático.

Cuantas más oportunidades proporciones a tu fuerza laboral para interactuar de manera segura con herramientas de IA generativa, más hábiles se volverán en reconocer lo que funciona y lo que no. Si bien solo podemos especular sobre las capacidades que surgirán en el próximo año, poder conectarlas a un criterio definido de niveles de razonamiento preparará mejor a tu fuerza laboral para el éxito.

Sabe cuándo decir “no sé”, cuándo buscar asistencia y, lo más importante, cuándo un problema está más allá del alcance de una herramienta de IA en particular.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles