Comment former votre personnel à penser comme des professionnels de l'IA

Si vous ressentez une envie inexplicable de sourire à cette pierre, vous n'êtes pas seul. En tant qu'êtres humains, nous avons tendance à attribuer des traits humains aux objets, un phénomène connu sous le nom d'anthropomorphisme, particulièrement pertinent dans nos interactions avec l'IA.

L'anthropomorphisme se manifeste lorsque nous disons "s'il vous plaît" et "merci" aux chatbots, ou lorsque nous exprimons notre admiration pour les résultats produits par l'IA générative qui répondent à nos attentes. Toutefois, le vrai défi surgit lorsque nous attendons de l'IA qu'elle reproduise ses performances dans des tâches simples — comme résumer un article — sur des sujets plus complexes, tels qu'une anthologie de travaux scientifiques. De même, lorsque l'IA fournit une réponse concernant les bénéfices de Microsoft et que nous espérons qu'elle effectue une recherche de marché à partir des scripts de bénéfices de plusieurs entreprises, nous nous exposons à la déception. Bien que ces tâches semblent similaires, elles sont fondamentalement différentes pour les modèles d'IA. Comme l'explique Cassie Kozyrkov, "L'IA est aussi créative qu'un pinceau." L'obstacle principal à la productivité avec l'IA réside dans notre capacité à l'utiliser efficacement comme un outil.

Anecdotiquement, certains clients ayant déployé des licences Microsoft Copilot ont réduit le nombre de postes, car les utilisateurs ne les trouvaient pas utiles. Ce décalage provient d'attentes irréalistes sur les capacités de l'IA par rapport à la réalité de sa performance. Nous avons tous connu ce moment d'illumination : "Oh, l’IA n’est pas faite pour ça." Plutôt que d'abandonner l'IA générative, nous pouvons cultiver l'intuition nécessaire pour mieux comprendre l'IA et l'apprentissage automatique, tout en évitant les pièges de l'anthropomorphisme.

Définir l'intelligence et le raisonnement en apprentissage automatique

Notre définition de l'intelligence a toujours été ambiguë. Quand un chien mendie des friandises, est-ce un comportement intelligent ? Quand un singe utilise un outil, cela démontre-t-il de l'intelligence ? De même, lorsque des ordinateurs effectuent ces tâches, pouvons-nous les considérer comme intelligents ?

Jusqu'à récemment, je pensais que les modèles de langage de grande taille (LLM) ne pouvaient pas véritablement "raisonner." Toutefois, une discussion récente avec des fondateurs d'IA de confiance nous a conduits à proposer une solution potentielle : un cadre pour évaluer les niveaux de raisonnement en IA. Tout comme nous avons des cadres pour la compréhension de texte et le raisonnement quantitatif, introduire un cadre spécifique à l'IA pourrait aider à communiquer les capacités de raisonnement attendues des solutions alimentées par des LLM, ainsi que des exemples de ce qui est irréaliste.

Attentes irréalistes vis-à-vis de l'IA

Les humains sont souvent plus indulgents envers les erreurs commises par d'autres personnes. Bien que les voitures autonomes soient statistiquement plus sûres que les conducteurs humains, les accidents suscitent une forte réaction. Cette réponse amplifie la déception lorsque l'IA échoue dans des tâches que nous attendrions de bien gérer.

Beaucoup décrivent l'IA comme une vaste armée de "stagiaires", mais les machines peuvent échouer de manière dont les humains ne font pas, même si elles les surpassent dans certains domaines. En conséquence, moins de 10 % des organisations parviennent à développer et à mettre en œuvre des projets d'IA générative avec succès. Le manque d'alignement avec les valeurs de l'entreprise et les coûts imprévus liés à la curation des données compliquent davantage ces initiatives.

Pour surmonter ces obstacles et atteindre le succès, il est essentiel d'équiper les utilisateurs d'IA de l'intuition nécessaire pour savoir quand et comment utiliser l'IA efficacement.

Formation pour développer l'intuition avec l'IA

La formation est cruciale pour s'adapter à l'évolution rapide du paysage de l'IA et redéfinir notre compréhension de l'intelligence en apprentissage automatique. Bien que le terme "formation à l'IA" puisse sembler vague, il peut être classé en trois domaines clés :

1. Sécurité : Apprendre à utiliser l'IA de manière responsable et à éviter les nouvelles tentatives de phishing améliorées par l'IA.

2. Littératie : Comprendre ce que l'IA peut faire, ce à quoi s'attendre et les pièges potentiels.

3. Préparation : Maîtriser l'utilisation habile et efficace des outils alimentés par l'IA pour améliorer la qualité du travail.

La formation à la sécurité de l'IA protège votre équipe, comme des genouillères et coudières pour un nouveau cycliste ; cela peut éviter certaines chutes, mais ne les préparera pas à des scénarios plus difficiles. En revanche, la formation à la préparation de l'IA habilite votre équipe à maximiser le potentiel de l'IA et de l'apprentissage automatique. Plus vous offrez d'opportunités à votre personnel d'interagir en toute sécurité avec des outils d'IA générative, plus ils seront aptes à discerner ce qui fonctionne et ce qui ne fonctionne pas.

Bien que nous puissions seulement spéculer sur les capacités qui émergeront dans l'année à venir, pouvoir les relier à un cadre défini de niveaux de raisonnement préparera votre workforce à la réussite. Sachez quand dire “je ne sais pas”, quand demander de l'aide et, surtout, quand un problème dépasse le champ d'application d'un outil d'IA particulier.

Most people like

Find AI tools in YBX