如何培养员工具备AI专业人士的思维方式

如果你忍不住对这块岩石微笑,那你并不孤单。

作为人类,我们常常会将人类特征赋予物体,这种现象称为拟人化,这在我们与人工智能(AI)的互动中变得越来越重要。

拟人化的表现形式包括我们在与聊天机器人交流时说“请”和“谢谢”,或者在看到符合期望的生成性AI输出时表达钦佩。然而,真正的挑战在于,当我们期待AI在简单任务(如总结文章)中保持表现时,转向更复杂的主题(如一系列科学论文)时,常常会失望。此外,当AI提供微软业绩的答案,而我们期待它根据多家公司的财报进行市场研究时,我们会面临同样的问题。

这些任务看似相似,但对于AI模型来说,实质上是完全不同的。正如Cassie Kozyrkov所说:“AI的创造力就像一支画笔。”提高AI生产力的主要障碍在于我们如何有效地将其作为工具使用。

有客户在部署微软Copilot许可证后,因用户发现其实际价值不高而减少了使用数量。这种差距源于对AI能力的非现实期望。我们都曾有这样的体验:“哦,AI在这方面并不行。”

与其放弃生成性AI,我们可以培养更深刻的直觉,理解AI和机器学习,同时避免拟人化带来的误区。

人工智能与机器学习中的智力与推理

我们对智力的定义一直模糊不清。当狗乞求食物时,这算聪明的行为吗?当猴子使用工具时,这能算作智力表现吗?同样,当计算机完成这些任务时,能否认为它们具备智力?

直到最近,我曾认为大型语言模型(LLM)无法真正“推理”。然而,最近与可信赖的AI创始人讨论后,我们提出了一种可能的解决方案:一个评估AI推理能力的标准。

与我们对阅读理解和量化推理的标准类似,引入一个专门针对AI的标准,可以帮助明确LLM驱动解决方案的预期推理能力,并给出不切实际的例子。

对AI的不切实际期望

人们往往对人类的错误表现出更多包容。尽管自动驾驶汽车在统计上比人类驾驶员更安全,但事故仍会引发大量反响。当AI在我们认为人类能够完成的任务上出现失误时,这种反响更加强烈。

虽然许多人将AI比作一支庞大的“实习生”队伍,但机器在某些方面的表现仍会出现人类不会犯的错误,即便在其他领域表现更优越。

结果是,成功开发和实施生成性AI项目的组织不到10%。与企业价值观的不对齐和数据整理相关的意外成本使这些项目更加复杂。

为了克服这些障碍并实现项目成功,必须为AI用户提供必要的直觉,以便他们知道何时以及如何有效地使用AI。

训练以增强与AI的直觉

在快速发展的AI领域中,培训对于重新定义我们对机器学习智力的理解至关重要。虽然“AI培训”这个术语听起来模糊,但可以分为三个关键领域:

1. 安全性:学习负责任地使用AI,避免新的AI增强网络钓鱼方案。

2. 素养:理解AI的能力、预期及潜在陷阱。

3. 准备:熟练高效地使用AI工具以提高工作质量。

AI安全培训类似于为新骑自行车者提供护膝和护肘,能够防止一些擦伤,但无法应对更具挑战性的情况。相对而言,AI准备培训使团队能够最大化利用AI和机器学习的潜力。

给员工提供更多与生成性AI工具安全互动的机会,他们将能更好地识别什么有效,什么无效。

尽管我们不能预测未来一年中将出现哪些能力,但能够将其与明确的推理水平标准相结合,将使你的团队更好地为成功做好准备。

要知道何时说“我不知道”,何时寻求帮助,最重要的是,何时意识到某个问题超出了特定AI工具的处理范围。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles