在浩瀚的数据中寻找珍珠:企业识别实用生成式AI应用场景的安全策略

人工智能,特别是生成型人工智能和大型语言模型(LLMs),已经取得了显著的进展,并且即将广泛应用于各个行业。根据麦肯锡的研究,优秀的AI公司正在全力投入这些技术,企业必须适应这一趋势,以避免被淘汰。

然而,人工智能的安全性仍然是一个尚未充分发展的领域,这对使用此技术的组织构成了重大风险。AI和机器学习(ML)的失误频频发生,尤其是在医疗和执法等领域,算法误差揭示了隐藏的偏见,这可能加剧社会不平等并损害企业声誉。

一个值得关注的案例是微软的Tay聊天机器人,这一最初旨在进行轻松对话的项目,由于滥用而迅速变质,最终导致公共关系危机。即使是备受赞誉的ChatGPT,也因其局限性受到批评,这突显了将AI融入企业环境所面临的复杂性。

企业领导者意识到利用生成型AI的变革潜力,但在识别初步用例及应对AI安全风险方面面临挑战。为此,专注于“干草堆中的针”问题是一种有效的解决方案。这类问题是指人类在生成潜在解决方案时遇到困难,但验证这些解决方案却很简单。这些独特问题适合行业早期应用,实际上它们比人们想象的要普遍得多。

以下是三个“干草堆中的针”问题的示例:

1. 文字编辑

在长篇文档中识别拼写和语法错误是个挑战。虽然像微软Word这样的工具早已能检测拼写错误,但语法检查近年来借助生成型AI才有所改进。一旦潜在错误被标记,人工验证便简单得多,这使得AI在文字编辑中的应用十分理想。像Grammarly这样的服务运用LLMs来辅助文字编辑。

2. 编写模板代码

学习新API的语法和规范是软件工程师每日重复的耗时任务。生成型AI工具如GitHub Copilot和Tabnine可以自动生成代码,特别是模板代码。尽管生成代码可能复杂,但验证其功能相对简单——工程师可以通过测试来确认代码的正确性。

3. 科学文献检索

即使是专家,要及时了解大量科学文献的动态也非常艰巨,而这些研究论文蕴藏着宝贵的见解。AI可以通过基于现有研究生成新想法,尤其是在需要深刻理解多学科领域的跨学科领域。类似Typeset的产品正在这一领域取得进展。

人工验证的重要性

在所有这些用例中,人工验证至关重要。让AI在关键商业领域独立操作具有显著风险,尤其是考虑到过去的失败案例。确保对AI生成内容的人工监督可以增强安全性和可靠性。通过聚焦于“干草堆中的针”问题,公司可以在保留人工决策的同时平衡AI带来的优势。

在大型语言模型整合的早期阶段,关注“干草堆中的针”用例能够帮助组织在应对关键安全问题的同时,积累宝贵的AI经验。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles