生成性人工智能的出现标志着一个重要的转折点,这一变化主要受到三个关键因素的推动:数据的爆炸性增长、可扩展计算的进步以及机器学习技术的突破。尽管生成性人工智能在文本生成图像、文本生成文本及文本生成视频等领域显示出强大的能力,但其广泛应用仍面临重大挑战,主要包括偏见、隐私、知识产权侵权、虚假信息及潜在有害内容等问题。
美国航空的高级数据科学家赛·尼基莱什·卡斯图里(Sai Nikhilesh Kasturi)在德克萨斯州奥斯汀举办的Applied Intelligence Live!研讨会上表示:“这些是组织面临的关键风险,这使得他们在将像ChatGPT这样工具整合到日常操作中时表现得相当谨慎。”他倡导建立完善的人工智能框架,以应对这些风险。
有效部署人工智能的关键策略:
- 政策与法规:制定全面的政策来规范人工智能的使用。
- 治理与合规:确保遵循法律和伦理标准。
- 风险管理:识别和缓解与人工智能实施相关的风险。
- 负责任的做法:倡导负责任地使用人工智能技术。
- 模型解释性:开发方法以阐明人工智能模型的决策过程。
- 透明决策:促进对人工智能输出的理解与信任。
- 偏见与公平性:定义、衡量并积极管理模型中的偏见。
- 安全性与保护:实施基本实践以保护人工智能系统免受漏洞影响。
- 人类监督:保持人在决策过程中的参与。
- 监测模型漂移:定期评估模型,以确保其持续准确和相关。
卡斯图里认为,一旦建立了伦理框架,生成性人工智能的采用将在未来几年内急剧增加。根据彭博社的预测,到2032年,生成性人工智能市场的规模可能达到13亿美元,这预示着一个光明的未来。
与为特定任务设计的传统人工智能模型不同,生成性人工智能的基础模型能够同时执行多个任务,从而显著减少训练时间。面对不准确或虚假回应的挑战,卡斯图里提出一种潜在的解决方案:使用两个相互验证输出的人工智能系统。此外,麻省理工学院和谷歌DeepMind的研究人员提出了一种新颖的方法,通过喧闹的辩论使人工智能聊天机器人能够评估对立观点,从而得出正确结论。
通过实施这些策略,并营造负责任的实践环境,组织能够充分发挥生成性人工智能的潜力,同时应对相关风险,铺平人工智能技术更加负责任和创新的未来之路。