2024年达沃斯后:将人工智能炒作转化为可实现的现实

在2024年达沃斯会议上,人工智能(AI)成为了备受瞩目的话题,有超过二十个关于其影响的会议,从教育到监管等多个领域均有探讨,正如《财富》所强调的。与会者包括多位杰出的AI领袖,如OpenAI首席执行官山姆·奧特曼(Sam Altman)、Inflection AI首席执行官穆斯塔法·苏莱曼(Mustafa Suleyman)、AI先锋安德鲁·恩吉(Andrew Ng)、Meta首席AI科学家扬·勒昆(Yann LeCun)以及Cohere首席执行官艾登·戈麦斯(Aidan Gomez)。

今年的达沃斯会议讨论内容相比2023年发生了显著转变。正如IBM政府与监管事务副总裁克里斯·帕迪拉(Chris Padilla)向《华盛顿邮报》指出的那样:“去年,气氛充满了惊奇;如今,要评估风险并确保AI的可信度。”

今年的关键关注点包括愈演愈烈的错误信息、失业问题,以及富国与贫国之间日益扩大的经济鸿沟。其中,最紧迫的问题是深度伪造技术带来的虚假信息的上升。这种技术可以操控图像、视频和音频,扭曲现实并侵蚀公众信任。近期在新罕布什尔州初选前,发生了一起模仿乔·拜登总统声音的电话机器人事件,生动体现了这一威胁。

卡内基梅隆大学教授凯瑟琳·卡利(Kathleen Carley)表示:“这只是可能抑制选民证或攻击选举诚信的冰山一角。”企业AI顾问鲁文·科恩(Reuven Cohen)也警告称,AI技术的进步可能在2024年选举期间引发大量深度伪造内容。

尽管相关研究仍在进行,目前仍缺乏有效检测深度伪造的方法。《财富》记者杰里米·卡恩(Jeremy Kahn)指出:“我们需要迅速找到解决方案;不信任对民主是有害的。”

这种关注点从乐观转向谨慎,促使苏莱曼提倡采取“冷战战略”来应对AI相关威胁。他强调,随着AI技术的日益普及,可能会被敌对势力滥用,从而导致超出验证能力的混乱。

对AI的担忧由来已久,早在1968年的电影《2001太空漫游》中就已有描绘。即使是类似Furby玩具的消费技术,也因潜在的安全漏洞而引起警惕,NSA曾因担心其可能作为监控设备而禁止其使用。

关于人工通用智能(AGI)即将实现的预测使讨论愈加激烈。尽管AGI被定义为超越人类智慧的AI,仍是一个有争议的话题,奥特曼和戈麦斯等人对其即将到来持乐观态度,而勒昆则呼吁保持谨慎,认为仍需重大的突破。

公众对AI的看法仍混杂,2024年Edelman信任指数显示,有35%的受访者拒绝AI,而30%表示接受。对AI潜在好处的认知与对其风险的担忧并存。人们在得到专家指导并确保能够控制其影响时,倾向于更积极地接受AI技术进步。

最终,我们的未来之路不仅需要对AI发展的快速响应,还要对其长期影响保持平衡的看法。正如罗伊·阿马拉(Roy Amara)所言:“我们往往在短期内高估技术的影响,而在长期内低估它。”

尽管探索与试验持续进行,但AI的广泛成功并非板上钉钉。AI测试非营利组织人性智能的首席执行官鲁曼·乔杜里(Rumman Chowdhury)预测,2024年将出现一场“失望的低谷”,届时人们的期望可能与现实不符。

今年可能是评估AI变革潜力的关键时刻。随着组织探索生成性AI用于个人和职业目的,至关重要的是将技术热潮与实际价值连接起来。埃森哲首席执行官朱莉·斯威特(Julie Sweet)指出,现在为高管提供的研讨会是实现AI潜力的重要步骤。

在我们深入探索复杂的AI领域时,谨慎的决策和创新思维将成为确保AI提升人类潜能、维护共同价值与诚信的关键。责任在于我们,共同塑造一个使AI增强人类体验而非主宰人类未来的世界。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles