你听说过ENIAC计算机吗?
ENIAC于1946年问世,标志着计算机时代的开始。这台重达27吨、占地1800平方英尺的巨型主机拥有6000个手动开关和17468个真空管,耗电量高达200千瓦。作为世界上第一台可编程的通用电子数字计算机,ENIAC极大地改变了技术的发展。
当时的新闻报道在今天的人工智能(AI)发展中依然引起共鸣。《科学月刊》曾宣称:“借助闪电般快速的计算机解决长期困扰人类的问题,今天的公式或许会变成明天的火箭。”费城晚报也提到,“宾夕法尼亚大学的30吨电子大脑思维速度快于爱因斯坦。”
时光荏苒,75年后的今天,现代设备如智能冰箱所用的Cortex-M4芯片速度已是ENIAC的1万倍,耗电仅为90µA/MHz,并占用极小空间。这种计算技术的演变体现了技术的成熟与专业化,为我们的应用提供了更高效和经济的解决方案。
人工智能专业化的激动人心的进程
与ENIAC类似,AI正在引发广泛的兴奋与担忧,尤其是在生成性AI去年飙升以来。要理解AI的未来,反思计算硬件的发展历程显得尤为重要。技术通常起初是大型且集中化的,最终会向专业化和地方化发展,以提供更为便利和高效的解决方案。
例如,从电话交换机到智能手机,从大型发电厂到家用太阳能板。AI也在经历这样的转变。极大型语言模型(LLMs)正在变得庞大,迫切需要向专业化、去中心化和民主化转变,这就是所谓的“边缘AI”。
LLMs:机会与挑战
像GPT(生成预训练变换器)这样的LLMs使AI时代成为可能,训练于海量数据集,能够理解并生成类人语言。然而,这些巨型模型并非没有局限。庞大的数据需求和计算能耗导致高昂的运营成本,使得无限扩展变得艰难。
面临的主要挑战包括:
- 高质量训练数据的获取
- 维持大型模型的环境影响
- 继续扩展的经济可行性
- 针对大型AI实体的安全隐患
随着AI的快速扩展,我们已接近一个临界点。以往主机的演变耗时数十年,而AI的发展可能在几个月内完成,因为面临的挑战催生了向更加高效、去中心化的AI应用转变的需求。
边缘AI的兴起
边缘AI已经开始崛起,表现为更小、专业化的模型,尤其是在物联网(IoT)领域。这个模型将处理能力从集中数据中心转移到网络的边缘,更靠近数据生成和使用,带来了以下进展:
- 小型语言模型:这些是能够生成类人文本的紧凑型AI。体型小意味着处理速度更快、成本更低,特别适合智能手机等功耗有限的设备。最近在并行GPU方面的进展使这些模型成为可能。
- 边缘AI:指在设备本地(如智能手机、街道摄像头或汽车)操作的AI,而非远程数据中心。边缘处理提升了速度,因为数据传输距离短,同时通过减少互联网传输,增强了隐私安全。
- 专家混合模型:这种架构包含不同的小型AI单元,每个专精于特定任务。面对挑战时,系统会选择最适合的专家以提升效率和效果。
这些创新增强了AI的适应性,使其应用遍及各种平台,从智能冰箱到交通管理、自驾车等领域。
边缘AI的风险与收益
边缘AI既带来挑战,也提供了好处:
好处:
- 创新增加:消除了开发瓶颈,激发了有潜力开发者的创意应用。
- 资源效率:减少延迟和处理需求,从而显著降低成本。
- 隐私/安全增强:本地处理降低了网络传输的需求,减少泄露风险。
- 定制化:模型可以基于本地数据训练,提供更相关、独立的解决方案。
挑战:
- 质量控制:模型的激增要求建立强有力的质量保证流程。
- 安全性与治理:更多设备引入潜在安全漏洞,亟需监管。
- 范围限制:边缘AI模型针对特定任务,可能限制其在不同场景的扩展能力。
- 监控需求:领导者需监控开发以防止冗余并确保有效管理。
边缘AI的演变为我们重新思考AI应用的创建与治理方式提供了独特的机会。随着我们在技术的复杂性与成本中探索,确保新技术的兼容性、可控性和有效验证变得至关重要。
展望未来
我们正站在AI开发的新纪元边缘,转向边缘AI,这一转变类似于从主机到个人计算的飞跃。这一变革将大大增强AI的可访问性、高效性,并使其更符合特定需求,推动创新进入未开发的领域。
AI的未来充满无限可能,唯一的限制来自于我们的想象力和对负责任开发的承诺。