Poe致力成为对话式AI的应用商店,向聊天机器人创作者提供补偿

Poe,是由Quora于2022年底推出的多人工智能聊天机器人聚合平台,因其提供统一接口,让用户能够接入多种竞争性的语言模型(LLM),如OpenAI的GPT-3.5/4、Anthropic的Claude、Google的PaLM 2和Meta的Llama 2而备受欢迎。2023年4月,Poe扩展了其平台,允许第三方创作者,包括个人和组织,使用支持的LLM开发自己的聊天机器人。

最近,Poe推出了一种盈利模型,使这些创作者能在Poe应用内通过他们的聊天机器人产生收入。在一次采访中,Quora首席执行官亚当·丹杰洛(Adam D'Angelo)分享了这一倡议的见解以及对Poe未来的愿景。他表示:“我们降低了进入门槛,以促进一个庞大的人工智能产品生态系统。Poe将增强用户能够获取的多样性和应用范围。”

丹杰洛强调两个关键变化:一是允许机器人开发者从其创作中获得收益,二是向所有人提供API访问,以便将新的自然语言模型整合到平台中。这些变化已经开始实施,创作者们已经获得了收入,新模型也在不断整合当中。

支持创作者成本

大规模语言模型的运行需要大量计算资源。丹杰洛解释说,Poe与主要API供应商(如OpenAI、Anthropic和Google)建立了合作关系,这些关系需要资金来支持LLM技术的使用。由于目标是提供数千甚至数百万种对话AI选项,逐一协商合同变得困难。因此,Poe实施了一种收入分享模型,当用户支付给Poe费用时,其中一部分会分配给创作者,帮助他们承担开发专业机器人所需的成本。

Poe的盈利策略有两个主要组成部分:首先,当创作者的机器人引导用户注册应用后,他们将分享每月20美元订阅费的收入。其次,创作者很快将可以设置每条消息的费用,从用户互动中获得补偿。这种灵活的模型使机器人开发者能够迅速产生收入,同时建立基于使用情况的持续收入流。

丹杰洛强调,除了API访问外,创造优质体验需要大量的工作,使得收入分享对建立可持续业务至关重要。

鼓励通过新模型接入创新

Poe旨在通过允许各种语言模型的顺利整合来激发创新。丹杰洛表示:“我们的API是完全开放的,”强调了让第三方连接自定义模型的好处,而不只是依赖Poe提供的模型。

丹杰洛希望Poe能够促进多样性,而不是限制它。他指出,支持外部创作者连接量身定制的模型将增强整个生态系统,引用了像Fireworks.ai微调的Mistral模型等例子。

培养多样性并降低门槛

丹杰洛将Poe的做法比作Chrome和Safari等网页浏览器,这些浏览器大大降低了网站开发的门槛。这一转变使得更多个人能够创建网站,并导致以内容和服务为基础的激烈竞争,而不是仅仅依赖技术专长。“当降低门槛时,竞争蓬勃发展,基于所提供体验的业务应运而生,”他解释道。

这一理念也适用于对话AI,独特的用户体验将区分成功的机器人,而不仅仅是模型能力。“我们正在创造一个繁荣的人工智能产品生态系统,将增加多样性,而不仅仅是提升竞争,”他表示。

赋能小型开发者

尽管大型企业继续推动语言模型研究,Poe仍致力于赋能小型专业开发者。丹杰洛说:“我们希望帮助他们将创新带给全球受众,尤其是在他们处理模型服务相关的成本时。”他对文本、图像、音频和视频生成的进展表示期待,并指出模型微调等技术提供了额外机会。通过支持专业创作者,Poe提升了用户的多样性和选择。

共同加速创新

Poe旨在推动对话AI领域的快速创新,避免其基础设施中的瓶颈。通过赋能外部开发者和应用,Poe相信能加速专业模型和垂直应用的发展,最终改善全球用户的可及性和实用性。

丹杰洛承认,行业的快速变化:“我们希望通过API和这些盈利工具,确保我们不会成为进步的障碍。”

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles