linked neon lights under white painted basement

 

在开始大模型创业之前,首先应该想清楚下面五个问题,否则人无远虑,必有近忧。

 

ChatGPT面世以来,有两种趋势主导着初创公司和初创投资的世界,可惜这两种趋势都是错误的。首先,有一大批初创公司计划使用大模型(ChatGPTGPT4)为已知问题提供更好的解决方案。这就像说他们正在拿一些预先烘焙的蛋糕之一,再在上面加点糖,就能使其更美味。其次,这些初创公司正在烘烤大量这些蛋糕,投资者已经开始关注糖本身的差异化——他们现在强调位于大模型之上的技术层的深度。最近一些成功融资的案例大多在宣扬糖本身拥有不同颜色、口味或质地。

 

不幸的是,这还远远不够。提前要说明的是,绝不是说一个团队不能克服这些问题,而是说除非克服了它们,否则可能会陷入麻烦。

 

大模型的输出不可预测

 

生成式AI以其不可预测性而臭名昭著。OpenAI已经提供了一个参数(温度),用于控制模型的创造力。即使设置为零,甚至使用新的函数调用功能,模型仍然会输出不确定的结果。只需尝试一遍又一遍地询问ChatGPT相同的问题就会发现这个问题。

 

对于人类来说无所谓,但实际上,差异性表现出机器人的某种个性,这让它看起来更像人类。然而,对于计算机来说,这种差异性很难管理。这可能有很多原因:提示的细微变化,用户消息的某些边缘情况,甚至没有明显原因。

 

虽然大模型为解决原始应用程序提供了大量的动力,但团队在使用大模型时通常更忙于适配大模型的输入输出格式,而不是实际开发下游应用程序。曾遇到多个团队,在一周内完成了他们的首个完全基于大模型解决方案。然后,随着他们尝试扩展规模,以及难于处理的不可预测性,他们开始回归更为传统、结构化的方法来解决问题。每一次这样的逆转都将解决方案从大模型所承诺的强大力量中夺走。

 

大模型提供商下场自己实现应用

 

20221130日推出ChatGPT以来,以及随后推出GPT4OpenAI已向其API添加了多个功能,如插件、JSON构建、函数调用等。从表面上看,这使大模型更可预测了。然而,你错过了重点——

 

OpenAI的使命是使大模型更易于为每个人访问。这是它计划开发AGI的方式。为此,它不断推出新版本的GPT4是最新的版本),并不断为每个版本添加新功能。例如,自ChatGPTGPT4推出以来的几个月里,OpenAI已添加了插件、函数调用、更好的引导控件以及与Whisper模型的集成。

people doing office works

 

每次添加和增强都使你一直在进行的创新变得不那么必要。实际上,我敢打赌,你或其他初创公司创新的大多数成功的东西都会以某种形式被添加到GPT中。他们并不是在做恶,他们只是忠于他们的使命。其他大模型提供商也是如此。换句话说,一旦你成功了,大模型就会复刻这件事,以便下一个人,包括你的客户,能够轻松地做你正在做的事情。

 

基于大模型的解决方案可能并不值得

 

大模型是一项令人惊奇的发明,它将改变技术创新的步伐。然而,它们在可预测性、幻觉等方面面临着无数问题。如果您将大模型应用为解决现有问题的新方法而不重新构想问题本身,那么这确实欠考虑。

 

即使有了基于大模型的解决方案,也需要清楚竞争是很激烈的。您不仅在与其他大模型解决方案竞争,而且这些解决方案的门槛变得越来越低,你不仅需要与OpenAI竞争,而且还与对于该问题已存在的所有解决方案竞争。

 

我们还要承认,当前的解决方案可能没有解决问题的效果那么好。但是,当前的解决方案可能已经以低成本完成了很好的工作。如果它运作良好,那么没有理由颠覆它。如果它运作不好,那么它在客户心目中已经创造了一个巨大的期望障碍,你的市场营销或销售周期必须克服。

 

因此,除非你重新定义问题或创造了一种没有参照的体验,否则请暂停你的想法。即使是Open AI,也先后尝试了GPT1GPT2GPT3,然后是GPT3.5,才能解决行业中的一些实际问题。许多其他公司,根本无法说服市场或资本。

 

大模型看起来像捷径,然而并不是

a dirt path between two concrete walls

尽管GPT改变了一切,但实际上什么也没改变。总结一下:即使使用大模型,要构建一个成功的业务,你仍然必须像以前一样投资于产品、工程和科学创新。出于上述原因以及我在文章中引用的一系列原因,这对于工作流程集成、用户体验、控制、成本、倡导、客户品牌等来说是必要的。

 

当您以那个数量级进行投资时,您正在构建的解决方案不再是基于大模型的解决方案。相反,它是依赖于产品、工程和科学方面的这些创新的解决方案。换句话说,大模型只是你旅程中的一个同伴,并不是目的地。你仍然需要像在大模型之前那样努力工作,以创造可持续的竞争优势。

 

大模型存在严重的安全问题

 

最后,但丝毫不可忽视的是企业安全的概念。到目前为止,我们已经讨论了对生成式人工智能的控制的问题,这已经够糟糕的了。另一个重要问题是大模型处理的所有内容都需要传输到云端,这是大部分企业所不能容忍的。

 

Open AIAnthropic这样的大模型提供商对安全问题有合理且透明的政策。然而,这并非百分之百可靠;他们不能保证他们自己不会查看数据。这是信息安全的古老格言——一旦离开你的防火墙,你就真的无法控制了。

 

一些初创公司考虑的另一种选择是将专有的大模型考虑在其(或客户的)防火墙内。这确实是一个合理的选择,但现在大模型不再是易于使用的工具。除了在产品、工程和与你的领域相关的科学方面进行创新,你还不得不在大模型上进行创新,。

 

再次强调,这篇文章绝不是为了阻止在大模型领域创业或启动大模型项目的论点。这只是一个提醒——在你着手计划之前,一些值得深思的内容。

 

By coriva

Leave a Reply

Your email address will not be published. Required fields are marked *