LLM as Service -> LLM as Operating System LLM模型规模必然非常巨大,有能力作出这个模型,或改动这个模型参数的机构必然很少。而任务需求方是千千万万的中小机构甚至是个人,就算你把模型开源出来,他们也无力部署这个模型,更不用说再用Fine-tuning这种模式去修改模型参数了。所以,我们应该追求不修正模型参数,就能让任务需求方完成任务的方式,也就是应该采取prompt/in context learning模式完成任务,而非Fine-tuning模式。模型制作方则将LLM作成公用服务,以LLM as Service的模式运行。作为服务支持方,考虑到千变万化的用户需求,所以LLM模型制作方更要追求让LLM能给尽可能多类型的任务提供基础支持,这也是为何超级大模型一定会追求走向AGI的现实因素。
You can only use API to fine-tune the model and then you can only use API to use the fine-tuned model (i.e., 私有的模型) for inference. Certainly, you can build an app calling the API for end users.