admin管理员组文章数量:1130349
企业级ChatGPT开发入门实战
第1课 基于ChatGPT的端到端语音聊天机器人项目实战
Gavin老师:NLP_Matrix_Space
1.4 使用FastAPI构建语音聊天机器人后端实战
在后端代码(backend)中调用了OpenAI API及其他的服务,如图1-10所示。
图1- 10 后端代码调用OpenAI API
openai_requests.py是一个相对比较简单的代码文件,在生产级开发中,一般都会有一个模型层,会分成前端、后端、模型这三个层次,设置模型层有一个很重要的点,无论是开发还是架构,能力不断进步或者解决问题的过程,其实就是解耦合的一个过程。在实际生产级别,会把模型作为一个具体的服务,在服务内部可以做很多事情,这是模型即服务(model as a service)。我们这个项目有好几个版本,现在给大家展示的版本是一个端到端完整可运行的项目,让大家感受一下,基于大模型驱动的对话机器人的整个开发流程以及具体的实现,从企业级的角度,有前端、后端、模型层,在这里我们简化了这个过程,在代码中,给大家写了非常清晰的注释,结合整个流程图,读者会很清晰的感受到它具体的执行过程以及代码本身的组织方式。
我们主要讲解后端,为了帮助大家学习,在后端跟大家做了很详细的日志记录,将所有的日志都输出到chatbot_backend.log日志文件中,在这里面会显示具体的详细过程。
main.py的代码实现:
企业级ChatGPT开发入门实战
第1课 基于ChatGPT的端到端语音聊天机器人项目实战
Gavin老师:NLP_Matrix_Space
1.4 使用FastAPI构建语音聊天机器人后端实战
在后端代码(backend)中调用了OpenAI API及其他的服务,如图1-10所示。
图1- 10 后端代码调用OpenAI API
openai_requests.py是一个相对比较简单的代码文件,在生产级开发中,一般都会有一个模型层,会分成前端、后端、模型这三个层次,设置模型层有一个很重要的点,无论是开发还是架构,能力不断进步或者解决问题的过程,其实就是解耦合的一个过程。在实际生产级别,会把模型作为一个具体的服务,在服务内部可以做很多事情,这是模型即服务(model as a service)。我们这个项目有好几个版本,现在给大家展示的版本是一个端到端完整可运行的项目,让大家感受一下,基于大模型驱动的对话机器人的整个开发流程以及具体的实现,从企业级的角度,有前端、后端、模型层,在这里我们简化了这个过程,在代码中,给大家写了非常清晰的注释,结合整个流程图,读者会很清晰的感受到它具体的执行过程以及代码本身的组织方式。
我们主要讲解后端,为了帮助大家学习,在后端跟大家做了很详细的日志记录,将所有的日志都输出到chatbot_backend.log日志文件中,在这里面会显示具体的详细过程。
main.py的代码实现:
版权声明:本文标题:基于ChatGPT的端到端语音聊天机器人项目实战(三) 内容由热心网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:https://it.en369.cn/jiaocheng/1763941966a2973506.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。


发表评论