大模型赋能图书馆平台——“智慧图书馆技术应用讲座”2023年第8期(总第24期)精彩回顾

大模型赋能图书馆平台——“智慧图书馆技术应用讲座”2023年第8期(总第24期)精彩回顾

10月16日上午10点,2023年第8期(总第24期)“智慧图书馆技术应用讲座”在腾讯会议和视频号直播同步举办。本期讲座主题为“大模型赋能图书馆平台”,邀请上海图书馆数据分析师蔡丹丹和武汉鼎森产品总监付乔担任主讲嘉宾。线上总计1200余人参与了本次讲座。

蔡丹丹《<智慧图书馆大模型创新与应用白皮书>解读》从宏观角度介绍了大模型赋能智慧图书馆的全景,并总结了三个路径,分别是场景创新路径、落地实践路径和创新生态建设路径,为图书馆进行大模型的应用提供了参考。

《智慧图书馆大模型创新与应用白皮书》下载地址:https://www.calsp.cn/download-category/whitepaper

付乔《大语言模型在图书馆领域的应用与探索》从AI当前技术发展讲起,结合行业痛点,探讨了大语言模型、智慧图书馆平台和各类线上线下的应用场景,为我们带来大模型在图书馆具体服务应用的探索实践。

博看智慧咨询云瀚应用ChatBK1.0试用地址:https://llmcollect.bookan.com.cn/

交流互动

在讲座的交流互动环节,线上观众提问踊跃,部分精彩内容摘记如下。

问:白皮书中提到了关于知识图谱的优势作用,那么如何将知识图谱与大模型的应用结合,可以具体解释一下么

蔡丹丹:知识图谱在与大型语言模型结合时,可以提高问题回答的准确性。通过结合知识图谱和向量知识库,可以进行关键词检索和实体检索,以获取更多丰富的结果,结果经过知识图谱实体过滤,再传递给大型语言模型处理,形成一个小的检索模块。这种方法结合了语言模型的处理能力和知识图谱的信息,提高了问答系统的准确性,是一种自动化的步骤,可用于改进问答程序。这是知识图谱与大模型应用的一个实际案例,还有其他多种使用方法可以进一步探索。

付乔:在实际应用中,知识图谱对于提高问答系统的准确性和理解程度至关重要。将大型语言模型比作学生,知识图谱则是教材。若教材贴近学生需求,学习效率更高。图书馆等机构提供的知识图谱可被看作教材,质量影响系统性能。知识图谱的参与显著提高学习效率和理解,从而改进互动效果。

问:博看在chatBK1.0智慧咨询实际开发过程中碰到最大的难点是什么?如何解决的?

付乔:我们首先面临的挑战是人员的素质。因为这是一个新领域,需要花时间学习新技术和文献。然后,我们面对大模型选择问题,如何整合各种不同的模型,需要耗费大量时间和人力。应用到图书馆后,发现不同图书馆有不同需求,因为他们的教材不同,导致学习效果不同。目前,我们正在通过规整文档库、自动评审和简化文档处理来解决这个问题。最后,我们需要让用户清楚理解大模型的作用,因为用户群体各异。我们在提示词和插件方面进行研发以解决这个挑战。这些是我们面临的问题和解决途径。

问:智慧图书馆的应用场景很广泛,可以和社会网络开放大学联系起来吗?其优势与局限在哪些方面?蔡丹丹:白皮书提到的专业培训可以在更广泛的范围内开放,不仅限于联盟。为实现更广泛的创新,需要与更多机构合作,包括学术机构和技术企业。这可以看作是社会网络开放大学的一种概念。这种方法的优势在于通用性和适应性,但联盟需要吸引不同社会角色的参与以取得更好的效果。

付乔:技术不受行业限制。智慧图书馆平台应用了新技术和框架,虽然以图书馆为基础,但可扩展至其他应用场景。我们考虑将核心套件开源,供社区和特定场景使用,不仅仅限于图书馆。例如,如果大型语言模型成为开源工具,它可在各领域应用,减轻开发负担。通过企业的前置研发,可将其打包成一个可调用的工具,满足不同业务需求,这一领域潜力深厚。

问:请问, 大模型应用指的是ChatGPT的API的调用吗?还是指开源的大模型,如ChatGLM, LLAMA?

蔡丹丹:在白皮书当中,对大模型的应用就是依据我们的框架,有一种“+大模型”是通过API的调用。当然不限于我们比较熟悉的ChatGPT,还有国产的很多大模型,在经过了合规性的调整之后,他们也是可以开放一些API来进行调用的。另一个是开源大模型的部署,比如说经过微调或者是其他知识的训练之后,可以考虑一些本地化的使用方案。开源大模型也不仅限于ChatGLM或者是LLAMA。现在开源大模型的技术进步也非常的快,我们的应用模式总体是本着渐进的思路,不要盲从,从图书馆自己的业务需要和馆藏特色资源来考虑如何去应用。

问:传统的咨询机器人需要人工输入问题给机器人(以匹配用户提问),博看大模型如何获取某个图书馆用户的情境化数据(用户提问)?付乔:一个大模型分为两个步骤,首先我们告诉它一些知识点,比如介绍或者地点等关于图书馆本身的知识点。当它把这些知识点学习了之后,我们不是去收集用户的问法来进行分析,而是让大模型对用户的提问进行一个分析和理解。大模型分析理解之后,会到知识库也就是到它的大脑里面查看我们之前有没有教它相关的内容,再根据这个知识点去做相应的匹配和生产。数据的收集就是把读者的一些问询和对话的历史数据进行统计和记录,工作人员在这个对话历史里面去筛查,在后台对问答进行效果评估打分。如正确率不高的话,会人为修改这个知识点结构。

问:博看大模型1.0版中的基本功能如论文写作辅助、翻译与润色等功能,与其它通用大模型相比有什么优势?从基本功能来看,1.0版的“图书馆化”还不是很明显(聚焦图书馆痛点问题可能还有所欠缺)?

付乔:我们最大的差异性是针对图书馆已有数据的一个训练调优,图书馆用大模型并不只用它的一些通用能力,我们更应关注图书馆已有数据和大模型结合后带来的性能和服务的提升。数据分两种,一种是文本类的文档数据,另一种是我们自己的一些系统,不管是以API的形式,还是以其他的形式与大模型进行对接。这些数据能够帮大模型深入到我们图书馆的一些业务服务中去,而不是做一个简单的百科。

课件下载


蔡丹丹《<智慧图书馆大模型创新与应用白皮书>解读》
付乔《大语言模型在图书馆领域的应用与探索》

发表评论

云瀚联盟-智慧图书馆技术应用联盟(筹)