
IFLA发布《图书馆人工智能引入指南》
2025年06期【本期推荐】
本文翻译自Entry point to libraries and AI,获取原文请访问:https://repository.ifla.org/items/f197f327-dc49-4743-bb57-0a373505da8b
编者按:6月10日,国际图联(IFLA)发布了《图书馆人工智能引入指南》(Entry point to libraries and AI),这份指南是继2024年8月IFLA发布修订版《互联网宣言》之后,计划于2025—2026年发布的系列主题文件中的第一份。该指南目标是为图书馆负责任地使用AI提供支持工具。文件为图书馆提供了一份关键考虑因素和场景评估的清单,以协助图书馆在不同场景下对AI技术应用的益处与风险进行评估与讨论。 IFLA通过这份文件强调,图书馆的价值观和伦理准则对于推动社会负责任地使用人工智能至关重要。

图书馆人工智能引入指南
摘 要
人工智能(AI)为图书馆提供了巨大潜力,能有力支持图书馆的核心价值,例如促进信息公平获取和知识创造。然而,AI也是一项备受争议的技术,当前的发展引发了诸多伦理问题和社会担忧。
图书馆在推动AI的负责任、包容和可持续使用方面扮演着关键角色。图书馆秉持的价值观——言论自由、隐私保护、开放性和负责任的态度——为审视和应用AI工具与实践提供了一个重要的伦理视角。
这份文件宽泛地定义了AI,并提供了一系列实用的反思性问题,以帮助图书馆专业人员评估AI带来的机遇与风险。它并非一份终极指南或决策工具,而是希望激发整个行业进行深入讨论和协作决策。
该文件与国际图联(IFLA)更广泛的政策框架保持一致,未来将根据技术发展持续更新。
正 文
人工智能(AI)是一项极具潜力的技术集合,能够在知识获取与创造方面促进图书馆核心价值的实现。然而,该技术亦极具争议性,部分当前应用甚至正在造成实际损害。因此,确保AI技术发展所带来的益处得以公平分配、负责任地实现,并在最广泛意义上具备可持续性,是至关重要的。
图书馆的价值观和伦理原则与社会负责任地使用AI具有高度相关性。这些价值观致力于推动全民平等获取知识以及自由表达的权利,它们倡导开放性和问责制,同时亦尊重个人隐私、组织机密和知识产权。
在某些方面,“人工智能”(AI)这一术语涵盖的范围非常宽泛,很多时候,讨论具体技术(如机器学习或大型语言模型)可能更具实际意义。然而,公众的广泛讨论和公共政策的制定主要围绕更为宽泛的概念展开。因此,图书馆也需要在这一术语上明确自身的立场。基于此,我们在此将AI定义为一个广泛的范畴,以涵盖一些已经成熟且为人熟知的技术,而不仅限于生成式人工智能(Generative AI)。
本文件的基本前提是,作为专业人士,我们有责任确保AI在知识获取与创造方面的潜在益处能够以负责任的方式实现,同时抵制其有害因素。该文件为图书馆员提供了一份需重点考虑的问题清单,用于评估和讨论AI的益处与风险。它力求成为一个简洁且实用的工具,通过一系列问题(而非答案)来引导围绕AI的专业讨论,这些问题也必须反映AI技术的广泛性和快速演变的特性。
本文件旨在为图书馆员负责任地使用AI提供评估工具,帮助其明确AI的可能用途和应用场景。它并非独立的决策工具,也不应被视为终极解决方案。因此,我们强烈建议个人与同事、同行组织以及其他图书馆广泛开展讨论,以确保在AI的使用中采取“情境适应性”策略。
图书馆对AI的应对将充分考虑国际图联(IFLA)的其他政策[1]、图书馆界的相关声明[2]以及国际上关于AI伦理和监管的广泛讨论[3]。鉴于该领域的快速变化,相关内容需定期更新。
这份指南是继2024年国际图联发布修订版《互联网宣言》之后,计划在2025—2026年发布的系列主题出版物的一部分。
图书馆的角色
图书馆将与其他利益相关方合作,共同界定负责任地使用AI。他们可以在以下六个层面发挥影响力:
1. 开发或通过授权的方式获取图书馆AI服务;
2. 参与公共服务性AI的开发与训练;
3.指导图书馆用户如何选择和使用安全且负责任的AI服务;
4.强调数据、算法和人工智能素养是用户和公众信息素养及更广泛的数字素养的重要组成部分;
5.为图书馆所在的行业组织提供关于AI使用的咨询建议;
6.倡导全社会负责任地使用AI以及进行适当监管。
AI的潜在益处
2025年,人工智能一词常与生成式人工智能紧密相连。然而,就本指南而言,AI被用作一个涵盖多种数字技术的总括性术语,其中部分技术已在图书馆领域应用多年。通过以下方式负责任地开发这些技术,将有助于提升知识获取的可及性:
- 数字化,例如将印刷文本、手写文本、口述内容、多媒体以及视觉媒体转化为机器可读的形式
- 内容的规模化描述,涵盖元数据的生成
- 推荐功能、适应性、个性化与过滤
- 内容摘要与综合
- 数据分析
- 翻译
- 交互性
此外,AI应用有潜力通过常规的自动化任务来简化并增强图书馆运营的可靠性,从而提升图书馆传递服务效率。
AI还有潜力为特定用户群体带来益处,例如通过增强无障碍性,为残障用户等提供支持。
图书馆员有责任以公平、负责任且可持续的方式,最大化AI在信息获取方面的益处,并对那些本质上不道德的使用方式提出挑战。
可能与图书馆相关的应用包括:
- 图书馆部署图书或文章推荐系统
- 在检索流程及整个研究周期的其他环节中,协助用户负责任地使用生成式AI工具
- 接入增强型AI服务
- 利用AI提升对图书馆馆藏的获取
- 开发图书馆或机构级别的聊天机器人以回答参考咨询问题
- 开发检索增强生成(RAG)应用
- 提供数据以训练模型
- 在完成专业任务中使用生成式人工智能,例如总结文本或起草文件和培训计划
AI的潜在风险
若要以公平、负责任且可持续的方式实现以上益处,就必须解决AI技术反复出现的问题。这些问题包括:
- 对已证实益处的过度夸大以及炒作。在图书馆领域,目前仅有少数用例能够真正证明AI的成本效益。部分宣传只是炒作。由于这种炒作,一些可能更简单、更好且更公平的解决方案被忽视。此外,某些AI的使用正在造成实际的伤害。
- 不准确和误导性信息。AI基于概率计算运行,例如在推荐或过滤功能中常常会产生错误。生成式AI存在一些众所周知的问题,例如信息过时、看似合理但实则错误的内容、缺乏引用来源以及虚构来源等。在对准确性要求极高的使用情境中,这些问题尤为关键。
- 偏见。除了因算法设计不当而产生的偏见外,AI的输出还可能反映出训练数据中存在的不受控偏见。它们可能会复制有害的刻板印象,从而导致某些群体对使用AI产生疏离感。
- 对文化与语言多样性以及不同知识体系的尊重构成威胁。以非包容性方式开发AI,可能会重现殖民主义的权力结构,进而削弱图书馆在去殖民化馆藏和实践方面的努力。
- AI被滥用以制造虚假信息、误导性信息和进行审查。当AI落入不良之手时,可能对信息文化造成严重破坏。
- 获取机会不平等。如果在系统设计中未充分考虑数字访问能力有限、缺乏相关技能或信心不足人群的需求,他们可能会处于不利地位。鉴于AI系统的成本,它们往往仅能被特权阶层、机构和用户所使用。
- 缺乏可解释性和透明度。AI本质上难以完全理解,且常常在后台未被用户察觉地运行。许多AI公司对于一些关键问题(例如使用了何种训练数据)缺乏透明度。当AI出现错误时,责任归属可能并不明确。AI的使用时机和方式应始终对用户保持透明。
- 对隐私和安全构成威胁。在当前AI发展的模式中存在一种趋势,即通过在未经用户明确同意或未提供退出选项的情况下提取用户数据来训练AI。数据的收集、使用和出售可能会危及用户的安全。
- 对版权和作者权利构成威胁。当前AI的发展中存在一种模式,即使用受版权保护的材料来训练AI,但并非总是有合法途径能够获取这些原始数据,这在某些地区是违法的。此外,AI的训练方式可能还存在隐藏成本,例如从图书馆数据库中抓取数据,会给图书馆带来额外负担。
- 缺乏对利益相关方的咨询。在AI的开发过程中,常常未能充分吸纳并征询最广泛利益相关方的意见,包括那些可能受到AI影响的群体。
- 对人类自主性的威胁。AI可以使生活更加便捷,但也可能导致人的技能退化和信心缺失,进而引发对技术的过度依赖。AI常常以一种无形或不透明的方式被使用,这可能会减少人类的选择权。
- 对工作岗位的替代风险或加剧剥削性劳动关系的威胁。一些雇主已开始用AI取代创意型人才,而AI的开发常常依赖于低薪、临时劳动者来完成数据标注和筛选等艰苦甚至可能造成心理创伤的任务。
- 显著的环境影响。数字技术在设备制造与运输过程中消耗大量材料和能源,并且在AI的训练与使用中也存在较高的能源需求。尤其是生成式人工智能,其对电力以及用于冷却数据中心的淡水需求巨大。
- 缺乏监管的垄断性科技公司所拥有的过度权力,以及有害的国际人工智能军备竞赛的出现。AI的许多发展环节目前集中在缺乏问责机制的实体手中,而非以可持续的方式服务于全人类的利益。AI的开发应立足本土,尊重文化差异。开放的、非专有的开发方式应当是首选。
图书馆员应该询问的关于AI的14个问题
为了在享受AI带来的益处的同时控制其风险,图书馆员可以针对图书馆可能使用的AI服务提出以下问题(根据具体的环境和服务)。
这些问题设计的目的是作为评估工具,以审视在图书馆内使用AI所带来的益处和潜在风险。在问题下方的图片(如下图)可用于小组游戏或互动活动,以更生动的方式探讨这些问题。
- 知识获取和知识创造的本质是什么?与图书馆的主要职责和其他替代解决方案相比,AI所提供的这些益处的成本是否合理?
- AI输出信息的准确性、时效性和公正性如何?在使用时如何解释其准确程度?
- 有哪些保障措施可以最大限度地减少偏见、有害的刻板印象和假设?
- 如何保护和促进知识、文化和语言体系的多样性?
- AI工具的可及性是否助长了一些不良行为者传播虚假信息,从而带来更多审查?
- AI的这些益处是否公平可及,是否充分考虑了数字鸿沟和无障碍性等因素?
- AI应用在社会层面是否足够透明?AI产生的错误及影响的责任归属是否明确?
- 如何管理用户数据以确保其隐私和安全?
- 这款AI服务在开发过程中,是否使用非合法获取的数据或作品?
- 在AI开发和实施过程中,当地和社会利益相关者是如何参与的(或者将如何参与)?这是否确保了社区的数据主权(即维护其自身及文化遗产数据的所有权、控制权和管理权)?
- 如何确保用户在与AI互动时仍能保持自主性?这对用户的技能和信心有何影响?
- AI对人类就业有何影响,包括如工作岗位流失或更多地使用临时劳动力?
- AI服务的全生命周期对环境有何影响,例如电力需求和水资源消耗?
- 如果AI应用的开发者是第三方,他们的商业模式和负责任的运营方式是怎样的?

场景:支持图书馆用户负责任地使用生成式AI
下面几个场景是为专业开发而设计的讨论,你也可以根据需要进行调整。这在之前讨论过的相关场景的基础上[4-5],进行了进一步拓展和延伸。我们建议你不仅可以自己思考这些案例,还可以把它们作为促进集体讨论和学习的工具。
我们鼓励图书馆员在馆内进行互动交流,例如组织圆桌讨论,让参与者感受每个场景,并从不同角度回答问题。
我们的引导技巧包括:
1. 确保每个人都理解问题的核心与本质。
2. 邀请来自不同部门、学科和不同背景的多元化人员参与。
3. 为参与者分配角色或视角,以促进从多方面深入探讨场景。
4. 记录重要的思考和尚不明确的内容。
将您的经验与其他已使用本指南的图书馆进行比较。
场景1:支持图书馆用户负责任地使用生成式AI
针对图书馆用户行为的研究发现,生成式AI正带来显著变化。许多用户正在将免费的生成式AI聊天机器人作为获取信息的首选来源。他们普遍反映:“AI聊天机器人既方便又快捷,效率大幅提高。”一些用户,特别是有特殊信息处理或学习需求的用户,似乎觉得它们特别有价值。尽管用户们对信息准确性和技术依赖性等问题有所察觉,但对更深层次的社会影响,他们似乎缺乏足够的认识或未予重视。
一些用户甚至付费使用更优质的AI模型以获得更强大的功能。还有一些用户要求使用专业的AI工具进行文献综述和数据分析等任务。
与此同时,也有证据表明图书馆数据库的使用量正在下降,用户表示它们无法与免费聊天机器人的易用性相媲美。而您的图书馆也无法负担订阅图书馆数据库中出现的所有新功能。
针对此场景,请思考以下问题:
- 您从中识别出哪些伦理和价值议题?
- 您将如何应对?
- 这个场景的现实性如何?当前情势下,是否存在改变这些议题的因素?
提示
1. 知识获取和知识创造的本质是什么?与图书馆的主要职责和其他替代解决方案相比,AI所提供的这些益处的成本是否合理?用户感觉可以通过更便捷的渠道获取知识获取,似乎图书馆的部分传统角色被取代了。图书馆或许可以重新定位自己的角色。
2. AI输出信息的准确性、时效性和公正性如何?在使用时如何解释其准确程度?现有证据表明,用户对生成式AI的信息质量问题并不充分了解,随着可用的AI应用种类越来越多,这种情况更加明显。
3. 有哪些保障措施可以最大限度地减少偏见、有害的刻板印象和假设?与准确性问题相比,偏见问题可能对用户来说不那么明显。因此,图书馆需要开发相关的教育资料,帮助用户识别这些问题,并通过改进提示词的方式来尽量避免。
4. 如何促进多元知识体系以及文化和语言的多样性?工作人员将开发教育资料,帮助用户识别具有代表性的AI文化偏见,并通过改进提示词的方式来尽量避免。
5. AI工具的可及性是否助长了一些不良行为者传播虚假信息,从而带来更多审查?
6. AI的这些益处是否公平可及,是否充分考虑了数字鸿沟和无障碍性等因素?推荐特定的服务可能会有助于减少这种不平等。
7. AI应用在社会层面是否足够透明?AI产生错误及其影响的责任归属是否明确?
8. 如何管理用户数据以确保其隐私和安全? 虽然用户已经知晓数据保护的重要性,但他们对生成式AI背景下,这些问题可能带来的影响认识并不充分。
9. 在使用数据训练AI时,如何与数据内容的创作者和所有者进行协商、给予认可并提供回报?用户可能需要了解这个问题,尤其是涉及他们上传了自己的作品或受版权保护的内容(例如总结或翻译)时。
10 .在AI开发和实施过程中,当地和社会利益相关者是如何参与的(或者将如何参与)?这是否确保了社区的数据主权,即维护其自身及文化遗产数据的所有权、控制权和管理权?用户可能需要在这方面接受相关教育。
11. 如何确保用户在与AI互动时仍能保持自主性?这对用户的技能和信心有何影响?用户可能觉得人工智能只是让他们变得更“高效”,但这种技术对他们的技能、创造力和自主性可能还有更深的影响。
12. AI对人类就业有何影响,包括如工作岗位流失或更多地使用临时劳动力?用户可能对这一问题有一定的了解。
13. AI服务的全生命周期对环境有何影响,例如电力需求和水资源消耗?社会对这一问题的关注度正在增加。图书馆需要确保其在使用人工智能时,能够保持对可持续发展的承诺。
14.如果AI应用的开发者是第三方,他们的商业模式和负责任的运营方式是怎样的?用户可能需要了解这些问题,尤其是与大型科技公司提供的服务相关的方面。
场景2. 图书馆员工使用生成式AI
作为一名管理者,您注意到一些员工正在使用生成式AI来协助完成任务,例如撰写电子邮件和市场材料,总结和翻译文档等,甚至将其作为回答参考咨询的首选工具。通过这个过程,他们也获得了有用的技能。
然而,另一些员工则拒绝使用生成式AI来做任何事情。他们提出的顾虑包括AI的准确性问题和各种“伦理问题”,例如其对环境的影响。
您计划举办一个研讨会,以统一员工在AI使用上的做法,并可能籍此制定一份AI使用政策。
- 您从中识别出哪些伦理和价值议题?
- 您将如何应对?
- 这个场景的现实性如何?当前情势下,是否存在改变这些议题的因素?
提示
1. 知识获取和知识创造的本质是什么?与图书馆的主要职责和其他替代解决方案相比,AI所提供的这些益处的成本是否合理?目前来看,图书馆似乎正从员工使用AI中获益,这体现在内部效率的提升以及可能为最终用户提供信息访问,且表面上没有额外成本。但需要考虑那些潜在影响,这些影响可能在回答问题时出现。
2. AI输出信息的准确性、时效性和公正性如何?在使用这些信息时,如何向用户解释其准确程度?员工在使用AI生成的信息时,务必仔细核查其质量。为此,制定一套通用指南并提供有效的提示词帮助,将有助于最大限度地提升AI的使用效果。同时,或许有些应用场景应被明确排除在AI的适用范围之外。
3. 有哪些保障措施可以最大限度地减少偏见、有害的刻板印象和假设?员工可能需要接受相关培训,学习如何识别此类偏见。
4. 如何促进多元知识体系以及文化和语言的多样性?员工或许需要接受培训,学习如何评估AI输出中可能存在的文化偏见,并设计有效的提示词来抵消这些偏见。
5. AI工具的可及性是否助长了一些不良行为者传播虚假信息,从而带来更多审查?
6. AI的这些益处是否公平可及,是否充分考虑了数字鸿沟和无障碍性等因素?可能需要提供培训,以确保所有员工都具备有效利用生成式AI的技能。
7. AI应用在社会层面是否足够透明?AI产生错误及其影响的责任归属是否明确? 考虑到图书馆在用户眼中可能需要为其使用生成式AI所导致的错误负责,因此应充分考虑可能带来的全部影响。
8. 如何管理用户数据以确保其隐私和安全? 如果员工需要输入关于图书馆或用户的数据,这可能会成为一个值得关注的问题。
9. 在使用数据训练AI时,如何与数据内容的创作者和所有者进行协商、给予认可并提供回报? 市场可能存在一些替代当前常见生成式AI服务的方案,这些方案在处理版权问题时可能更为负责任。例如,用于以营销为目使用AI生成图像,其版权归属可能存在潜在争议。
10. 在AI开发和实施过程中,当地和社会利益相关者是如何参与的(或者将如何参与)?这是否确保了社区的数据主权,即维护其自身及文化遗产数据的所有权、控制权和管理权?可能存在一些替代当前常见生成式AI服务的方案,这些方案在利益相关者参与AI开发和实施方面采取了更负责任的方法。
11. 如何确保用户在与AI互动时仍能保持自主性?这对用户的技能和信心有何影响? AI的使用可能会导致员工技能退化,因此,应特别注意避免将决策权完全交给AI系统。
12. AI对人类就业有何影响,包括如工作岗位流失或更多地使用临时劳动力? 可能存在一些替代当前常见生成式AI服务的方案,这些方案在劳动实践方面有更好的模式。
13. AI服务的全生命周期对环境有何影响,例如电力需求和水资源消耗? 可能存在一些替代当前常见的生成式AI服务的方案,它们在环境保护方面更加友好。
14. 如果AI应用的开发者是第三方,他们的商业模式和负责任的运营方式是怎样的?可能有一些替代生成式AI的服务方案,这些服务在应对人工智能的社会影响方面表现得更加负责任。
场景3.利用AI辅助图书馆资料的元数据创建
一家图书馆正考虑与第三方AI供应商合作开展试点项目,探索AI如何协助创建元数据。当前的主要需求是解决大量积压的书籍和其他资源的编目问题。同时,有观点认为该项目有潜力扩展到特藏和研究数据中的大规模数字资源。与其他机构的讨论表明,元数据创建过程只有一部分可以轻松自动化,并且仍需要员工进行质量检查。
部分员工对该提议项目持怀疑态度:他们认为这会显著降低元数据质量,并暗示这会推动图书馆走向全面自动化的道路。
- 您从中识别出哪些伦理和价值议题?
- 您将如何应对?
- 这个场景的现实性如何?当前情势下,是否存在改变这些议题的因素?
提示
1.知识获取和知识创造的本质是什么?与图书馆的主要职责和其他替代解决方案相比,AI所提供的这些益处的成本是否合理?这种通过AI提升知识获取的益处需要进一步阐明。解决任务积压问题有传统方法,例如增聘员工。或许也有更简单的技术,能在产生较少负面影响的情况下达到相同效果。
2.AI输出信息的准确性、时效性和公正性如何?在使用这些信息时,如何解释其准确程度?AI对元数据准确性的影响需要进行评估。
3.有哪些保障措施可以最大限度地减少偏见、有害的刻板印象和假设?在不同文化背景下开发和发展的人工智能可能存在代表性不足的风险。
4.如何促进多元知识体系以及文化和语言的多样性?工作流程需引入社群验证机制来确保AI描述的准确性,图书馆员须严格审查AI输出内容是否存在文化偏见和西方中心主义观点。
5.AI工具的可及性是否助长了一些不良行为者传播虚假信息,从而带来更多审查?AI本身是否在助长虚假信息传播并带来更多审查?
6.AI的这些益处是否公平可及,是否充分考虑了数字鸿沟和无障碍性等因素?
7.AI应用在社会层面是否足够透明?AI产生的错误及影响的责任归属是否明确? 图书馆需要对这些错误承担合理的责任,并透明地说明AI的使用方式。
8.如何管理用户数据以确保其隐私和安全?
9.在使用数据训练AI时,如何与数据内容的创作者和所有者进行协商、给予认可并提供回报?
10.在AI开发和实施过程中,当地和社会利益相关者是如何参与的(或者将如何参与)?这是否确保了社区的数据主权,即维护其自身及文化遗产数据的所有权、控制权和管理权? 在项目中咨询广泛的用户群体至关重要。
11.如何确保用户在与AI互动时仍能保持自主性?这对用户的技能和信心有何影响?
12.AI对人类就业有何影响,包括如工作岗位流失或更多地使用临时劳动力? 现有员工的角色可能被弱化,这可能意味着专业知识和地位的丧失。就这些问题进行咨询和讨论应成为项目的核心。
13.AI服务的全生命周期对环境有何影响,例如电力需求和水资源消耗?应该向AI供应商寻求关于可持续性方面的保证。
14.如果AI开发者是第三方,他们的商业模式和负责任的运营方式是怎样的? 图书馆将关注潜在合作伙伴的伦理立场。
此外,李氏清单((Lee’s checklist))[6]也能为讨论提供参考。
将洞察转化为行动
这些指导原则只是一个开始,其中包含的问题和情景旨在引发大家对人工智能在图书馆应用中的批判性思考,并促进协作。我们提供了在不同场景中的使用建议,但我们也知道,每家图书馆会根据自身情况选择不同的使用方式,无论是通过正式讨论、会议、非正式交流、政策审查还是社区参与,这些方式都同样重要且有价值。
因此,我们很想了解您在具体场景中是如何应用这些指导原则的。
它们是否帮助您做出了某个特定的决策或推动了某次讨论?您是如何应用它们的,又收到了哪些反馈?
您的经验对于我们了解这份文档的实际效果以及未来版本的更新至关重要。我们诚挚地邀请您与我们分享您在实践中的思考感悟,以及遇到的挑战。您的意见将有助我们未来的版本更友好、更全面、更实用。
参考文献:
