
在不确定中定义未来:AI时代研究型图书馆的战略抉择与行动议程
2026年04期【本期推荐】
本文编译自:https://www.arl.org/wp-content/uploads/2026/03/AI-Futurescape-Workshop-Report-2026.pdf
近日,美国研究型图书馆协会(ARL)与网络信息联盟(CNI)正式发布名为《AI未来对研究型图书馆的战略影响:研讨会报告》(Strategic Implications of AI Futures for Research Libraries: Workshop Report)。该报告由科罗拉多州立大学图书馆馆长 Karen Estlund 与约翰霍普金斯大学副馆长 Cynthia Hudson Vitale 共同撰写,汇集了数十位顶尖图书馆领导者与专家的集体智慧。这份报告基于2024年12月ARL与CNI举办的战略研讨会成果,系统梳理了研究型图书馆在AI快速演进背景下的4种未来情景与6项稳健战略。报告还结合2025—2026年的最新信号,补充了相关新兴议题。全文为研究型图书馆在高度不确定的环境中找准方向、推动转型提供了清晰的行动框架与务实建议。下文编译自报告部分章节内容。

研究型图书馆正处于被技术变革影响最深远的时期之一。生成式AI已不再是一个独立的工具,而已经深度嵌入到发现系统、出版平台、研究工作流程及企业软件之中。一方面,正在重塑知识获取的经济模式,另一方面也在加剧隐私与安全的治理负担,并对大规模负责任运营所需的人才能力提出更高要求。与此同时,AI的发展路径仍充满高度的不确定性:市场结构、法规可执行性、学术信任以及机构能力等问题,将决定我们的未来会迎来哪些可能。
为应对在此背景下的战略规划需求,ARL于2024年12月7日至8日在美国华盛顿特区召开了战略影响研讨会——“未来图景中的图书馆:探索未来信息枢纽的多种可能性”。本次研讨会由卡内基梅隆大学图书馆馆长Keith Webster主持,以《ARL/CNI 2035情景设想:AI影响下研究环境的未来》(ARL/CNI 2035 Scenarios: AI-Influenced Futures in the Research Environment)为框架,其目的并非预测单一的未来,而是在多种可能发生的未来情景中对图书馆的战略进行压力测试。
参会者围绕所设想的4个不同的2035年AI应用情景展开工作,旨在揭示战略短板,明确眼前的决策关键点,并制定一套在多种未来情景下都适用的行动议程。这4个情景由两个关键的不确定性因素所界定:
- AI流程与设计的社会能动性:相关流程与设计究竟是能够前瞻性地回应社会的需求与期待,还是会受到种种局限?在此采用“能动性”这一概念,意在超越单纯的被动响应,而是进一步追求实效,并强调围绕AI构建负责任、具有前瞻性的流程与设计。
- AI的社会适应性:社会对AI的适应将是广泛的还是有限的?在此语境下,“适应”既包括采纳程度,也包括应对不断变化的社会并进行调整的能力。
预见2035年:AI应用4大设想情景
情景一:民主化与社会融合型AI
人机界面与AI技术的进步汇聚在一起,实现了人类能力与计算能力前所未有的融合,并在日益开放的知识获取环境中蓬勃发展。AI以无缝、负责任且安全的方式与人类融为一体,深刻改变着研究、知识发展、协作与沟通的方式。
情景二:以消费为导向,聚焦教育与娱乐的AI
AI进展和影响体现在消费应用上,这些应用易于盈利、争议较少且门槛较低。科技巨头驱动着人际互动方式的变革,在真实、虚拟与融合的世界里,借助AI塑造出更丰富的环境与体验。
情景三:自由放任型AI
人们对AI的兴奋与炒作,以及相信AI能解决世界上最棘手问题,导致在消费生活与专业领域过于激进、草率地采用AI。那些带有严重偏见或功能缺陷的AI应用被部署上线,导致可预见的恶果、信任崩塌及监管失当;此外,整体环境也极易被国内外不良行为者蓄意操控,并遭受虚假信息的侵扰。
情景四:自主型AI
AI正日益成为研究与学习领域独立的伙伴与协作者。它既利用了不断扩展的开放资源与数据,也利用了人力资源的稀缺与高成本。知识以前所未有的速度飞速发展,远超人类独自所能取得的研究进展。社会已经适应了一个在方方面面都被AI增强的世界,并在此过程中,有意或无意地将越来越多的自主权让渡给了AI。
研讨会最终形成的稳健策略在4个情景中均同样有效,这些策略被划分为6大主题领域。
6大稳健策略
01 人才队伍建设与组织文化
1.1 通过AI素养培训、员工技能提升,以及根据岗位准备情况,在特定业务中试点AI集成工具,持续投入人才队伍建设。
1.2 制定灵活的岗位职责,调整人员配置模式以适应新兴需求,并招募懂AI的专业人才。
1.3 建立组织层面的思维导向,包括自主能动性、适应变化能力,以及设计面向未来的解决方案。
02 馆藏、技术与基础设施
2.1 利用馆藏资源训练AI,需优先遵循以下原则:知情同意、文化权威、来源可溯和受控使用。
2.2 以“AI优先”的思维模式,开发新的馆藏管理与元数据管理方法。
2.3 利用AI提升特藏与数字化档案的可访问性及交互体验。
03 AI素养与批判性思维技能
3.1 打造动态更新、针对性强的信息素养与AI素养培训体系,帮助用户识别偏见、甄别虚假信息、应对伦理挑战。
3.2 培养用户在复杂的 AI 驱动的信息环境中驾驭信息的能力,同时维护图书馆作为可靠信息来源的信任度。
04 伦理立场与价值观定位
4.1 为研究人员和教育工作者提供AI伦理、数据管理及权利保留方面的专业指导。
4.2 在引入和使用AI工具及服务时,始终确保其符合图书馆的核心价值观。
05 校园合作与机构整合
5.1 与AI研究人员和技术专家建立跨校园合作伙伴关系。
5.2 将图书馆纳入机构AI战略体系;组织校园范围内关于AI伦理使用、知情同意与数据隐私的讨论。
06 集体行动、倡导与伙伴关系
6.1 组织关于合理使用、版权及许可协议的讨论,并确保这些讨论优先服务于高等教育与研究人员的需求。
6.2 加强图书馆、企业实体与政府之间的协作,共同制定共享标准并开发合乎伦理的AI应用。
在这些主题领域中,以下几项近期优先事项,对图书馆领导者而言尤为紧迫:
- 投资人才队伍建设。无论哪种AI未来成为现实,AI素养培训、灵活的岗位以及让员工能够安心试错的机会,都是基础性工作。等大局已定再进行技能提升,是一种战略风险。
- 利用独特的馆藏资源。研究型图书馆拥有商业AI系统无法复制的资产——特藏、数字化档案、经过整理的语料库。利用这些资源来负责任地训练或赋能本地AI模型,并开发以AI为先导的元数据与馆藏管理方法,是一个独特的发展机遇。
- 引领治理与伦理工作。建立AI治理框架、伦理委员会以及针对偏见的评估流程,不仅是机构的责任,更是一种差异化竞争优势。图书馆有能力引领校园范围内关于负责任地使用AI、数据隐私和知情同意等议题的讨论,这是其他少数单位难以做到的。
- 建立并深化合作伙伴关系。与AI研究人员开展跨校园合作,将图书馆纳入AI战略体系,并在版权、许可和共享标准等方面加强图书馆界的集体行动,对于保持图书馆的影响力和相关性至关重要。
关键不确定因素
报告发布一年以来,最初确定的两大关键不确定性因素——AI流程与设计的社会能动性和AI的社会适应性依然是区分不同未来情景的最核心维度。然而,一系列愈发密集、相互强化的发展趋势和日益明确的信号,正在重塑当前的研究环境。
AI应用的过程同时存在加速与分层两种趋势,都对研究型图书馆有着直接的影响。生成式AI已从实验阶段迈入基础设施阶段:相关工具已经嵌入主流的办公软件、集成到图书馆数据库与发现系统,并越来越多地出现在教师和学生日常使用的学习与研究工具中。这一转变对图书馆的核心职能,包括资源评估、批判性素养教学以及馆藏资源的真实性与完整性带来新的压力,对于大多数用户而言,可信的图书馆资源与AI所生成内容之间的界限正变得模糊难辨。
与此同时,当前AI的应用速度并不均衡,AI所造成的数字鸿沟正从多种维度不断扩大。从全球来看,北半球国家的AI采用率增长速度几乎是南半球国家的两倍,这加剧了知识基础设施获取方面原有的不均衡。而在机构内部,有数据显示男女在AI使用上也存在差距,女性使用生成式AI工具的意愿明显低于男性。这一差距若不加以干预,这种不均衡的状态有可能以一种新的形式复刻人们所熟悉的“技术性排斥”模式。对于致力于保障信息公平获取的研究型图书馆而言,这无疑是对其使命的直接冲击。
能动性维度已成为AI发展中最具争议的领域。一方面,广泛部署的工具展示了有限的能动性在实践中会产生什么后果:薄弱的约束机制、有害的内容输出,以及优先考虑规模而非问责制的设计。另一方面,日益壮大的抗衡力量,包括公开支持伦理约束机制的AI公司领导者、由慈善机构支持的联盟(如HumanityAI),以及开源社区正在推进一种以人为本的替代性设计模式。这一态势正受到国家安全主体(尤其是美国)的进一步挤压。在美国,军事机构不受限制地访问AI系统,已使AI的伦理约束从技术或伦理偏好问题发展成为地缘政治的冲突焦点。
综合来看,2025年的信号表明,在大多数图书馆和用户实际接触到的AI工具正朝着更低能动性的方向发展。这使得情景三(自由放任型AI)和情景四(自主型AI)成为图书馆制定AI近期规划时更有可能参考的对象。这并不是说另一种可能性(高能动性)不存在,而是因为能够支撑那种模式的制度和监管条件尚不成熟。本报告的评估范围主要集中在美国和加拿大。然而,其他地区的监管框架,尤其是欧盟,可能会提出更高的能动性要求,进而改变全球的整体走向。对于在这些地区运作的图书馆而言,应结合自身所处的监管环境,对各个未来情景做出相应的权衡与判断。
战略行动实施一年回顾
报告对战略行动实施一年后的情况进行梳理,主要基于公开可获取信息(图书馆官网、发布的新闻、LibGuides学科指南、项目页面及其他对外公开文档)。该方法会遗漏具体实践中诸多关键工作,尤其那些在内部开展的业务运营与治理工作。
报告中的多项策略本质上属于后台工作,因此难以形成统一的公开文档。包括:工作流梳理与就绪度评估、人才创新实验机制与“沙盒”环境权限、供应商功能清单与启用/停用决策、合同审核条款、防范恶意机器人的网络安全控制措施、内部模型/工具评估标准,以及绩效管理整合机制。多数情况下,图书馆完全有理由不公开细节,如合同涉密、安全风险、法律责任、声誉考量或试点项目尚未完成。
因此,“未列入本报告”不应等同于“未开展相关工作”。根据行业实践经验,部分相关工作正在推进,但仅通过同行网络、会议报告、会员专属论坛、邮件列表等封闭专业社群传播,而非机构官网。本部分信息仅呈现面向公众的活动与公开实践,多见于有完善宣传与传播团队的机构。该数据可视为研究型图书馆AI整体应用与成熟度的下限,内部运营相关工作的统计缺口尤为明显。
策略实施案例
01 人才队伍建设与组织文化
系统化员工培训、实践社群及新增AI专项岗位,现已成为研究型图书馆最为显性的人才队伍建设活动,这标志着相关工作从探索性讨论转向制度化建设。设立专职AI管理岗位,表明部分机构已从临时应对转向持续的组织变革。2025年10月,ACRL发布的《高校图书馆员AI能力框架》(AI Competencies for Academic Library Workers)、Leo S. Lo提出的《全民人工智能素养通用框架》(AI Literacy for All: A Universal Framework)已为岗位界定、培训设计与年度目标设定提供通用基准。
- 北卡罗来纳大学图书馆:定期开设生成式AI技能专题工作坊,配套人才就绪度自评工具,完整记录培训项目与个人发展路径。(稳健策略1.1)
- 纽约州立大学石溪分校图书馆:设立AI主任岗位,为全美图书馆界首批同类专职岗位,统筹机构内AI战略整合工作。(稳健策略1.2)
- 卡内基梅隆大学图书馆:“AI研究支持”(AI in Research)项目提供培训工作坊、工具评估框架与实践社群,明确以能力建设为目标,而非单次培训。(稳健策略1.3)
仍需完善:AI在业务流程中的试点应用情况、对现有岗位职责的影响;岗位职责中AI相关表述、年度目标与考核机制。
02 馆藏、技术与基础设施
研究型图书馆当前最突出的工作集中于:开放馆藏与元数据用于AI应用,通过试点应用AI工具优化特藏资源获取途径。不同机构应用的成熟度差异显著——如哈佛大学图书馆结构规范的公共领域语料库,也有仅单馆开展的文本转录试点,但方向一致:图书馆从将馆藏界定为AI相关资源,转向搭建基础设施,提升馆藏的可读性与可用性。供应商嵌入的AI功能,已是大多数图书馆最直接的运营现状,但对其治理仍是最薄弱的环节。
- 哈佛大学图书馆:发布约100万册数字化公版图书构成的语料库,用于大语言模型训练,同时出台使用政策与申请访问机制,平衡开放获取与合规复用。(稳健策略2.1)
- 康奈尔大学图书馆:发布《开放书目元数据指南》,提供许可指导,明确可共享的字段与记录。(稳健策略2.2)
- 普林斯顿大学图书馆:开展项目探索大语言模型如何增强非罗马文字的编目流程,包括生成扩展内容附注、自动化罗马字转写,同时记录AI辅助编目的潜力与当前局限。(稳健策略2.3)
- 罗格斯大学图书馆:2025年起,正式实施对AI软件安装前正式审核,针对特藏场景开展多工具评估,体现治理体系与试点工作同步成熟。(稳健策略2.3)
仍需完善:建立明确的决策框架,将敏感馆藏或受文化协议约束的馆藏排除在AI应用范围之外;针对历史遗留的数字化合同,若其订立时未预见到当前AI应用情景,则需对其进行系统性审查。
03 AI素养与批判性思维技能
AI素养教育已成为图书馆工作中最为活跃且受关注度最高的领域之一,且已经有了积极且显著的转变:不再仅讲授工具使用,而是将其与批判性评估、引用规范及伦理使用相结合。相关AI素养认证项目与结构化框架的出现,正推动AI素养教育从一次性专题讲座,转向持续性、可认证的能力培养。当前面临的挑战在于,如何将面向早期AI使用者的相关项目进行规模化推广,覆盖更广泛的校园群体,包括对AI持怀疑态度者、信心不足者,以及现有服务模式未能充分惠及的人群。
- 耶鲁大学图书馆:发布涵盖隐私、引用规范与工具评估的AI研究指南,并制定面向教学场景的AI素养框架,将图书馆定位为校级核心资源机构,而非被动响应的辅助部门。(稳健策略3.1)
- 康考迪亚大学图书馆:将AI素养视为信息素养使命的直接延伸,为师生提供统一的AI咨询入口,并引导用户访问校级AI资源中心,以获取更全面的机构层面支持。(稳健策略3.2)
- 多伦多都会大学图书馆:为响应师生对实用型、研究导向AI的迫切需求,推出了“AI素养徽章认证项目”。该项目聚焦研究工作流,具体模块包括:信息检索、结果验证和规范引用。(稳健策略3.2)
仍需完善:项目需明确面向AI使用率低的群体,旨在帮助其建立使用信心,正视并解决已被证实存在的性别差异、职业阶段差异等 AI 应用鸿沟,而非沿用仅能吸引“已有参与意愿人群”的传统模式。
04 伦理立场与价值观定位
在优秀的公开实践案例中,三大治理领域正呈现出高度一致的发展趋势:一是明确的AI使用价值声明;二是涵盖供应商限制条款与作者授权协议的版权及许可使用指引;三是形成书面记录的工具与数据集审查流程。发展最为成熟的机构已不再止步于发布价值声明,而是通过建立审查机制、开展员工许可条款相关培训、公开承诺接受监督的人工管控机制等方式,将价值理念落到实际运营中。
- 约翰斯·霍普金斯大学谢里登图书馆:梳理并阐明了开放获取、作者权益与AI许可限制三者之间的关联,帮助研究者理解,开放获取的学术成果并不意味着可在AI辅助研究中自由复用。(稳健策略4.1)
- 科罗拉多州立大学图书馆:通过发表公开特约专栏文章,联合校内群体及同行图书馆开展全国性倡议行动,成功推动了一项出版商订阅合同中AI相关条款的修改。(稳健策略4.2)
- 蒙大拿州立大学图书馆:开发了名为Viewfinder的价值导向型工具包,助力图书馆员、研究者与档案管理员审慎评估是否及如何采用AI工具,确保应用方式与机构价值理念保持一致。(稳健策略4.2)
- 纽约州立大学石溪分校图书馆:发布公开透明的声明,承诺实行人工监督(“无人则无 AI”)、加强隐私保护,并保留AI工具的试点与停用权限;同时明确指出,当前许多订阅工具已内置AI功能,而此类新增功能往往未经过采购审批流程。(稳健策略4.2)
仍需完善:随着AI对图书馆授权资源与馆藏资源的调用日益增多,亟需出台关于溯源追踪的实操性指导规范。尽管各馆已制定相关价值声明,但多数图书馆仍缺乏可落地执行的流程工具。
05 校园合作与机构整合
在校园层面实现深度融合的典型案例中,图书馆均深度参与教务长办公室、信息技术部门与教学中心的协同合作,并成为校内AI工具应用治理的主导方,使其成为师生在校园里的首选使用工具。这些优秀案例的核心特征并非图书馆自身开展AI相关工作,而是自我定位为召集者与共同设计者,而不只是下游的辅助支持方。在全校AI战略格局确定前便已明确这一定位的图书馆,相比仍在争取参与资格的同类机构,具备显著的先发优势。
- 布朗大学图书馆数字学术中心:开展 “AI与数字学术实验” 项目,记录与校内研究者合作的小型协作项目,探索新型AI应用在数字学术与数字人文领域的应用路径。(稳健策略5.1)
- 科罗拉多州立大学系统:由图书馆馆长联合主持校级特别工作组,汇聚教师、技术人员与学科专家,设计AI试点应用,支持教学、科研、工作效率提升,实践共同体建设与创新发展。(稳健策略5.1)
- 俄勒冈州立大学图书馆:与教学中心合作成立全新校级 “AI素养中心”,倡导以批判性、审慎的态度学习与使用生成式AI。(稳健策略3.1、5.2)
- 女王大学图书馆:与教学中心、学生学术支持服务部合作开展为期两年的多机构“教学中的生成式AI”研究项目,将图书馆定位为机构发起方与牵头研究者,而非辅助部门。(稳健策略5.2)
仍需完善:对于那些AI相关事务已由IT或教务长办公室主导的院校,图书馆需要不同的参与模式;现有合作案例的大多图书馆早期便参与了核心决策,而这一情况并不具有普遍性。
06 集体行动、倡导与伙伴关系
协会层面的工作构建了共享的价值观框架、政策文本和倡导基础设施,为各图书馆将其转化为本地实践提供了基础。目前最有效的模式为双层架构:国家级协会制定可复用的框架与正式政策立场,各高校机构再将其转化为适配本校科研与教学群体的实操指南。但协会层面的倡导与机构落地执行之间仍存在显著差距:能积极将国家级框架本土化的图书馆尚属少数,且公开可查的落地实施指南案例十分稀缺。
- 加州大学伯克利分校、耶鲁大学、亚利桑那大学图书馆:分别制定关于AI及许可资源文本与数据挖掘的运营指南,体现协会倡议向机构层面面向研究者的具体实践。(稳健策略6.1)
- 图书馆版权联盟:更新生成式AI版权声明,向政府提交正式意见,反对合同条款限制合理使用权利,为图书馆与供应商谈判提供统一倡议文本。(稳健策略6.1)
- 学术出版与学术资源联盟(SPARC):举办网络研讨会,分享图书馆在供应商合同中谈判、弱化或删除AI限制条款的策略,并设有问答与自由讨论环节。(稳健策略6.1)
- ARL与图书馆版权联盟:发布谈判指南并向美国政府提交正式意见,反对合同条款限制AI研究的合理使用权利,为成员馆提供集体倡议支撑。(稳健策略6.1、6.2)
仍需完善:各成员机构的相关工作仍较为分散,覆盖面有限;需在不同成员组织间开展强有力的联盟协作与联合建设。此外,还需进一步厘清:个体图书馆究竟是在深化合作参与以支撑行业转型变革,还是因预算压力选择收缩投入;以及各馆如何将共享的行业框架落地应用并付诸实践。
2025–2026年全新扩展战略
2024年12月研讨会所确定的稳健策略,旨在多种可能的未来情景中依然有效,一年后的今天,它们确实做到了。然而,情景规划的价值并不在于制定一套固定的行动议程,而在于随着环境变化不断回归现实。2025至2026年间的驱动因素与信号,使得研讨会上尚处萌芽阶段的若干优先事项变得更为紧迫,同时也暴露出原有策略未能完全预见到的现实,包括自主型AI在图书馆系统的加速融入、联邦政府对研究领域AI应用提出更高要求、知识产权冲突的升级、AI机器人抓取行为对开放基础设施造成的运营压力,越来越多的证据表明,公平性与可持续性必须作为设计要求而非理想化的价值观来发挥作用。
以下策略是对原有稳健策略的延伸而非替代,并依然基于原有的6个主题领域,以保持与整个框架的一致性。凡是真正新增的策略,均标注为“新增策略”;凡是因应条件变化而对既有策略进行范围扩展的,均注明其与原有策略的关联关系。
全新扩展策略
01 人才队伍建设与组织文化
新增策略:为自主型AI的使用制定图书馆治理框架,包括授权策略、可审计性要求以及隔离协议,以界定图书馆系统和数据代理在无需人工审核的情况下可以访问、修改或执行操作的范围。
新增策略:制定明确的AI限制与拒绝使用政策,确认在涉及文化敏感性馆藏、与弱势群体互动和在专业实践中人类判断不可替代的情景下,限制或拒绝使用AI是合理且专业的做法;同时明确,在当前环境下,“完全拒绝接触AI工具”已不符合信息专业与图书馆工作的责任要求。图书馆专业的义务并非不加批判地采纳AI,而是基于充分认知、遵循原则并承担责任的参与方式。
新增策略:将评估职责融入各组织角色,构建AI时代的服务评估模型——以成果与信任证明图书馆价值。当AI重塑用户的学习、写作、搜索与求助方式时,评估框架仍能可靠展示图书馆的贡献。在AI饱和的环境下,无法单凭点击量或到馆人数衡量图书馆价值。图书馆需要新的评估模型,聚焦其独特价值,包括更好的研究与学习成效、可信的指导、负责任的工具使用,以及能力与专业知识的公平获取。
02 馆藏、技术与基础设施
策略范围扩展及后续步骤:将计算就绪能力嵌入馆藏管理流程与决策中,构建面向AI的馆藏与研究数据基础设施。对图书馆持有的内容及其支持的研究数据进行优先级划分和计算化准备,包括数字化文本、图像、音视频资料、数据集及上下文文档。具体通过权利审查、追溯来源信息、结构化封装以及受控访问模型来实现,为支持负责任检索与分析的计算环境创建清晰的接入路径。
新增策略:将“供应商提供的AI功能”视为一个需要治理的层面,而非默认的附加福利。对发现层和订阅数据库中的AI附加功能进行明确盘点,要求进行预览/测试,并建立退出标准,涵盖功能表现、隐私数据采集、偏见风险等方面。
新增策略:联合图书馆及文化遗产机构,共同应对AI训练数据抓取机器人的爬取问题。制定统一的技术标准,推动AI开发者采用负责任的爬虫行为规范,并与相关标准组织协作,旨在保护开放获取基础设施,同时不要求图书馆放弃原本的开放原则。
03 AI素养与批判性思维技能
策略后续步骤:采用可复用的框架,将“图书馆作为评估方”这一服务模式规模化推广。卡内基梅隆大学的工具评估框架,再搭配素养提升工作坊和实践社区机制,为助力师生及内部员工负责任地选用工具,特别是在“搜索直给答案”与自主自动化日益普及的趋势下,提供了一条可持续的发展路径。
04 伦理立场与价值观定位
策略后续步骤:界定在哪些服务、馆藏及用户互动场景中,使用AI是不适当或被禁止的,例如涉及敏感性馆藏或与弱势群体互动时,并将这些政策明确、透明地告知用户及机构内各相关方。
策略范围扩展:在AI工具及基础设施的采购决策中,将环境影响评估(涵盖能源消耗、用水量及碳排放量)列为一项常规评估指标,并将这些因素整合到图书馆的AI治理体系之中。
05 校园合作与机构整合
新增策略:针对资助方及期刊对AI使用的披露要求,制定并持续更新权威性指南,将其整合到科研支持与研究人员工作流程之中,将图书馆定位为合作伙伴,帮助研究者在AI辅助学术研究中满足各项合规要求。
新增策略:依托负责任研究行为培训(RCR)及研究生院体系,将图书馆的AI科研诚信支持嵌入到关键培养环节,推动将AI使用披露规范、来源追溯、AI贡献引用方式以及诚信核查固化为“标准实验流程”。
06 集体行动、倡导与伙伴关系
新增策略:制定联合倡导议程,将服务于公共利益的AI基础设施(如开放评估基准、共享语料库、公平的计算资源获取)确立为关键的研究基础设施。此举在去全球化与预算压缩的大环境下尤为必要,旨在防止研究型图书馆在结构上被迫形成对技术寡头的依赖。
07 新增领域:设施与空间规划
新增策略:重新规划图书馆的空间布局与活动设置,使其能够兼顾AI赋能的学术研究与低技术/无技术需求。精心打造两种互补的空间:一是高科技AI工作室,配备专业人员、适合工作坊形式,用于开展引导式实验、工具评估及AI辅助工作流;二是低/无技术的专注空间,保持安静,禁用设备,以保障深度工作与学习。由此将图书馆定位为:既是校园中践行负责任AI实践的场所,也是逃离数字过载的避风港。
结论:在不确定时代中的前瞻规划
2024年12月的研讨会以一个刻意令人不安的前提开场:AI将成为我们职业未来的颠覆者,其影响难以预料,但可以借助情景规划的指引,在未知中寻找战略。一年之后,形势更加严峻。2025年的各种信号和驱动因素表明,研究型图书馆的环境并未趋于稳定,而是在发生分化。那些拥有资源、清晰的领导力和成熟合作关系的机构正在快速推进,而另一些机构则拒绝参与AI,这种局面将难以扭转。与此同时,一年后的回顾也提供了真正的信心来源:人力培养计划正走向制度化,馆藏正在为AI时代的二次利用做准备,图书馆正在校园AI治理决策中占据一席之地,协会层面的倡导正在产生共享框架,而各图书馆也开始将这些框架本地化。这个行业正在朝着研讨会所指明的方向前进——虽然步伐不一,但方向明确无误。
这次调研同样揭示的一点是,最艰难的工作尚未完成。对供应商嵌入的AI功能的治理仍不成熟。追溯来源与知识产权合规虽然被倡导,但尚未付诸实践。自主型AI正在进入图书馆系统,却缺乏相应的授权框架来加以治理。而在AI高度普及的环境中,图书馆在AI时代的独特价值尚未得到充分论证。报告中所提出的稳健策略,旨在跨越多个未来情景而依然有效,事实证明它们确实做到了。人力投入、开放与协作的基础设施、作为运营承诺而嵌入的伦理规范、在机构层面AI治理格局确立之前就建立的校园合作伙伴关系,这些优先事项并未因为2025年的各种信号而失去其价值,一年后的证据只会让它们变得更加紧迫。
这份报告留给图书馆领导者的问题,不是是否要行动——这方面的信号已经非常明确,而是是否要以当下时刻所要求的雄心去行动。研讨会呼吁图书馆:大量招聘AI专业人才;建设国家级的开放基础设施;主导联邦层面的政策对话;打破图书馆历来谨言慎行的惯例,来论证自身的不可或缺性。这些策略是对当前时刻的精准回应,因为那些将定义未来十年知识基础设施的机构,正在被逐步选定。研究型图书馆既有能力,也有义务成为其中一员,不是因为未来是确定的,而是因为等待确定性的代价太大。
翻译:汤淼、张齐悦、周江纯
.png)