瞭望 | AI进高校 治理需同步-新华网
2025 07/01 14:47:53
来源:新华网

瞭望 | AI进高校 治理需同步

字体:

  全天候解答疑难问题、辅助查找资料、收集文献、分析数据……“DeepSeek+高校”的智慧教学研究场景正在实现,技术赋能高校正助力构建个性化智能助学系统,打造科研智能支持体系,推动教学管理模式创新

  高校需通过通识教育与实践活动,帮助学生建立“技术工具与自身能力”的正确认知,平衡“技术赋能”与“人的主体性”

  文 |《瞭望》新闻周刊记者 赵旭 魏梦佳

  今年春季学期起,全国多地高校宣布本地化部署DeepSeek,受到社会高度关注。

  不少一线教师表示,人工智能大模型的应用赋能高校人才培养、教学管理、科研创新等,也对高校治理带来挑战。AI大范围应用,可能引发学术不端、数据安全风险。长期来看,AI的“即时解答”与“任务替代”特性可能弱化学生的自主创新与批判思考能力,影响创新生态的可持续发展。

  有业内人士在接受《瞭望》新闻周刊记者采访时强调,人工智能进入高校是大势所趋,在此过程中需高位统筹制定相关规范指引,守住数据安全防线,引导学生正确合理使用这一新技术手段。在扬人工智能技术之长的同时,补齐治理短板。

王鹏图/本刊

  高校拥抱AI浪潮

  近期,北京航空航天大学、南开大学、华东师范大学等多所高校均宣布部署DeepSeek,为教学、科研和管理工作注入新动力。全天候解答疑难问题、辅助查找资料、收集文献、分析数据……“DeepSeek+高校”的智慧教学研究场景正在实现,技术赋能高校正助力构建个性化智能助学系统,打造科研智能支持体系,推动教学管理模式创新。

  构建个性化智能助学系统。在北京师范大学数字平台上,新闻传播学院学生马艳娟点击进入“智能助教”模块体验“学业规划”功能。对话框中,她输入“请制定新学期学习计划”,一张详细的学习计划表即刻呈现于眼前。

  今年春季学期伊始,北师大基于技术平台及本校培养方案、教学手册等语料,部署应用人工智能大模型DeepSeek。学业规划、知识问答、概念讲解、解题启发、写作指导、作业反馈等多项AI个性化助学服务,学生们感到新奇又便捷。

  打造科研智能支持体系。除了“智能助教”,多个高校以大模型技术赋能科研。中国人民大学以科研支持为重点方向,为40余个部处单位分配了DeepSeek使用权限,并召开技术辅导及应用研讨会。

  “这是学校推动数字化转型、提升科研生产力和服务水平的有益探索。”中国人民大学科研处副处长、信息资源管理学院教授钱明辉介绍,学校计划依托DeepSeek及基础科研资料,开发建设面向科研项目的智能模型,为研究人员配备专属“智能科研助手”。

  推动教学管理模式创新。近期,北京建筑大学为该校智慧课程平台接入DeepSeek,赋能教育教学。相关负责人介绍,教师只需在“AI教案”功能模块中输入课程主题和教学目标,平台即可快速生成一份高质量的教案模板,教师还可根据自身教学风格和班级特点对教案调整完善,提高备课效率、质量。

  人工智能不仅是提升教育教学质量的支撑,也是革新学校管理模式、破解管理难题、提升管理效率与质量的抓手。

  受访者认为,人工智能可赋能数据共享、信息交互和智慧校园建设,通过数据可视化和智能化服务加强部门间协作配合,提升快速反应和指挥调度能力,推动高校管理模式现代化,提升教学管理的科学性和精准度。

  新风险扩散

  北京一高校研二学生小张利用人工智能大模型整理科研数据时发现,模型生成的参考文献虽标注了详细出处,但在权威学术平台核实时,这些文献却“查无此文”。

  小张的遭遇显现出了AI技术在学术场景中的“可靠性短板”。这提示我们,在AI深度赋能高校教育科研管理的同时,AI的潜在风险已从技术层面扩展至学术生态层面,亟待关注。

  易引发学术不端。一些受访的高校教师担忧,大模型在高校广泛应用可能会助长学术造假,破坏科研真实性,影响学术生态健康发展。

  人工智能大模型的任务导向属性使其易被引导生成特定结果,这一技术特性若被急功近利的研究者利用,可能引发主动捏造符合实验假设数据的行为。

  北京师范大学政府管理学院教授王磊进一步指出,当前学术领域已显现出两类典型的由AI引发的学术不端风险:一种是学生自主利用AI代写论文或“洗稿”,这类行为在本科生毕业论文、本硕博课堂论文等相对低门槛或低监管场景中尤为高发;另一种是源于技术复杂性带来的认知偏差——研究者可能因低估AI生成内容的“不可控性”,忽视对生成文献及数据真实性的严格验证,出现“无意识”学术失范行为。

  数据安全存风险。在人工智能深度融入学术研究的过程中,数据应用的“源安全”和“结果安全”均可能存在风险。

  清华大学新闻学院、人工智能学院双聘教授沈阳认为,学生的学习记录、教师的教学资料以及科研项目信息等数据,可能存在不宜公开的数据信息。当这些关键数据被集中投喂给人工智能后,若缺乏严格的合规审查与使用规范,可能因泄露或滥用对师生权益造成损害。

  在数据处理阶段,数据污染可能导致人工智能生成结果失真,引发认知安全风险。

  北京航空航天大学法学院副教授赵精武说,若将包含错误信息或偏见数据的语料注入大模型,其生成内容可能出现事实性偏差、传播虚假信息,或强化社会偏见。

  学生自主学习与创新能力弱化。记者观察到,高校学生利用AI工具辅助论文写作越发普遍,有学生认为,“相比翻阅书籍或利用互联网搜索引擎查找资料,借助AI工具让论文撰写方便了很多。”

  第三方机构“麦可思”对3000多名高校师生的问卷结果显示,近六成高校师生每天或者每周多次使用生成式AI。而大学生在使用生成式AI时,有近三成主要用于写论文或作业。一些学生坦言,在写报告或论文时,他们会直接复制粘贴AI生成的内容。

  受访者认为,高校部署AI大模型辅助学生学习和科研,可能在一定程度上削弱学生主动探索、深度思考与批判性思维的训练,使其过于依赖外部工具完成任务,影响学术创新能力的可持续发展。

徐骏图/本刊

  动态补齐治理短板

  受访者表示,高校在积极运用大模型赋能教育教学时,也应关注新技术带来的多维风险,统筹建设学术不端检测平台、筑牢数据安全防线、引导学生正确使用技术工具。

  高位统筹规范建设学术不端信息检测平台。为应对AI学术造假,不少高校引入了AI检测工具作为技术防火墙。西南交通大学、天津科技大学、湖北大学等多所高校提出,学生的毕业论文除了要通过查重、答辩外,还需检测AI工具使用情况。

  当前各高校使用的相关检测识别技术水平参差不齐。第三方AI检测工具多通过文本特征模型比对、概率阈值判定等识别人工智能生成内容,存在误判原创、漏判洗稿的技术缺陷,可能打击真实学术努力,刺激更隐蔽、更难溯源的学术不端行为,或是诱发更多投机心理。

  受访者表示,国家有关部门可牵头科技企业、高校、研究机构等共同开发高质量AI检测技术和工具,并根据院校类型、学科类型等统一制定科学、规范的检测标准,加强防范学术不端、提升信息安全的同时,避免重复建设造成资源浪费。

  筑牢数据安全防线。近期,北京外国语大学正式上线了基于DeepSeek671B大模型开发的“外晓通”智能问答平台,为学生实时提供学术研究、校园事务办理流程等专业解答。相关负责人介绍,该平台深度融合学校独有的教学资源与知识体系,并采用本地化存储和严格隐私保护机制,确保师生数据安全无忧。

  除了运用技术手段应对数据安全风险,受访人士还建议,高校应完善AI在教学、科研、管理等场景下的数据使用、隐私保护、算法透明等规章制度,制定严格的数据安全管理规定,加强对人工智能教学和科研中涉及学生数据、科研数据等的保护,防止数据泄露和滥用。

  引导学生正确使用技术工具。受访者认为,高校需通过通识教育与实践活动,帮助学生建立“技术工具与自身能力”的正确认知,平衡“技术赋能”与“人的主体性”。

  一方面,高校可结合各学校自身专业特色开设人工智能通识课,帮助学生理解技术原理。北京建筑大学副校长陈红兵认为,相关课程有助于培养学生掌握人工智能技术的能力,提升学生信息素养,可在全国高校里大范围普及人工智能通识教育,鼓励学生通过实习实践项目,适应新技术带来的跨界融合趋势。

  另一方面,高校也应通过出台AI辅助学习指南,划定使用边界,使学生从“依赖AI完成任务”转向“用AI辅助解决问题”;并通过调整教学模式,提升过程性评价占比和批判思维训练,让学生在技术浪潮中保持独立思考与创新的核心竞争力。

【纠错】 【责任编辑:彭嘉靖】