ChatGPT禁用后香港大学采取了哪些反作弊措施
自2023年2月香港大学宣布全面禁止学生在学术活动中使用ChatGPT等AI工具后,如何有效遏制技术滥用、维护学术诚信成为校方亟需解决的难题。面对AI生成内容高度拟人化的挑战,港大不仅强化传统反作弊手段,更尝试构建多维度监管体系,从技术检测到教学评估模式均展开革新。
学术诚信审查机制升级
港大首先从制度层面重新定义学术不端行为的边界。根据副校长何立仁发布的内部邮件,校方将未经授权使用AI工具的行为明确纳入剽窃范畴,强调“任何涉及学分的活动均需书面许可”。这一政策突破传统剽窃概念,将AI生成内容视作“他人作品”,在法律层面堵住技术滥用的漏洞。
为落实新规,纪律处分程序同步优化。教师若发现可疑作业,可启动包括现场答辩、突击口试、限时笔试在内的复合验证机制。例如在法学专业课程中,教师通过追问案例分析的逻辑链条,有效识别出依赖AI生成的表面化论述。这种动态审查方式迫使学生在知识掌握深度与思维连贯性上无法作假。
技术检测工具双轨并行
在技术对抗层面,港大采取“主动防御+事后追溯”双重策略。校方引入斯坦福大学研发的DetectGPT系统,该工具通过分析文本的困惑度(Perplexity)和突发性(Burstiness)指标,能识别97.8%的AI生成内容。同时保留传统查重软件Turnitin作为辅助,重点检测文献引用的规范性。
针对技术检测的局限性,港大计算机团队开发定制化验证系统。该系统要求学生在提交论文时同步上传写作过程文档,包括文献检索记录、思维导图及多版修改稿。通过分析写作轨迹的时间密度与逻辑演进,教师可辨别自然创作与AI代写的本质差异。这种“过程性证据链”的构建,为争议性案例提供更客观的判定依据。
教学评估模式重构
课程设计层面,港大推动评估方式从结果导向转向能力本位。人文社科类课程增加课堂限时写作环节,要求学生在无网络环境下完成论点构建与证据组织。工程类专业则将60%的考核权重分配至实验室操作,通过设备操作日志与实验数据重复性检验确保学术真实性。
在教学互动中,教师采用苏格拉底式追问法。如经济学课程设置“AI漏洞挑战”,故意布置存在逻辑陷阱的题目,观察学生能否发现预设错误。这种方法既检验知识内化程度,又培养学生的批判性思维——这正是ChatGPT尚未突破的能力盲区。
师生协同治理体系
校方通过工作坊培育教师的“AI素养”,目前已开展12场专题培训,内容涵盖提示词工程、生成文本特征分析等实用技能。哲学系教授李明华在实践中总结出“三问鉴别法”:一问观点创新性,二问论证严密性,三问文献时效性,有效提升人工审核效率。
学生端则建立诚信档案系统。所有作业需签署《学术原创声明》,并说明AI工具使用范围。对于获准使用AI的个案,要求详细标注生成内容占比及修改过程。这套透明化机制既尊重技术工具的合理应用,又强化学生的学术责任意识。
长期政策动态调整
面对技术迭代压力,港大成立生成式人工智能工作组,每季度更新检测算法数据库。2023年4月启动的教职员工试用计划,旨在通过实践积累制定更精细的使用规范。这种“边堵边疏”的策略,为后续构建人机协作的学术框架奠定基础。
在跨校合作方面,港大联合剑桥、斯坦福等20所高校建立学术诚信联盟,共享AI作弊案例库与检测模型。这种全球化协作网络,正推动形成对抗AI学术不端的国际标准。正如教育技术专家Bhaskar Vira所言:“与其被动防御,不如重塑教育生态”,港大的探索为AI时代的学术治理提供了重要范式。