艺术策展中的边界:ChatGPT应用的挑战与反思

  chatgpt是什么  2025-11-05 12:00      本文共包含1095个文字,预计阅读时间3分钟

在技术与艺术交汇的当代语境中,人工智能正以前所未有的速度重塑创作与展示的疆域。ChatGPT作为生成式AI的典型代表,其文本生成、数据分析与创意整合能力已渗透至策展策划、作品阐释、观众互动等环节。这种技术介入不仅带来效率革命,更引发关于艺术主体性、原创性边界及责任的深层争议——当算法成为策展的“隐形参与者”,艺术的人文内核是否被稀释?技术与艺术的权力关系又该如何重构?

技术介入与原创性边界

ChatGPT在策展流程中的应用已跨越基础工具层面。如上海高中生朱想团队利用其构建作品管理系统,实现320余件儿童艺术品的数字化归档与动态追踪;而某些展览甚至直接由AI生成导览词,通过自然语言处理技术将艺术史知识转化为观众可理解的叙事。这种技术赋能使策展人从繁琐事务中解放,但也引发原创性质疑:当展览框架、主题阐释均依赖算法生成,策展人的核心创造力是否被架空?

艺术哲学家尚辉指出,AI生成的策展方案往往呈现“模式化套路”,无法替代策展人对时代精神的独特捕捉。例如ChatGPT推荐的中国中青代女性艺术家名单存在虚构人物,其策展企划缺乏对艺术生态的深度洞察。这种现象印证了乔姆斯基的批判——ChatGPT本质是“高智商洗稿”,其输出内容仅是已有信息的排列重组,缺乏真正的创造性突破。技术介入的边界在于,它可优化信息处理流程,却无法复刻人类基于生命体验的原创思维。

版权归属与法律风险

生成式AI的版权争议在策展领域具象化为两大矛盾:一是AI生成内容的作品认定,二是训练数据的合法性边界。江苏常熟法院2025年判决的《伴心》案具有标志性意义,法院认定经人工干预的AI生成图像构成著作权法保护的美术作品,但强调“独创性智力投入”是关键标准。这揭示出策展实践中AI应用的合规路径——策展人需对算法输出进行实质性修改,如调整视觉元素、重构叙事逻辑,方能确立版权主体地位。

更深层的风险来自数据训练过程的版权侵权。OpenAI因使用未经授权的网络文本训练模型,已面临Getty Images等机构的集体诉讼。策展领域同样存在隐患:若AI学习的艺术史资料、作品图像未获授权,其生成的策展方案可能构成间接侵权。法律学者丛立先提出,应建立“文本与数据挖掘例外”规则,允许AI在特定范围内使用受版权保护内容进行机器学习,但需配套合理的补偿机制。

人机协作的困境

旧金山错位博物馆的实践揭示了AI介入策展的悖论。该馆通过机械臂书写“AI毁灭人类”的警示文本,以反乌托邦叙事探讨技术失控的可能性。这种策展手法本身依赖AI技术实现,却试图批判技术霸权,形成深刻的自我指涉。策展人Audrey Kim坦言,展览旨在引发公众对AI的主动思考,而非提供确定性答案。

学家汉斯·尤纳斯的责任理论在此显现现实意义。当策展人使用ChatGPT时,需承担“预防性责任”——不仅要评估技术应用的直接效果,更要预见其对艺术生态的长期影响。例如过度依赖AI生成展览文本可能导致策展语言的同质化,削弱艺术批评的批判性维度。技术的核心在于保持人类对创作主导权的掌控,避免艺术沦为算法殖民的试验场。

工具理性与艺术价值的平衡

在杭州某科技馆的实践中,策展人尝试用ChatGPT生成展品设计方案,发现AI虽能提供形式创新建议,却无法理解展品与观众的情感联结。这印证了海德格尔的技术哲学:工具理性可能遮蔽艺术的本真性。有效的解决路径在于建立“人机共生”策展模式,如央美毕业展中策展人将AI生成的初步方案与手工调整结合,既保留技术的高效性,又注入人文温度。

艺术史学家侯瀚如强调,策展的本质是“通过空间叙事引发意识转化”。当ChatGPT被用于生成展览描述时,策展人需重新赋予文本情感张力与哲学深度。荷兰乌特勒支大学2024年的实验性展览中,策展团队对AI生成的200版展览大纲进行人工筛选重构,最终保留率不足5%,这种严苛的二次创作过程,正是维系艺术价值的关键防线。

技术的迭代从未停息,而艺术的永恒命题始终是对人性的追问。在ChatGPT重塑策展疆界的今天,保持批判性思考与创造性主权,或许是人类面对算法洪流时最重要的坚守。

 

 相关推荐

推荐文章
热门文章
推荐标签