主编按语
ChatGPT 已成为公众关心的AI标志性新技术,吴志强院士团队也早在几年前就开始持续跟踪624项AI技术,发现和应用深度学习的重大突破,进一步创新拓展数字化技术的应用场景。新一代人工智能赋能规划技术,带来规划领域包括思想、技术、方法、管理在内的全面变革,也需要我们审思新技术的局限性和伦理性。
为此,本刊编辑部特邀11位专家进行“新一代人工智能赋能城市规划:机遇与挑战”学术笔谈,相信我们的读者一定会从中得益,期待你们将自己的体会和思考反馈给《城市规划学刊》编辑部。
邓智团(上海社会科学院城市与人口发展研究所研究员)
近年,全球科技革命浪潮汹涌澎湃,技术更新迭代呈指数级增长,从2021 年的“元宇宙元年”到2022 年风靡全球的ChatGPT 问世,基于大语言模型的生成式人工智能技术不断刷新人们认知,并开始对生产和生活方式产生颠覆性变革。所谓生成式人工智能(Generative Artificial Intelligence, 下文简称“GAI”),是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。特别是ChatGPT-4 (生成文字、代码等) 和Dall-W2 (生成图片) 的相继问世,GAI已展现出接近人类智能的超级能力。当前,GPT-4 模型架构的参数量已高达100 万亿个,在人类历史上首次达到人类大脑约210 万亿—240万亿个神经元链接数的同一数量级,通用人工智能正在变成现实。
当然,GAI 的不完善性、高风险性和不确定性,也给经济社会发展带来伦理和安全考验,同样存在新技术应用时面临的“科林格里奇困境”。所谓“科林格里奇困境”,是技术哲学家大卫·科林格里奇在《技术的社会控制》中提出的观点:一项技术如果因为担心不良后果而过早实施控制,那么技术很可能就难以爆发;反之,如果控制过晚,已经成为整个经济和社会结构的一部分,就可能走向失控。当前各界对GAI 的认识和担忧正是如此。最近黑莓咨询一项针对世界各地2000名IT 决策者的调查表明,超过1/2 的受访者认为工作场所生成AI 应用程序有机会提高效率和增强创造力,但却有3/4的企业正在实施或考虑在工作场所禁止ChatGPT 或其他GAI 应用。这与盖特纳咨询针对249家机构风险主管的调查结论类似,GAI被认为是当前企业面临的第二大新兴风险。一些观点认为,ChatGPT 将“扼杀学生论文”和“改变学术界”,甚至可能意味着新闻、法律服务、房地产、金融,甚至城市和地区规划等行业的终结。于是乎,一些国家和机构开始禁用GAI,如意大利因数据安全问题明确禁止使用ChatGPT,众多教育和科研机构也禁止将ChatGPT 用于作业、考试和论文撰写等。
作为注重前瞻性和引领性的规划工作,GAI 应用同样面临“科林格里奇困境”。显而易见的是,以ChatGPT 或Dall-W2 为代表的GAI,既可以协助生成报告、图片、代码、音频、视频或其他规划材料,帮助起草规划文件或研究报告,也可以改善规划过程中的沟通和协作,在公共会议期间生成对公众问题或评论的常规回答,帮助规划团队完成更加高效和更有成效的内部讨论,大大节省时间和精力,让规划人员能聚焦更为重要的创造性工作。但是,GAI存在的伦理和安全风险,需要我们保持高度清醒,用尼尔·波斯曼在《技术垄断》中的话来说,就是需要细察、批评和控制,要强化人文关怀,拒绝被技术垄断。
一方面,要谨防伦理风险,避免“算法歧视”导致的内容偏见。从传播学来看,信息生产方式主要有3 类:PGC(专业人士生成内容)、UGC(用户生成内容)和AIGC(人工智能生成内容)。在PGC 模式下,专业人士在信息生产和传播过程中扮演“把关人”角色,确保相关内容具有客观真实性和符合社会主流价值期待。但在UGC 和AIGC 模式下,由于缺乏专业人士的把关,特别是在AIGC模式中,一旦接受了有偏见的数据训练,如在输入学习样本时提供显著偏向某个利益群体的材料,将可能导致生成内容出现明显的偏见和群体歧视。2023 年8 月15 日起,我国正式施行的《生成式人工智能服务管理暂行办法》就对此作出了一般性规定。因此,在规划研究或实践过程中,需要确保GAI 接受多样化和公正的数据训练,确保生成内容更加客观公正。
另一方面,要确保数据安全,注重隐私保护和知识产权。由于大语言模型的内容生成过程对普通使用者而言更像是黑箱,这让使用者很难理解其是如何作出决定或采取行动的。如果一个人工智能工具在规划文本生成过程中做出对社区或群体有负面影响的设计,责任溯源就难以实现。2023年6月欧洲议会通过的《人工智能法案(AI Act)》就对GAI 提出了新的透明度要求。与此同时,任何接入互联网的工具,不可避免地面临黑客攻击或数据泄露等安全风险。比如,规划公司将知识产权或敏感数据作为提示输入ChatGPT 中,而聊天记录未被禁用,则它们可能会作为对企业外部用户和组织的无源响应输出,很容易造成严重后果。因此,城市规划工作中应用GAI,需要不断改善透明度,同时确保使用时数据合规和安全。
正如著名社会学家马克斯·韦伯的观点,技术批判需要兼顾工具理性和价值理性,其中工具理性关注技术要追求最大的效用,价值理性则关注技术的伦理和美学价值等,强调在评估技术应用的利弊时不能只关注工具理性而忽略价值理性。因此,我们欢迎GAI 在城市规划工作中的深度应用,以更好地释放其工具理性,同时,我们也呼吁行业主管部门适时制定有针对性的行业应用分类分级监管规则或指引,做好伦理和安全治理,改善价值理性,实现趋利避害,推动GAI 成为城市规划从业者的超强伙伴,让城市规划更好地“尊重城市复杂的生命规律”,助力城市高质量发展,更好地增进人民福祉。
同主题阅读
【学术笔谈】主编按语 | 新一代人工智能赋能城市规划:机遇与挑战
本文为《城市规划学刊》原创文章
欢迎在朋友圈转发
识别二维码 订阅本刊2017-2022年电子阅读版
URBAN PLANNING FORUM Since 1957
创新性、前瞻性、学术性
中文核心期刊、中国科技核心期刊、中国人文社会科学核心期刊、中文社会科学引文索引来源期刊(CSSCI)、中国期刊全文数据库(CJFD)全文收录期刊,中国学术期刊综合评价数据库(CAJCED)统计源期刊,中国科学引文数据来源期刊,RCCSE中国核心学术期刊
投稿链接:http://cxgh.cbpt.cnki.net
Email: upforum@vip.126.com
电话:021-65983507
传真:021-65975019
微信号:upforum
原文始发于微信公众号(城市规划学刊upforum):【学术笔谈】邓智团 | 做好GAI伦理与安全治理,打造规划工作超强伙伴