


人们愈发担忧人工智能(AI)在城市环境中的伦理影响。学者们强调了AI的双重性质,它既能提升城市的可持续性,又可能带来重大隐私风险。相关文献承认,AI在城市背景下会引发特定挑战。然而,目前仍缺乏针对城市中AI应用所带来独特挑战的全面且分领域的伦理框架。本研究旨在填补这一空白,通过提出城市人工智能应用的伦理起始框架,为城市环境中负责任的AI开发与部署提供指导原则。
本研究采用了两阶段的方法:首先对100份AI伦理文件进行内容分析,以制定初步框架;随后通过对专家和利益相关者的调查,验证并拓展该框架,明确城市特定的风险和伦理考量因素。
所制定的城市人工智能应用伦理框架提供了一个起点,为构建符合伦理且可持续的城市人工智能系统铺平道路,从而提升所有城市居民的生活质量。
1 引 言
有观点认为,虽然人工智能(AI)能够提升城市的可持续性,但其作用也可能因使用方式不同而成为障碍(Yigitcanlar和Cugurullo,2020年)。近期,帕尔米尼和库古鲁洛对人工智能与都市主义之间不断发展的关系进行了探索,强调了人工智能如何有望成为当代城市发展的变革力量。他们认为,人工智能融入城市环境将显著改变城市空间的物质和关系动态,从治理到日常互动的方方面面都将被重塑。这种转变在城市环境中带来了特定风险,例如自动驾驶汽车产生的数据处理带来的隐私挑战,以及利用机器学习识别“恐怖分子”嫌疑人所带来的问题。此外,人工智能还对个人空间隐私、数据隐私构成威胁,并加剧了自动决策系统中的偏见。这些风险凸显了全面伦理框架的必要性,因为自动驾驶汽车的使用与旨在识别嫌疑人的机器学习应用相比,带来了不同的隐私挑战。此外,先前文献还提出了关于人工智能在城市建设中应用的伦理问题,例如谁有权设计和居住在城市中,以及当城市被简化为数字数据流时会失去什么(Böhlen,2019年)。这些研究共同呼吁深入理解人工智能在城市发展中的作用,平衡技术效益与伦理考量,以促进可持续且包容的城市未来。
本文旨在填补这一空白,通过提出一个城市人工智能应用的伦理框架,提供一套原则来指导城市中城市人工智能应用的负责任开发和部署。我们使用内容分析法对100份关于人工智能伦理的文件进行分析,以理解城市人工智能应用的伦理问题。指导本研究的研究问题是:哪些伦理原则能够指导城市中城市人工智能应用的负责任开发和部署?
文章接下来进入方法论部分,概述了一个两阶段的研究方法:首先对100份人工智能伦理文件进行内容分析,以确定与城市相关的特定风险和伦理考量,然后通过对专家和利益相关者的调查来验证和完善所提出的伦理框架。结果部分呈现了这些发现,详细说明了所识别的风险和伦理原则,并分享了关于调整和扩展这些原则的调查见解。讨论部分详细阐述了城市人工智能伦理的实际应用场景和未来方向,强调了跨学科合作和持续对话的重要性。结论部分总结了该框架的原则,并强调了进一步研究的必要性,以应对城市人工智能不断演变的挑战。
2 方法论
为了制定城市人工智能应用的伦理框架,本研究遵循两个阶段:内容分析与调查(如图1所示)。

首先,我们对来自我们之前文章的100份人工智能伦理文件进行内容分析,以了解城市部门是如何被涉及的。我们开展这一阶段的工作是为了建立对现有特定于城市人工智能应用的伦理考量的基础理解。这些文件是使用手动编码技术和谷歌搜索(关键词如“人工智能伦理框架”“人工智能指导原则”“非洲人工智能伦理框架”“欧洲人工智能伦理框架”以及“国际人工智能伦理框架”)收集而来的。此外,我们还查阅了卢波和乔宾等人所著学术文章的参考文献列表和清单。从乔宾等人所强调的84份文件中,我们挑选了67份纳入我们的清单,排除了仅提供一般性见解的17份文件。进一步的搜索使我们的数据集扩充至100份文件,其中包括报告、指导原则、研究文章、框架以及声明,这些文件收集于2022年12月至2023年2月期间。
在内容分析过程中,我们聚焦于与城市背景相关的关键词,并在审阅期间确定了其他相关关键词。我们确定了七个城市领域的关键词:汽车、自主、交通/运输、出行、城市/城市群、城市/城市化以及空间。表1总结了提及每个关键词的文件数量。针对每个关键词,我们审视了相关风险和伦理考量。基于我们的内容分析,我们制定了一个关于城市人工智能应用伦理的初步框架,涉及14项原则,如图1所示。
接下来,我们开展一项调查,以收集专家和利益相关者对所提框架的见解。此次调查旨在验证并完善该框架,确保其能够有效应对城市人工智能应用的独特伦理挑战。我们利用此次调查来探索框架中所提出的伦理原则如何进行调整或扩展,以应对新兴的城市人工智能技术和应用。
调查对象包括26名具有不同观点和与城市人工智能相关经验的受访者,他们来自各种不同的职位和地理位置。对于我们而言,26份回复已然足够,因为我们想了解人们对该框架的看法以及他们认为应纳入的额外原则。我们从这26份回复中得到了想要的信息,所以无需再收集更多回复。在我们的研究中,重点不在于收集的受访者数量,而在于他们的回复以及所建议的原则。在受访者中,男性有17名,女性有8名,1名未声明性别。欧洲是代表人数最多的地区,参与者来自爱尔兰、意大利、英格兰、德国、荷兰、葡萄牙和马耳他。其他地区包括中东(埃及、迪拜、伊朗、沙特阿拉伯),以及巴基斯坦、尼日利亚、澳大利亚、加拿大和美国等国家。然而,拉丁美洲和东亚没有回复,这表明在这些地区的分布有限。
关于职位,首席执行官(CEO)是最频繁出现的职位(4名受访者,均为男性),其次是副教授、博士生、教授、研究人员和博士后研究人员(每种职位各出现两次)。最常见的职业是城市规划师(7人,占26.9%)、计算机科学家(6人,占23.1%)、哲学家(6人,占23.1%)和数据科学家(6人,占23.1%)。建筑师、城市设计师和城市政策专家各有4人提及(占15.4%),这表明在城市发展、规划、设计、政策和技术等广泛职业领域都对城市人工智能感兴趣。
受访者提及与城市人工智能联系最频繁的领域是交通和城市治理(各有12项回复,占比46.2%),其次是测绘和城市健康(分别有10项和8项回复,占比38.5%和30.8%)。与交通、治理、测绘和健康相关的问题都是全球城市努力应对的关键城市挑战。人工智能为这些挑战提供了有希望的解决方案,使其成为城市人工智能应用的焦点。交通和治理领域都会产生大量数据,而这些数据对于训练人工智能系统至关重要。丰富数据集的可用性使这些领域成为实施人工智能的理想选择。对人工智能在关键城市领域影响的推测直接支持了研究问题,表明了制定城市人工智能伦理框架的关键需求。
其他领域包括公民参与和能源(7项,占比26.9%)、水和预测性警务(6项,占比23.1%)以及城市安全(3项,占比11.5%)。对管理和运营城市基础设施的关注表明,城市人工智能主要被视为增强城市系统效率和可持续性的工具。受访者对城市人工智能的平均经验约为4.5年,范围从0年到20年不等,这表明受访者具有不同层次的专业知识。大多数受访者(80%)将自己对城市人工智能知识的评级定为3级或更高(采用1到5级的评分标准)。计算机科学家和数据科学家的平均评级较低(2.3),而城市规划师、建筑师和哲学家的评级较高(3.8或以上),这凸显了不同职业之间知识的差异。有趣的是,列出多个职业的受访者对人工智能伦理的知识评级(3.69)高于仅列出一个职业的受访者(3.46),这表明在城市人工智能中承担多样化的角色或职责有助于更好地理解人工智能伦理。总体而言,大多数受访者表示对人工智能伦理至少有一定程度的理解,这强调了跨学科合作和教育的必要性,以确保在城市环境中对人工智能伦理有全面的认识和应用。
3. 结果
3.1 第一阶段:在100份人工智能伦理文件中理解城市风险和伦理考量
在100份人工智能伦理文件中,有45份提到了与交通领域相关的关键词,为自动驾驶汽车提供了指导准则。这些文件强调了人工智能在交通领域的诸多益处,例如优化路线规划、减少交通事故致死人数以及缩短等待时间。然而,一些学者也指出了与自动驾驶汽车相关的一系列风险。
例如,布伦达格等人将威胁分为数字类(网络攻击、身份冒充、自动黑客攻击、对抗样本和数据投毒)、实体类(自主武器系统和微型无人机)以及政治类(监视、说服、欺骗、隐私侵犯和社会操控)。范·埃斯特等人将与自动驾驶汽车相关的风险归类为隐私问题、安全与保障、责任与问责、就业影响、伦理道德决策、社会和经济不平等以及人类自主性。
根据欧洲保险和职业养老金管理局以及英国上议院的观点,风险包括偏见和歧视、透明度和可解释性、数据隐私和安全、问责制、数据质量和完整性、消费者信任、伦理考量以及监管合规。互联网协会在这些风险基础上补充了经济影响、自主性和控制以及对社会互动的影响。瓦拉尼等人除了提到上述风险外,还提及了社会不平等和环境影响。而肖汉姆等人则补充了国际竞争和人机交互。
另一项由张等人进行的研究列举了一系列与自动驾驶汽车相关的风险,例如感知安全性、信任和接受度、信息不对称、激励和奖励、隐私问题、行为适应、法律和监管问题以及环境影响。
为了应对这些风险,这些文件提出了九项伦理原则:安全与保障、人类能动性、责任归属、实物所有权、数据所有权、数据隐私、开放公共数据、劳动力保护以及透明度。
当探究像“城市”这样的关键词时,我们发现了四种风险:城市基础设施准备不足、算法偏差、人脸识别引发的公民权利问题,以及人工智能对城市权力结构的影响、全球自动驾驶与智能系统伦理倡议组织。这些文件建议了五项伦理原则来缓解这些风险:进行测试与制定法规、采用更公平的算法、保障人脸识别中的公民权利、开展公共教育,以及在智慧城市项目中保持透明度。
关于“空间”这一关键词,文件指出了两种风险:数据被重新利用以及空间隐私问题、信息与通信政策研究所。所提出的伦理原则是透明度和数据隐私。
对于“城市/城市化”这一关键词,风险包括因物联网设备产生的隐私问题以及城市基础设施的变化。建议的伦理考量包括数据隐私和更新城市规划法规。

对100份人工智能伦理文件的内容分析表明,虽然这些文件涉及了城市中城市人工智能应用的风险和伦理考量,但它们并未探讨城市与城市人工智能应用之间的关系。这表明在考虑城市复杂性和既定权力结构方面存在不足。因此,从此次分析中得出的原则专门侧重于城市人工智能应用的伦理,而非广义的城市问题。
为了制定城市人工智能伦理框架,我们还分析了从这100份文件中选取的12份特定领域的文件结构。我们发现,特定领域的框架通常包含一系列原则或伦理规则,每项原则或规则后面都附有简要说明。基于这一分析,我们制定了一个城市人工智能伦理框架,该框架由在城市背景下解释的指导原则组成。
基于上述分析,我们确定了14项原则,这些原则构成了城市人工智能应用伦理的初步基础。这些原则如下:
-
人工智能与劳动力:城市人工智能应用的开发和部署方式不应过度损害或惠及劳动力中的某些个人或群体。需要努力支持那些因人工智能技术快速发展而工作面临风险的个人,通过提供全面的培训和再技能提升项目,使他们具备未来工作所需的技能。
-
人工智能测试与实验规范:城市人工智能应用在部署前应经过严格的测试和实验,以确保其安全性和有效性。应努力建立条件,以便在现实世界环境中对城市人工智能应用进行受控的测试和实验,例如在城市中设立自动驾驶测试站点。
-
数据所有权:个人应有权控制自己的个人数据,并应被告知这些数据如何通过城市人工智能应用被使用、监控或共享。
-
数据隐私:城市人工智能应用应尊重个人隐私,避免在未经知情同意或无合法目的的情况下收集或使用数据。
-
更公平、更透明的算法:城市人工智能应用的开发者应努力创建更公平、更透明的算法,以避免在城市中延续偏见和歧视。
-
面部识别与公民权利:在公共场所和城市区域使用面部识别技术应受到严格监管,以避免侵犯公民权利和自由。
-
人类能动性:城市人工智能应用应尊重和促进城市中个人、社区和社会的自主性和能动性。
-
个人空间隐私:城市人工智能应用应尊重个人空间隐私,避免在未经知情同意和无合法目的的情况下收集或使用空间数据。个人应能够控制自己的空间数据,并了解其如何被收集、使用、监控和共享,从而能够做出明智的隐私决策,并在违规时追究相关方的责任。
-
责任归属:城市人工智能应用的开发者、创建者和运营者必须对其行为负责,并对城市中的任何负面影响承担法律责任。
-
开放公共数据:城市人工智能应用应能够访问开放公共数据,以促进透明度、可持续发展和问责制。
-
实物所有权:城市人工智能应用不应侵犯实物所有权或财产权。
-
安全与保障:城市人工智能应用应优先考虑安全性和保障性,以确保它们不会对个人或社会造成伤害。例如,自动驾驶汽车应仅根据自身传感器的数据做出决策,并在紧急情况下能够无需人工干预地使自己处于“安全状态”。
-
透明度和可解释性:城市人工智能应用应具有透明度和可解释性,使个人能够理解决策是如何做出的,并在城市管理和运营中实现问责制。
-
广泛的人工智能教育、意识和透明度:城市人工智能应用的开发者和运营者应推广关于人工智能的广泛教育和意识提升,包括其能力、局限性以及对城市及其人口的潜在影响。

3.2 第二阶段——通过调查探索框架中提出的伦理原则如何适应或扩展以应对新兴的城市人工智能技术和应用
通过一道多项选择题,受访者被问及哪些城市人工智能伦理原则应予以考虑。这份清单是基于研究第一阶段进行的文献综述而制定的(见图1)。总体而言,受访者表现出对隐私、公平、透明、安全、责任、以人为本以及问责等方面的关注,这与先前文献所主张的这些原则对于建立信任以及确保城市人工智能的益处得到广泛且公平的分配至关重要的观点相契合(Human等人,2021年)。
参与者就城市人工智能应用的伦理问题提供了多样化的见解。最常被选中的原则包括安全与保障(15次选择)、人类能动性(10次)、数据所有权(9次)、数据/个人隐私(9次)、透明性与可解释性(9次)、更公平且透明的算法(8次)、人工智能教育与意识提升(8次)、开放公共数据(7次)、责任归属(7次)、城市中人工智能系统的测试与实验规范(4次)、人脸识别与公民权利(4次)、劳动力保护(3次)以及实物所有权(2次)。图4展示了调查参与者对城市人工智能应用伦理原则的评分情况。


分析结果显示,人们对人工智能原则普遍达成共识,其中在“安全与保障”以及“更公平透明的算法”这两个原则上的共识度最高。而在诸如“人脸识别与公民权利”和“实物所有权”等原则方面,共识度则较低。那些得到最多中立回应的原则包括“数据所有权”“数据/个人隐私”“开放公共数据”以及“测试与实验规范”,这表明这些方面需要进一步展开讨论并提高认识。在“人工智能教育与意识提升”这一原则上的高度共识,暗示着在城市环境中围绕人工智能伦理开展更多教育的必要性。
此外,受访者列举了与城市人工智能相关的各种风险(图6)。一个突出的问题,由26位受访者中的18位(占比69.2%)着重指出,即数据被重新利用的危险,这反映出人们对人工智能系统滥用以及未经授权访问个人数据的担忧。Chikhaoui等人(2022年)也强调了需要加强对个人信息的保护和控制。另外,有17位受访者(占比65.3%)表达了对事故责任和可靠性的担忧,这表明他们担心人工智能系统出现故障以及确定责任归属的问题。算法和自动决策系统中的偏见,以及人脸识别技术对公民权利的影响,也是主要问题所在,这反映出人们害怕会延续社会偏见和不公正现象。

3.3 城市人工智能应用的伦理框架
除了通过对100份关于人工智能伦理的文件进行内容分析所确定的14项城市人工智能应用伦理原则之外,我们还询问了调查参与者,希望他们为城市人工智能伦理提出额外的原则。回应中凸显出解决所有利益相关者(包括边缘化群体)的需求和观点的重要性。例如,参与者1号——一位城市规划师、哲学家兼地理学家——强调了治理与政治在人工智能部署中的重要性,倡导制定包容且负责任的政策。参与者11号——一位计算机科学家、哲学家兼数据科学家——则着重指出数字素养与包容性对于培养知情的数字公民的必要性。此外,隐私问题也作为一个关键原则浮出水面,参与者17号和24号均强调了数据收集的透明性以及公平算法的开发。以人为本的方法的重要性同样得到了强调,确保人工智能系统将人类需求置于技术或商业利益之上。独特的视角还包括在人工智能开发中考虑宗教与文化因素(参与者19号,城市设计师兼规划师),以及解决大数据中少数群体代表性不足的问题(参与者9号,城市设计师、数据科学家兼数据管理员)。此外,问责制与人类的监督被强调为伦理人工智能部署的关键要素(参与者17号,项目经理)。
此次调查凸显了对人工智能进行监管以及提升公众对人工智能认知的必要性,同时也强调了在人工智能开发过程中开展跨学科合作,以及让利益相关者参与人工智能系统实施与使用的重要性(图7)。与数据被重新利用、事故责任、算法偏见以及人脸识别等风险相关的回应高频出现,这凸显出城市环境中人工智能系统潜在的伦理挑战。这些发现表明,有必要制定针对数据隐私、问责制、公平性以及公民权利的法规,强调政策制定者、技术专家和公众必须携手合作,以应对城市人工智能带来的风险,确保其负责任地发展并实现利益的公平分配。

4. 讨论
在城市规划领域,人们越来越达成共识,即城市中人工智能系统和技术的日益广泛应用,需要一个城市人工智能伦理框架来为人工智能的创新提供伦理指导。本研究提出的城市人工智能应用伦理框架,为应对人工智能技术在城市环境中部署所带来的独特挑战提供了至关重要的基础。然而,这也为进一步开展关于城市人工智能伦理的影响、实际应用以及未来方向等引人深思的讨论打开了大门。
本研究提供的伦理框架建议了众多伦理原则,用以指导城市人工智能应用在城市中负责任地开发和部署,从而回答了指引本文的主要研究问题。
该框架的优势在于其认识到了城市环境的多面性。城市是动态的生态系统,其特点是人口多样、基础设施复杂以及社会互动纷繁。这种复杂性要求有一种针对人工智能伦理的定制化方法,该方法不仅要考虑透明性、问责制和公平性等一般原则,还要考虑城市生活的具体情境。例如,自动驾驶汽车的伦理考量必须考虑到它们与行人、骑自行车者以及其他城市元素之间的互动,这凸显了严格测试和安全协议的必要性。
框架中强调的一项关键伦理原则是公平分配人工智能带来的益处。城市人工智能应用必须确保技术进步不会加剧现有不平等现象,而是要有助于减少不平等。这需要制定将边缘化和代表性不足群体的需求放在首位的政策和实践。调查回复凸显了这一必要性,参与者们倡导包容且负责任的人工智能部署。然而,要实现这一点,就需要政策制定者、技术专家和公众之间持续开展对话,以识别和解决城市中人工智能的社会政治层面的问题。
人类能动性原则对于确保人工智能技术增强而非削弱人类的决策能力和自主性至关重要。城市人工智能系统应该赋予个人和社区权力,使他们能够控制自己的数据以及影响自身生活的人工智能系统。这涉及透明的人工智能流程以及用户理解并影响人工智能决策的能力。讨论还必须延伸到城市规划者和设计者如何以尊重和增强人类能动性的方式整合人工智能。
数据隐私和所有权在人工智能伦理讨论中一直是备受关注的问题,在城市环境中尤其如此,因为城市中数据是由各种来源持续生成的。该框架倡导采取强有力的数据隐私措施并明确数据所有权的指导方针。然而,数据技术和实践的快速演变需要对这些原则进行持续评估和调整。未来的研究应该探索在保护数据隐私的同时,实现城市数据为公共利益有效利用的创新解决方案。
自动化决策系统中的算法偏见仍然是一个重大挑战。框架中对更公平、更透明算法的呼吁是朝着正确方向迈出的一步,但这需要具体行动和持续监测。人工智能中的偏见可能会延续社会不平等现象,解决这一问题需要计算机科学家、伦理学家、城市规划者以及受影响社区等多学科的共同努力。开发和实施无偏见算法应该是一个迭代过程,要有反馈循环以便在出现偏见时及时识别和纠正。
有效的治理和监管对于在城市环境中合乎伦理地部署人工智能至关重要。框架建议城市人工智能应用应接受严格测试并遵守既定法规。然而,人工智能的快速发展往往使监管框架难以跟上步伐。这需要适应性治理模式,以便能够迅速应对技术进步和新兴伦理问题。让多样化的利益相关者参与监管过程,可以提高这些治理模式的合法性和有效性。
城市人工智能技术的不断发展需要持续研究并调整伦理框架。未来的研究应侧重于这些原则的实际应用,通过考察城市人工智能部署的案例研究来确定最佳实践和有待改进之处。此外,探索人工智能与其他新兴技术(如物联网和智慧城市基础设施)的交叉点,可以更深入地了解这些融合领域特有的伦理考量。
一般性的人工智能伦理文件为人工智能开发者提供了有价值的原则,以引导他们开发更负责任的人工智能。然而,仍需人工智能专家与其他领域专家合作,以制定特定领域的框架。因此,我们认为所提出的城市人工智能应用伦理框架为确保人工智能技术造福城市居民同时减轻风险和伦理担忧提供了一个全面的出发点。但它也凸显了需要持续开展对话、研究和调整,以应对城市环境中人工智能不断演变的挑战。通过促进包容且公平的人工智能部署、尊重人类能动性、保护数据隐私、解决算法偏见并确保强有力的治理,我们可以为合乎伦理且可持续的城市人工智能系统铺平道路,从而提高所有城市居民的生活质量。
制定城市人工智能伦理框架对政策制定者、城市规划者和人工智能开发者具有深远影响。它促进了将人工智能融入城市环境时的协调方法,同时维持了伦理标准、增进了公众信任、确保了公平性并应对了社会经济和环境挑战。尽管存在挑战,但此类框架在创建可持续、公平且技术先进的城市空间方面的潜在效益是巨大的。
5 结论
目前发布的关于人工智能伦理的文献为部署城市人工智能应用可能带来的伦理风险及其伦理原则提供了宝贵见解。这些见解构成了制定城市人工智能应用伦理概念框架的基础,该框架包含14项伦理原则,以指导其道德发展:1)安全与保障;2)人类能动性;3)责任归属;4)实物所有权;5)数据所有权;6)个人空间隐私;7)开放公共数据;8)工人安全;9)透明度和可解释性;10)在城市中部署前对人工智能进行测试和实验的法规;11)更公平、透明的算法;12)面部识别与公民权利;13)广泛的人工智能教育、意识提升和透明度;14)数据隐私。
需要注意的是,鉴于当前已发布的关于城市问题的人工智能伦理文献存在局限性,此框架主要针对城市中人工智能应用的伦理考量和风险。因此,所提出的框架并未涵盖城市人工智能的全部复杂性,这仍需进一步研究。未来研究应探讨伦理人工智能框架与社会、政治、空间、文化及其他城市环境现实之间的关系。我们建议让多样化的利益相关者参与进来,共同构建城市人工智能的伦理框架,并制定明确的方法来评估人工智能伦理对城市环境的影响。
城市人工智能伦理框架的发展应指导学术研究,并促进计算机科学家、城市规划师、伦理学家和社会科学家之间的跨学科合作,以创建具有情境感知能力的人工智能解决方案。这包括建立标准化的伦理准则和评估标准,用于评估人工智能在城市环境中的社会影响。探索社会影响可以凸显潜在益处,如优化公共服务和减少社会不平等,以及弊端,比如因监控增加导致的隐私侵犯,以及如果不优先考虑公平,可能使较富裕社区比低收入社区获益更多的风险。
虽然本研究提出了一个有价值的城市人工智能应用伦理框架,但它存在一定的局限性,需要在后续研究中加以解决。未来的研究应聚焦于上下文适应性、包容性方法、纵向影响评估、高级偏见缓解、新兴技术中的伦理问题、可扩展性以及确保经济和社会公平。通过解决这些领域的问题,可以开发出更加稳健和全面的伦理框架,确保人工智能技术在城市环境中得到负责任和公平的部署。
Mennatullah Hendawy, Lamiaa Ghoz,
A starting framework for urban AI applications,
Ain Shams Engineering Journal,
Volume 15, Issue 11,
2024,
102987,
ISSN 2090-4479,
https://doi.org/10.1016/j.asej.2024.102987.

原文始发于微信公众号(城市数据派):【Urban AI 思考】一份关于城市人工智能应用的起始框架丨城市数据派