1. 事故案例冲击信心
2. 媒体舆论与认知偏差
3. 数据与调研佐证
1. SAE分级标准
2. IEEE标准与伦理指南
3. UL 4600安全标准
1. 感知与传感器局限
2. 决策算法与长尾难题
3. 城市环境与基础设施挑战
4. 伦理与决策困境
1. 加强国际协同与标准统一
2. 提升数据透明度与事故报告机制
3. 完善公众科普与预期管理
4. 健全法律框架与责任保险制度
5. 强化技术标准与认证测试
6. 推进车联网安全和后台防护
自动驾驶汽车(Autonomous Vehicles, AV)是指利用传感器(如摄像头、雷达、激光雷达等)和人工智能算法来感知环境、规划路径并控制车辆,无需人类司机实时操作。根据美国汽车工程师学会(SAE)定义,汽车自动驾驶可分为L0至L5共六个等级:从无自动化,一直到在所有条件下都可自行驾驶的完全自动化。当前大多数产业实践集中在L2级(部分自动化)和L3级(有条件自动化),少数先进车型开始具备L3功能,如德国奔驰的“Drive Pilot”系统已获许可在高速公路交通拥堵时以60 km/h实现L3级自动驾驶。L4级(高度自动化)则允许车辆在限定区域和特定条件下无安全员驾驶,例如日本于2023年在福井县永平寺町批准了首例无需车上司机的L4自动驾驶公交服务。自动驾驶原本被寄予降低交通事故的厚望,但数起高调曝光的事故严重打击了公众信任。2016年,美国一辆特斯拉汽车在高速公路启用Autopilot时与卡车相撞,造成驾驶员死亡,这是全球首例已知的自动驾驶(辅助)致死事故,引发公众对其可靠性的质疑。2018年3月,Uber公司的一辆测试中的无人车在亚利桑那州夜间撞死一名横穿马路的行人;仅一周后,一辆特斯拉Model X在加州高速公路开启自动驾驶辅助时撞上隔离墩,造成司机死亡。这两起接连发生的致命事故在媒体上引起巨大关注。调查显示,它们直接导致公众态度由乐观转为悲观:一项针对社交媒体舆情的研究表明,在Uber与特斯拉事故发生后,有关“自动驾驶”技术的负面推文比例从事故前的14%激增至46%,呈现出 32个百分点 的大幅跳升;自动驾驶相关话题的整体情感极性也显著转向消极。美国汽车协会(AAA)的年度调查结果同样印证了这一点——2018年初仅63%的美国司机表示对全自动驾驶车辆感到害怕,但在上述事故发生后,这一比例迅速上升到73%。尤其值得注意的是,一向被认为更接受新技术的千禧一代,感到恐惧的比例从49%猛增至64%。可见,每一次自动驾驶车辆的严重事故都会动摇公众对该技术的信任。重大事故经由新闻媒体和社交网络的放大,使公众更直观地感受到自动驾驶的风险。研究发现,2016年特斯拉首例致死事故就曾令公众态度转为悲观。此后,每当发生事故,主流媒体密集报道、“自动驾驶撞人致死”这类耸动标题频频出现,强化了大众对技术不成熟和不安全的印象。一项对2012-2021年间近十年Twitter帖文的分析指出:社交媒体上关于自动驾驶的讨论自2016年年中开始进入情绪“负面期”,其导火索正是一系列致命事故,而主流媒体的报道起到了推波助澜的作用。相比之下,自动驾驶数百万公里无事故安全行驶的记录往往缺乏传播热度,负面事件的影响远大于正面进展,造成公众认知偏差。此外,汽车厂商对于自动驾驶功能的宣传不当也可能导致信任危机。例如一些厂商使用诸如“自动驾驶”(Autopilot)之类的术语宣传实际仅为L2级别的驾驶辅助系统,可能让消费者高估车辆自动驾驶能力。在中国,2021年发生的“蔚来ES8车型高速公路致死事故”就引发了关于宣传用语误导的激烈讨论——一位车主在开启所谓“领航辅助(NOP)”功能后不幸撞上作业车辆身亡,事后蔚来公司澄清NOP“不是自动驾驶,只是辅助驾驶”,这种宣传和认知的不一致进一步削弱了公众对类似功能的信任。
多项调查数据表明,目前大众对自动驾驶汽车的信任度仍然偏低,信任危机的阴影并未消散。AAA在2025年初的最新调查显示,只有13%的美国司机表示愿意信任乘坐自动驾驶汽车,尽管这一比例比上一年略有上升(2024年仅9%)。相反,有将近六成的司机(约60%)坦言他们“仍然害怕”乘坐无人驾驶汽车。同样,在中国的一项公众调查中,超过七成受访者表示对完全无人驾驶汽车上路“不放心”,主要顾虑包括技术可靠性、遇险时无人干预以及系统被黑客攻击等。即使在自动驾驶产业相对成熟的欧洲,日本等地,消费者的疑虑也普遍存在。这些数据表明,公众信任成为自动驾驶商业化部署的最大障碍之一。信任不足会导致消费者不愿意购买或乘坐自动驾驶车辆,从而限制市场需求和技术的推广应用。可以说,如何修复公众对自动驾驶的信任,是产业界和监管者迫切需要解决的课题。
调查称大多数美国人对自动驾驶汽车感到恐惧 来源:AAA调查
围绕自动驾驶技术,各国政府在监管政策上采取了不同思路,形成了具有差异性的监管框架和实践。下面将对中国、美国、欧洲、日本的政策现状与典型案例进行比较分析。中国政府高度重视自动驾驶产业,将其视为汽车强国战略的重要组成部分。可通过国内法规快速推进创新。近年来,中国发布了一系列指导政策和技术标准,如发布国家标准《汽车驾驶自动化分级》(等同于SAE分级)以统一行业术语。各地政府积极开放道路测试:北京、上海、广州等先后出台自动驾驶车辆道路测试管理办法,指定测试道路并要求测试车辆配备安全员。
美国的监管呈现“联邦指导+州级立法”的分散格局。目前美国联邦尚未制定专门的自动驾驶法律或强制标准,只有美国高速公路安全管理局(NHTSA)发布的一系列指导性原则(如2016年联邦自动驾驶政策和后续版本)鼓励企业自愿提交安全报告因此,各州成为主要监管力量:截至2023年,已有35个州通过了涉及自动驾驶测试或运营的法律,大多数州允许在一定条件下测试无人车,其中加州等少数州要求企业报告测试里程和自动驾驶系统脱离情况,而亚利桑那、佛罗里达等州对无人驾驶测试和商业化采取更宽松态度。
欧洲总体采取审慎而统一的监管路径,注重在国际法规框架下逐步开放自动驾驶。大部分欧盟国家受制于《维也纳道路交通公约》对驾驶人义务的规定,一直以来要求行驶中车辆必须有司机控制。然而随着联合国欧洲经济委员会(UNECE)通过新的自动驾驶国际规定,欧洲开始调整法规支持高级别自动驾驶。例如,2020年UNECE通过了UN R157号法规,允许在限定条件下L3级“自动车道保持系统”(ALKS)上路。
日本在自动驾驶立法上走在世界前列,采取“分步开放、保障安全”的策略。早在2020年,日本修改《道路交通法》和《道路运送车辆法》正式允许L3级自动驾驶车辆合法上路,这为本田公司2021年推出全球首款L3级量产车(Honda Legend旗舰版搭载Traffic Jam Pilot)铺平了道路。到了2023年4月,日本再次修法解禁L4级自动驾驶,用于限定区域内的无人驾驶出行服务。日本也是全球首批将无人驾驶商业运营写入法律的国家之一。目前,日本的法规允许在特定条件下开展没有安全员、由远程监控的自动驾驶小巴接送服务,以应对人口老龄化带来的司机短缺问题。上述各国政策差异的背后,反映出不同监管哲学:美国偏重创新驱动,允许企业先行试错;欧洲和日本强调安全为先,在法律和技术标准成熟后放行;中国则在政府引导下平衡创新与监管,通过试点逐步拓展。展望未来,随自动驾驶技术全球化发展,各国监管有望逐渐趋同,国际协同和规则对接将变得愈发重要。
在自动驾驶快速发展的背景下,行业组织和标准机构制定了多项标准来规范技术术语、性能要求和安全评估方法。其中具有代表性的包括:SAE国际自动驾驶分级标准、IEEE自动驾驶相关标准以及UL 4600自动驾驶安全标准等。这些标准在指导产业发展方面发挥了一定作用,但也存在局限性和不足。2014年,美国汽车工程师学会(SAE International)发布J3016标准,定义了L0到L5的驾驶自动化等级,已被全球广泛引用。SAE分级为行业和监管提供了统一语言,例如中国、德国、日本等国的法规均参考了SAE的分级划分。然而,该标准仅仅是对自动化程度的分类,并未涉及安全准则或人机交互要求。作为全球工程师组织,IEEE也在推动自动驾驶相关标准化工作。例如,IEEE发布了面向自动驾驶决策算法的P2846草案标准,旨在定义安全相关模型中应考虑的假设条件和场景集合。通过明确“车辆在决策时可以假定其他道路使用者会如何行为”等前提条件,该标准试图让整个行业在安全策略上达到一致,从而避免各家系统基于不同假设导致安全漏洞。IEEE还成立了P7000系列工作组探讨自动驾驶伦理设计原则等问题。不过,这些标准很多仍在制定或征求意见阶段,尚未被广泛采纳为强制规范。UL(美国保险商试验所)于2020年发布了全球首个针对完全自动驾驶系统安全评估的标准UL 4600《自动驾驶汽车安全案例标准》。该标准采用“安全案例”的方法,列出了开发高自动化车辆时需要考虑的风险因素和验证要点,包括感知系统可靠性、决策算法验证、冗余设计、故障响应、人机接口等方面。UL 4600的特点是目标导向和技术无关,强调制造商需提交充分的安全论证文档。然而,它的局限性在于:标准本身并不提供具体的性能指标或测试用例,也不裁定通过/不通过的判据。换言之,UL 4600告诉厂家“需要考虑哪些安全问题”,但如何证明解决了这些问题则留待厂家自行决定。
综上,虽然SAE、IEEE、UL等标准在规范术语、提出原则方面发挥了重要作用,但在自动驾驶全面商用之前,还需要建立更健全的技术标准体系和合规评估机制,以确保各厂商的系统都达到公众可接受的安全水平。这也是监管政策需要关注的重要领域。
除了公众信任和政策法规,自动驾驶技术本身仍面临诸多工程挑战和伦理难题,这些问题需要克服和妥善应对,否则将继续制约自动驾驶的发展。
自动驾驶对环境感知的准确性高度依赖。然而,各类传感器都有自身弱点,在复杂环境下难以做到万无一失。是感知的大敌——相机遇到强光直射、夜间昏暗、雨雪天气时性能急剧下降;美国AAA的实车测试表明,在模拟大雨条件下,搭载摄像头的高级驾驶辅助系统未能有效识别前方静止车辆,车辆以56 km/h撞上障碍物的概率高达33%,且大多数情况下系统甚至没有向驾驶员发出性能受损的警告。激光雷达在浓雾、大雪中探测距离会显著缩短,暴雨中雨滴会在点云中形成噪声点,甚至被误识别为障碍物。毫米波雷达虽不受光照影响,但分辨率有限,在静态障碍物检测上存在短板。
自动驾驶的大脑是决策与控制算法,包括基于规则的决策逻辑和基于机器学习的行为预测等。当前主流方案在常规交通场景下表现良好,但对付长尾异常场景仍显不足。所谓长尾场景,指的是那些发生概率极低但一旦发生对安全影响巨大的特殊情况(如行人突然横穿、前方掉落异物、非典型行为车辆等)。由于人类驾驶经验数据中这些场景本就稀少,算法难以及由经验学习覆盖。自动驾驶在高速公路等结构化环境中相对容易实现,但在开放的城市道路中面临显著更高的复杂度。城市街道参与者众多,包括行人、自行车、摩托车、各类车辆,交通行为高度动态且难以预测。道路状况也更复杂多变,例如临时施工、道路封闭、交通警察指挥、特殊交通规则(公交优先道等)等等。这些都对自动驾驶提出了挑战。在成熟道路交通体系中,人类驾驶员会通过眼神接触、手势等与行人和其他司机互动,达成通行默契,而机器目前很难理解和回应这些微妙信号。再者,城市中GPS信号可能因高楼阻挡而减弱,高精地图也可能因为道路改造而过期,需要车辆具备更强的自主感知定位能力。自动驾驶引发了重大伦理难题,其中最著名的是所谓“电车难题”(Trolley Problem)的现实版本——当车辆不可避免将发生撞击且无方案能避免人员伤亡时,算法应如何抉择撞击对象,怎样权衡乘客与行人安全?在人类驾驶情况下,这类两难时刻的决策往往是下意识反应,很难追究道德责任;但在自动驾驶情境中,机器的每一步决策都是事先编程好的逻辑,这就把抽象的伦理问题变成了工程和法律问题。2016年麻省理工学院展开了一个著名的“道德机器”实验,向全球数百万参与者征询类似“两难情况你会怎么办”的选择偏好,并于2018年发表了覆盖233个国家地区、约4000万次决策的数据分析结果。结论显示,尽管不同文化背景对某些情境有差异,但总体而言,全球受访者呈现出三项强烈的一致伦理偏好:优先保护人而非动物、优先保护更多的人、优先保护年轻人而非年长者。换言之,多数公众倾向于“减小总伤亡”和“保护弱势(儿童)”的功利选择。这些发现对政策制定者具有参考价值。

来源:nature
责任主体不明确也是伦理困境的一部分:如果自动驾驶算法在两难情况下做出了某种选择,伤害了其中一方,究竟该由谁来为这个决定负责?工程师、制造商、车辆所有者还是算法本身?目前这方面尚无定论。可以预见,在自动驾驶得到大规模部署前,社会必须就上述伦理问题达成一定共识,否则一旦发生此类极端事件,可能引发强烈的舆论和法律震荡。有学者指出,“电车难题”在自动驾驶情境下并不存在完美无瑕的解决方案,与其苛求算法给出道德最优解,不如在法律层面预先规定责任豁免和赔偿原则,以缓解工程师在道德编程上的压力。
总而言之,技术上的可靠感知、全面认知问题和伦理上的价值选择、责任承担问题交织在一起,使得自动驾驶不仅是工程挑战,也是社会挑战。
自动驾驶颠覆了传统的驾驶责任模式。在有人类驾驶的情况下,交通事故责任通常根据司机过错来认定;而在高度自动驾驶情境下,如果车辆由AI驾驶,出现事故时责任应归咎于谁变得复杂。一种观点认为,自动驾驶系统可以被视为制造商提供的产品,因此若其在自动模式下肇祸,应由制造商承担产品责任(Product Liability)。已有国家开始朝此方向立法。
事故认定首先就是难点:要判断事故是由于系统技术缺陷(如感知/决策错误)造成,还是由于不可抗的意外情况,即使有行车数据记录仪,分析起来也需要高度专业知识和透明的数据提供。如果厂商不愿意公开算法细节,取证会很困难。另外,如果碰撞不可避免但算法选择了对某方更不利的方案(如前述伦理困境),受害者是否能起诉厂家“算法有过错”?当前法律没有先例。各司法辖区正探索不同方案,如美国可能延续其侵权法体系,由法院判例逐步建立责任标准;欧盟则倾向通过立法预先明确自动驾驶产品的责任归属和保险机制,以降低消费者和厂商的不确定性风险。
需要指出的是,责任模糊将直接影响公众信任:如果消费者担心用车时一旦出事故责任界定麻烦、自己可能无辜担责,他们势必更抗拒自动驾驶技术。因此,建立清晰公平的责任分担机制是一项紧迫任务。一些公司为提振信心主动表态,如奔驰表示其L3 Drive Pilot系统在合法使用下若发生事故,公司将承担相应责任。这类举措有助于建立用户对技术的信赖。未来,或许可以考虑引入强制保险和赔偿基金制度:由厂商为自动驾驶功能投保,出现事故无论原因先由保险赔付受害者,再由保险公司和相关方根据责任比例清算。这类似于目前疫苗不良反应赔偿的思路,以经济手段解决责任纠纷,避免消费者和厂商的后顾之忧。
自动驾驶汽车本质上是“轮子上的电脑”和“移动的物联网终端”,因而不可避免地面临网络安全隐患。如果被黑客恶意入侵,后果可能比普通网络攻击严重得多:一辆被远程控制的汽车相当于一枚高速移动的“危险武器”,可能危及乘客和道路上他人的生命财产。近年来的多项实验已经证明,汽车尤其是网联汽车存在被攻击的可能性。早在2015年,美国研究人员演示了远程入侵一辆吉普切诺基车辆的CAN总线,从而切断发动机、控制转向和制动,迫使克莱斯勒公司召回140万辆汽车升级软件。这一著名案例敲响了车载网络安全的警钟。自动驾驶汽车由于高度依赖软件和连接,一旦联网,其攻击面更广:黑客可能通过车辆的无线接口(蜂窝网络、WiFi、V2X通信等)植入恶意代码,夺取车辆控制权;或者进行“欺骗攻击”,让车辆传感器感知到不存在的障碍物或路标,从而干扰决策。
大规模协同攻击的风险也不容忽视:设想黑客同时入侵一批联网自动驾驶车辆,令其集体失控,将会造成严重的交通灾难和社会恐慌。除了人身安全,数据安全和隐私也是问题——自动驾驶车收集了大量行驶轨迹和乘客行为数据,一旦被黑客窃取,可能侵犯个人隐私甚至被不法分子利用。面对这些威胁,汽车和科技企业已经开始加强网络安全投入,例如特斯拉等公司为发现车辆漏洞的白帽黑客提供奖金计划,并通过OTA(空中下载)及时为车辆更新安全补丁。但行业总体上缺乏统一的车辆网络安全标准和合规要求。目前欧美发布了一些指南文件(如ISO/SAE 21434网络安全标准)供厂商参考。政府监管方面,欧美已要求新车生产商建立网络安全管理体系,并在车辆型式认证中考虑防护能力。一些专家呼吁将汽车网络安全上升到与功能安全同等的重要地位,强制规定关键系统的安全防护等级、加密要求以及应急响应机制。同时,消费者也应被教育重视车载系统安全,不要私接来路不明的设备或软件。
在法律层面,如果发生由于黑客攻击导致的事故,责任如何划分目前尚无定论。RAND的一份研究指出,传统的数据泄露事件往往未引起消费者对安全的足够重视,但自动驾驶汽车被黑所造成的潜在人员伤亡将大大放大后果,可能迫使公众强烈要求提高车辆网络安全水平。监管机构需要未雨绸缪,例如建立网络攻击责任豁免机制(将大规模网络攻击视作不可抗力灾害处理)以及推动厂商和保险业制定网络险,以覆盖黑客行为导致的损失。只有当消费者相信自动驾驶汽车“不容易被黑”,他们才会真正信任无人驾驶上路。
针对自动驾驶领域的公众信任危机和监管挑战,未来需要在政策、法规和社会层面进行系统性的改进和完善。以下是若干优化建议:
自动驾驶技术具有全球属性,各国监管不应各自为政。建议充分利用联合国世界车辆法规协调论坛(UNECE/WP.29)等平台,加快制定统一的自动驾驶国际法规/标准,包括安全技术要求、测试规程和运行规范等。国际协同也应包括伦理准则的交流,逐步探讨形成跨文化接受的自动驾驶伦理指南。未来或可考虑建立一个由主要汽车生产国参与的“自动驾驶国际监管委员会”,定期分享经验和协调政策,避免监管标准的割裂。透明的数据是建立信任的基础。监管机构应要求企业强制披露自动驾驶车辆的安全相关数据,包括测试行驶里程、事故和险情发生率、自动驾驶模式下接管次数及原因等。目前欧洲交通安全委员会(ETSC)已呼吁建立欧盟层面的道路碰撞调查机构,用于深入分析自动驾驶车辆相关事故。这值得各国参考。通过专业调查厘清事故原因,既能提高公众对官方结论的信服度,也能推动厂家及时改进问题。数据透明也应延伸到算法决策原则层面。监管者可以要求企业提交自动驾驶系统在紧急情况下的决策逻辑说明,审核其是否符合伦理和法律要求,并将一般原则公之于众(不涉及商业机密的细节)。例如,某车型的自动驾驶在不可避免事故时选择“尽量减小伤亡人数”的策略,这一点应明确告知消费者和社会。这样可以避免当意外发生后公众对算法决策产生过度猜疑和恐慌。总之,让公众看见数据、看懂系统,比起厂商闭门造车更能增加信任。消除信任危机的一剂良方是加强公众教育。政府、科研机构和企业应联合开展面向公众的自动驾驶知识科普,澄清常见误区。例如,通过媒体宣传和体验活动,让公众了解自动驾驶系统的能力边界(能做什么,不能做什么),正确认识诸如SAE等级的含义,避免被广告噱头误导。可以设置自动驾驶演示日或试乘体验中心,邀请市民乘坐体验当前水平的自动驾驶车辆,在真实场景中感受其安全性能和局限性。有研究表明,给予人们与新技术直接互动的机会有助于改善其感知。对于媒体报道,希望能够平衡客观:在事故报道之外,多传播一些自动驾驶避免事故、造福出行的正面案例,防止舆论一边倒地妖魔化新技术。在公众心理建设方面,需要倡导“理性期待”,既不要迷信自动驾驶已经无所不能,也不要因个别事件就完全否定其长期潜力。这种预期管理需要教育和宣传长期共同作用,才能使社会心态趋于成熟。监管层面应加快填补法律空白,明确各方责任,为产业发展提供稳定预期。建议在国家层面制定《自动驾驶车辆管理条例》或类似法规,统一规范自动驾驶车辆的法律地位、上路条件和责任归属。目前深圳特区的立法提供了范例,其他地区可据此调整应用。法律应明确在不同自动化等级下,驾驶人、所有人、制造商、运营商各自的义务和责任。当车辆处于自动控制时,原则上应由系统提供方(制造商或运营方)承担事故责任,这需要在法律中有所体现。同时,需要引入强制保险要求,确保每一辆自动驾驶车都有足够的保险覆盖自动驾驶模式下的事故风险。
如前所述,可考虑建立由保险公司支持的赔付机制,保证受害者及时获得补偿。对于黑客攻击等特殊情况,法律也应有所安排(如视为不可抗力时的责任处理)。在刑事责任方面,或许需要创造新的罪名或责任形式,以处罚明知系统有严重缺陷仍投入使用、或蓄意篡改自动驾驶系统导致事故等恶性行为。总体目标是在法律上为自动驾驶划定清晰的责任边界,既保护公众利益,也给企业吃下“定心丸”,让他们敢于承担创新风险、投入商业应用。
要赢得信任,消费者需要看到官方对自动驾驶技术进行严格把关。建议建立权威的第三方测试认证体系:由政府或独立机构主导,对自动驾驶系统进行分级别的安全测试和性能评估,合格者颁发认证证书并允许上路运营。欧洲新车评估程序(Euro NCAP)已经计划将高级驾驶辅助和自动驾驶功能纳入评分,通过严格测试为消费者提供参考。这种做法值得推广。另外,应鼓励采用形式验证和仿真推演等先进手段,提高对极端情况的信心。如果有可能,监管机构可要求厂商提交关键算法的验证报告,甚至在必要时查看源代码(可由专业审查员在保密条件下审核),以确认不存在明显危险逻辑。对于已上路运营的自动驾驶车辆,监管部门也应进行持续的监督抽查,包括道路抽测、远程监控等方式,及时发现问题隐患。一旦发现某款系统存在系统性安全缺陷,应立即责令召回或停止运营(正如2023年美国NHTSA要求特斯拉召回FSD Beta版本一样)。通过严格的技术监管,把好自动驾驶上路前的每一道关,公众才会对其安全性更有信赖。针对网络安全问题,监管机构应制定汽车网络安全强制标准,要求厂商达到一定防护能力。定期的安全渗透测试应成为认证环节的一部分。同时建立行业漏洞通报机制,发现安全漏洞时及时通知相关企业和车主升级。政府可以与网络安全公司合作成立汽车安全应急响应中心,专门应对汽车黑客事件。一旦发生针对自动驾驶车辆的网络攻击事件,应迅速介入,协调厂商采取补救措施并对外发布风险警示,避免谣言引发恐慌。对于恶意攻击自动驾驶车辆的行为,需要明确法律处罚,加大震慑力。通过完善技术和法律两方面的网络安全防线,让公众相信自动驾驶汽车不会轻易“失控”或成为攻击目标。
归根结底,自动驾驶的广泛应用既取决于技术成熟,也取决于监管智慧和社会共识。监管优化的各项措施目标一致:提升安全、增加透明、重建信任。只有当公众切实体会到自动驾驶汽车是安全可控且利大于弊的,他们才会愿意接受这项新技术走入生活。为此,政府部门需要扮演更加积极的角色,从被动事后监管转向主动引导规范,在保障安全与促进创新之间取得平衡。展望未来,随着政策和技术的双重进步,自动驾驶有望真正兑现其减少交通伤亡、提升出行效率的潜力,迎来更健康的产业生态和更友善的公众环境。
清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢