导读 为了帮助中国人工智能科研、从业者更好地了解全球人工智能领域的最新资讯,智源研究院编辑团队本周整理了第 55 期《智源社区AI周刊》,从学术(论文和新思想、学术会议等),行业和政策(技术产业政策、项目基金申请、技术投融资等),人物(学者的人事变动和获奖情况)、数据(数据集),工具(新工具和应用推荐),求职(职场研究报告等)等诸多角度,鸟瞰过去一周人工智能领域值得关注的动态。 2021年来临,智源周刊已陪伴大家一年有余,感谢大家在过去一年的支持与陪伴,智源周刊编辑团队祝大家新年快乐,工作顺利!

过去一周(2021/01/04~2021/01/10),值得关注的内容有以下3方面:

一、2021年1月5日,OpenAI同时发布了两个大规模多模态预训练模型:DALL·E和CLIP。DALL·E可以基于短文本提示(如一句话或一段文字)生成对应的图像,CLIP则可以基于文本提示对图片进行分类,两者都意在打破自然语言处理和计算机视觉的界限,实现多模态的人工智能系统。(详情参见本周报“应用”栏目)

二、2021年1月11日,由北京智源人工智能研究院、阿里巴巴、清华大学、中国人民大学、中国科学院、搜狗、智谱.AI、循环智能等单位的科研骨干成立“悟道”联合攻关团队,发布了面向认知的超大规模新型预训练模型“文汇”,旨在探索解决当前大规模自监督预训练模型不具有认知能力的问题。“文汇”模型不仅使用数据驱动的方法来建构预训练模型,还将用户行为、常识知识以及认知联系起来,主动“学习”与创造。(详情参见本周报“应用”栏目)

三、在2021年的第一期《自然》杂志封面研究中,来自牛津大学的Volker Deringer等人展示了模拟加压非晶硅的原子机器学习模型,这种计算方法可以为实验条件极富挑战性的材料预测建模开启全新的方式。这是2020年12月DeepMind人工智能解决生物学50年来重大挑战之后,人工智能在又一个新的领域展现强大能力。现在,人类已经能够实现10纳米尺度,十万个硅原子系统的模拟——使用常规方法的话,即使是超级计算机也需要耗费大量时间。(详情参见本周报“应用”栏目)

下面是各个要点的详情介绍。

论文推荐

加州大学伯克利分校 | I-BERT:纯整数BERT量化 I-BERT: Integer-only BERT Quantization 近年来,像BERT和RoBERTa这样的基于Transformer的模型在许多自然语言处理任务中都取得了最新的成果。但是,它们的内存占用量,推理延迟和功耗对于许多边缘处理器来说都是令人望而却步的,同时将这些模型部署到具有资源限制的边缘应用程序和设备上也是极大的挑战。虽然量化可以是一种可行的解决方案,但之前关于基于模型的量化Transformer的工作在推理过程中使用浮点算法,从而限制了模型在许多边缘处理器上的部署。因此,本文提出一种新颖的纯整数BERT量化方案I-BERT。I-BERT的核心是非线性运算如GELU、Softmax和LayerNorm的近似方法,可用整数计算来进行近似。实验表明,在平均GLUE得分方面,该方法比浮点基线模型有所提高。 【论文下载】

语义分析 | 跨域上下文相关语义分析的动态混合关系网络 Dynamic Hybrid Relation Network for Cross-Domain Context-Dependent Semantic Parsing 长期以来,语义分析一直是自然语言处理中的一个基本问题。近年来,跨域上下文相关的语义解析已成为研究的新焦点。问题的核心是在交互历史中利用自然语言话语和数据库模式的上下文信息的挑战。在本文中,作者提出了一个动态图框架,该框架能够在对话进行时有效地建模上下文话语,token,数据库模式及其复杂的交互。该框架采用了动态记忆衰减机制,该机制结合了归纳偏差来整合丰富的上下文关系表示,并通过强大的重新排序模型进一步增强了该机制。在撰写本文时,作者证明了所提出的框架在很大程度上超越了所有现有模型,并在SParC和CoSQL数据集这两个大型基准上实现了最新的性能。具体来说,该模型在SParC上达到55.8%的问题匹配和30.8%的交互匹配精度,在CoSQL上达到46.8%的问题匹配和17.0%的交互匹配精度。 【论文下载】

华盛顿大学&Facebook | Shortformer:用更短的输入实现更好的语言建模 Shortformer: Better Language Modeling using Shorter Inputs 作者认为,用更短的输入能实现更好的语言建模。通过先对较短子序列进行训练,再用分阶段训练逐渐过渡到较长子序列,可改善复杂度,减少训练时间。定义了一种新方法,即位置填充注意力,能缓存和有效关注之前计算的表示。使用这种方法的模型,不需要大的输入子序列。两种方法结合,可以产生更快、更准确的语言模型。在不添加任何参数的情况下,提高了65%的训练速度,生成速度提高了9倍,有效提高了WikiText-103上的困惑度。 【论文下载】

西安交通大学 | 阅读、回顾、选择:短文本实体链接的MRC框架 Read, Retrospect, Select: An MRC Framework to Short Text Entity Linking 快速增长的短文本(如搜索查询和新闻标题)实体链接(EL)是至关重要的工业应用。现有的方法大多依赖于足够的上下文来进行长文本EL,但对于简洁、稀疏的短文本来说并不有效。在本文中,我们提出一个新的框架称为多向选择题机器阅读理解(M3)从一个新的角度解决短EL:查询为每个模糊生成提到利用周围的环境,和一个选项选择模块被用来确认金从候选人使用查询实体。通过这种方式,M3框架在编码过程中充分地与候选实体交互有限的上下文,并在选择阶段隐式地考虑候选群内部的差异。此外,我们设计了一个纳入M3的两阶段验证器,以解决短文本中普遍存在的不可链接问题。为了进一步考虑话题的连贯性和被提及实体之间的相互依赖,M3通过回顾历史线索,利用多回合的方式以序列的方式处理提及。评估表明,我们的M3框架在5个中文和英文数据集上为真实世界的短文本EL实现了最先进的性能。 【论文下载】

图像去噪 | 旷视&快手提出NBNet:基于子空间投影的图像去噪网络 NBNet: Noise Basis Learning for Image Denoising with Subspace Projection 在本文中,我们介绍了NBNet,这是一种用于图像去噪的新颖框架。与以前的作品不同,我们提出从新的角度解决这一难题:通过图像自适应投影来降低噪声。具体来说,我们提出通过学习特征空间中的一组重建基础来训练可以分离信号和噪声的网络。随后,可以通过选择信号子空间的相应基础并将输入投影到这种空间中来实现图像去噪。我们的主要insight在于,投影可以自然地保持输入信号的局部结构,尤其是在光线较弱或纹理较弱的区域。为此,我们提出了SSA,这是一个on-local subspace attention模块,专门设计用于学习基础生成以及子空间投影。我们进一步将SSA与NBNet结合在一起,NBNet是为端到端图像去噪设计的UNet结构化网络。我们对包括SIDD和DND在内的基准进行评估,并且NBNet在PSNR和SSIM上实现了最先进的性能,而计算成本却大大降低了。 【论文下载】

观点

洪永淼教授:大数据和机器学习对经济学研究范式和方法的影响和机遇 2021年1月4日下午,发展中国家科学院院士、世界计量经济学会会士洪永淼教授为中国科学院大学师生做了题为“大数据革命和中国经济学研究范式”的讲座。主要聚焦以下四大领域:一是大数据特别是文本数据创新了文本回归研究范式,将人文社会因素与经济的互动关系纳入到一个统一的定量分析框架当中。二是机器学习作为人工智能方法的一个主要方法,可以应用于更加精确识别因果关系和定量评估公共经济政策,更好发挥政府作用。三是机器学习可以用来帮助简化高维甚至超高维计量经济学模型,通过有效降维,帮助识别重要解释变量或预测变量,提升统计推断效率和样本外预测能力。四是大数据带来很多新型数据,这些新型数据呼唤心得计量经济学模型与方法。 计量经济圈

行业与政策

IDC发布2021年中国人工智能市场10大预测 国际数据公司(IDC)发布了《IDCFutureScape:全球人工智能(AI)市场2021预测——中国启示》报告。在报告中,IDC全球分析师团队描述了影响IT和业务决策者负责该项支出并有效利用相关解决方案的主要驱动因素,并给出了2021-2025年有关人工智能项目的十大预测。IDC Future Scape对中国人工智能市场的预测如下:预测1:到2023年,在金融、医疗、政府和其他受监管的公共部门中,超过15%的以消费者为中心的AI决策系统将引入解释其分析和决策过程的相关规定;预测2:到2021年,超过50%的组织将在呼入电话处理环境中增加AI功能;预测3:到2024年,45%的重复工作任务将通过使用由 AI、机器人和机器人流程自动化(RPA)提供支持的“数字员工”实现自动化或增强;预测4:到2023年,使用自动机器学习(AutoML)技术封装的、从数据准备到模型部署的端到端机器学习平台的数据分析师和数据科学家的数量将增加2倍;预测5:到2024年,自动化运维(AIOps)将成为IT运营的新常态,至少有50%的大型企业将采用自动化运维解决方案来自动化主要IT系统和服务管理过程;预测6:到2025年,10%的人工智能解决方案将更接近于通用人工智能(AGI)——利用神经符号技术将深度学习与符号方法结合起来,以创造出更可靠的、近乎人类的决策方式;预测7:到2021年,至少有65%的中国1000强企业将利用自然语言处理(NLP)、机器学习(ML)和深度学习(DL)等AI工具,赋能60%在客户体验、安全、运营管理和采购等业务领域的用例;预测8:到2024年,超过30%的中国1000强企业会将AI工作负载更均匀地部署在端侧,边缘侧以及云端,这些工作负载将由人工智能软件平台提供商统一管理,使AI基础设施 “隐形化”;预测9:到2023年,30%的企业将在边缘侧运行不同的分析和AI模型。其中30%的边缘AI应用将由异构加速方案加速;预测10:到2022年,80%的中国1000强企业将投资内部学习平台和第三方培训服务,以满足AI采用带来的新技能需求和工作方式转变。 数云时代

《人工智能安全框架(2020年)》白皮书 当前,随着全球人工智能规模化建设和应用加速,人工智能基础设施、设计研发以及融合应用面临的安全风险日益凸显。企业在设计研发、部署运营人工智能应用的全生命周期过程中,需要科学有效的人工智能安全框架予以指导。为此,在工业和信息化部网络安全管理局指导下,中国信通院联合瑞莱智慧、百度、腾讯、360、中科院信工所共同编制了《人工智能安全框架(2020年)》蓝皮报告。聚焦当前人工智能突出安全风险,提出涵盖人工智能安全目标,人工智能安全分级能力,以及人工智能安全技术和管理体系的人工智能安全框架。并且,描绘出面向人工智能应用关键核心组件,覆盖人工智能应用全生命周期的安全技术图谱,为人工智能相关企业循序渐进提升人工智能安全能力,部署人工智能安全技术措施,提供有益指引。 专知

物联网人工智能企业宇泛智能完成近5亿B2轮融资 近日,宇泛智能已完成近5亿元B2轮融资。本轮融资由华新投资领投,当虹科技、博将资本、源星昱瀚、鸿绅资本、芯跑创投等跟投,B1轮投资方野草创投持续加注,云岫资本担任财务顾问。本轮融资将用于持续强化宇泛智能在人工智能边缘计算终端“性能”+“出货量”的龙头地位,并加强宇泛智能在光学、国产物联网操作系统(Uface OS)、信息安全和隐私计算的研究投入、以及建设新一代人工智能物联网学习推理融合平台和超算中心、拓展美洲销售体系。 雷锋网

地平线获4亿美元C2轮融资,上半年将发布面向L3/L4级自动驾驶芯片征程5 2021年1月7日,地平线完成4亿美元的C+轮融资。由Baillie Gifford、云锋基金、中信产业基金、宁德时代联合领投。至此,地平线计划中的 7 亿美元 C 轮融资已经完成 5.5 亿美元。参与本轮投资的其他机构还包括(按首字母排序):Aspex 思柏投资,CloudAlpha Tech Fund,和暄资本,Neumann Advisors,日本ORIX集团,山东高速资本,英才元资本,元钛长青基金和中信建投等。地平线成立于2015年7月,总部位于北京海淀区,是全球领先的嵌入式人工智能核心技术和系统级解决方案提供商,致力于为自动驾驶汽车、智能摄像头等终端设备安装“大脑”,让它们具有从感知、交互、理解到决策的智能。地平线计划将资金主要用于加速新一代 L4/L5 级汽车智能芯片的研发和商业化进程,以及建设开放共赢的合作伙伴生态。本轮资金主要用于加速新一代 L4/L5 级汽车智能芯片的研发和商业化进程,以及建设开放共赢的合作伙伴生态。 新智驾

人物

传奇人物Jim Keller加盟AI芯片创业公司Tenstorrent Jim Keller是芯片界最知名的人物之一,有很多芯片神作,包括在DEC负责设计Alpha处理器,在AMD推出K7和K8,在Apple设计A4、A5,又回到AMD负责新一代CPU架构K12和Zen,在特斯拉领导自动驾驶芯片。最近一份工作是在Intel挽狂澜于既倒,但似乎没有再有代表作诞生。Tenstorrent的产品是将高性能推理处理器与一种所谓的Software 2.0新方法结合,这种方法使用AI优化底层软件功能,从而实现更高的速度和能效。 雷锋网

数据

OpenViDial:一个大规模多模态对话数据集 人类对话不仅仅只依靠聊天内容,更需要利用视觉信息。本文构建了一个大规模多模态对话数据集,从电影和电视剧中抽取出(句子,图片)对,经过数据处理与清洗,最终得到一百万余条句子,及其对应的图片信息。此外,本文还构造了三个融合多模态信息的模型。实验表明,融合细粒度的视觉信息,模型能够生成质量更高的对话,而只有文本的模型效果最差,这验证了视觉信息在对话中的必要性。本文希望所提出的数据集及模型能促进学界大规模多模态对话学习的发展。 paperweekly

代码

基于双图推理的文档级关系抽取 文档级关系抽取旨在抽取文档中实体之间的关系。与句子级关系抽取不同,它需要对文档中的多个句子进行推理。本文提出了双图的图聚合与推理网络(GAIN)。GAIN首先构造一个异构提及级别图(hMG)来建模文档中不同提及之间的复杂交互。在此基础上,我们提出了一种新的路径推理机制来推断实体之间的关系。在公共数据集DocRED上的实验表明,GAIN比以前的最新技术有了显著的性能改进(在F1上提升了2.85)。 北京大学 & 字节跳动AI实验室

无监督对话结构归纳中结构注意力机制 在计算语言学中,从一个或一组对话中归纳出有意义的结构表征是一项重要而富有挑战性的任务。这一领域的进展对对话系统的设计和语篇分析至关重要。它也可以扩展到解决语法推理。在这项工作中,论文中建议将结构化的注意层合并到一个具有离散潜伏期的变分递归神经网络(VRNN)模型中,以无监督的方式学习对话结构。与普通的VRNN相比,结构化注意使模型能够在强调结构归纳偏差的同时关注源句嵌入的不同部分。实验表明,在两方对话数据集上,有结构注意的VRNN学习的语义结构与生成对话语料库的模板相似。而在多方对话数据集上,论文中的模型学习了一种交互结构,显示了它区分说话人或地址的能力,在没有显式人工注释的情况下自动分离对话。 加州大学洛杉矶分校

SynShadow:学习从合成阴影中进行阴影检测和去除 阴影去除(Shadow removal)是计算机视觉和计算机图形学中的基本任务。最近的阴影去除方法对真实配对的shadow/shadow-free或shadow/shadow-free/mask 图像数据集的所有训练卷积神经网络(CNN)。然而,获得大规模,多样且准确的数据集一直是一个巨大的挑战,并且它限制了学习的模型在具有看不见的形状/强度的阴影图像上的性能。为了克服这一挑战,我们提出了SynShadow,这是一种新颖的大规模合成阴影/无阴影/蒙版图像三元组数据集以及用于对其进行合成的pipeline。我们扩展了一个 physically-grounded的阴影照明模型,并给定了无阴影图像,遮罩图像和阴影衰减参数的任意组合,从而合成了阴影图像。由于SynShadow的多样性,数量和质量,我们证明了在某些具有挑战性的基准上,在SynShadow上训练的阴影去除模型可以很好地去除具有各种形状和强度的阴影。此外,我们表明,仅对SynShadow预训练模型进行微调可以改善现有的阴影检测和去除模型。 东京大学

教程

UIUC《深度学习理论》硬核课程书 深度学习的研究在许多机器学习任务上产生了最先进的结果。大多数的进步都是由直觉和通过试验和错误进行的大规模探索推动的。因此,目前理论落后于实践。ML社区并不完全理解为什么最好的方法是有效的。来自UIUC Matus Telgarsky教授撰写了关于深度学习理论笔记,值得关注。 UIUC

《图表示学习》报告,McGill助理教授Hamilton讲授 近年来,图表示学习的研究激增,包括深度图嵌入(deep graph embeddings)技术、卷积神经网络对图结构数据的泛化以及受置信传播启发的神经信息传递方法。与此同时,图表示学习的这些进步促成了许多领域的最新成果,包括化学合成、3D 视觉、推荐系统、问题解答和社交网络分析等。加拿大麦吉尔大学计算机科学助理教授 William Hamilton 的《图表示学习》(Graph Representation Learning)报告系统性介绍最新图表示学习的进展。 专知

【IJCAI2020】可解释人工智能最新进展 本教程旨在将关注人工智能可解释性、安全性和可靠性的研究人员、工程师以及行业从业人员聚集在一起。本教程介绍了一些关于上述问题的新发现,这些发现来自演讲者最近的论文和一些经典研究。对当前可解释人工智能算法的优点和局限性的批判性讨论提供了新的前瞻性研究方向。本教程预计将对医疗诊断、金融和自动驾驶等关键工业应用产生深远影响。 IJCAI 2020

新工具

同时掌握96门语言,取得多项世界突破,百度发布预训练模型ERNIE-M 2021年伊始,百度在自然语言处理领域取得最新突破,发布多语言预训练模型ERNIE-M。ERNIE-M通过对96门语言的学习,使得一个模型能同时理解96种语言,该项技术在5类典型跨语言理解任务上刷新世界最好效果。在权威跨语言理解榜单XTREME上,ERNIE-M也登顶榜首,超越微软、谷歌、Facebook等机构提出的模型。据了解,基于飞桨实现的ERNIE-M模型也会于近期开源。 机器之心

中国人大 | CRSLab:对话推荐系统开源库 随着对话系统和推荐系统的快速发展,新方向——对话推荐系统(Conversational Recommender System,简称CRS)也开始了蓬勃发展,其关注于如何通过基于自然语言的对话来获得用户的意图和偏好,以实现精准推荐。但是现有的CRS相关数据集和模型在建模场景、最终目标和使用技术等方面存在一定差异,使得研究者们很难对这些模型进行统一的评测对比。对于科研新手来说,更是难以在这些模型和数据集中抉择并快速搭建CRS系统。为帮助大家快速上手研究对话推荐任务,中国人民大学AI BOX团队推出了开源项目CRSLab ——一个用于构建对话推荐系统(CRS)的开源工具包,在这里我们致力于帮您实现一键复现,快速开发,自动评测的一条龙服务,相关代码和对应论文目前也已经开源。 中国人民大学

OpenMMLab 一体化视频目标感知平台MMTracking开源 MMTracking延续了OpenMMLab系列的模块化风格,并与OpenMMLab其他平台充分交互,直接通过configs即可继承复用MMDetection的大量功能,取长补短。MMTracking提供了简洁的用户接口与高效、强大的基准模型,部分实现精度超出官方版本。 OpenMMLab

应用

OpenAI发布结合计算机视觉和NLP的多模态模型DALL·E和CLIP 1月5日,OpenAI同时发布了两个大规模多模态预训练模型:DALL·E和CLIP。DALL·E可以基于短文本提示(如一句话或一段文字)生成对应的图像,CLIP则可以基于文本提示对图片进行分类,两者都意在打破自然语言处理和计算机视觉的界限,实现多模态的人工智能系统。 机器之心

面向认知,智源研究院联合清华大学、阿里巴巴、搜狗等发布超大规模新型预训练模型“悟道·文汇” 2021年1月11日,由北京智源人工智能研究院、阿里巴巴、清华大学、中国人民大学、中国科学院、搜狗、智谱.AI、循环智能等单位的科研骨干成立“悟道”联合攻关团队,发布了面向认知的超大规模新型预训练模型“文汇”,旨在探索解决当前大规模自监督预训练模型不具有认知能力的问题。 “文汇”模型不仅使用数据驱动的方法来建构预训练模型,还将用户行为、常识知识以及认知联系起来,主动“学习”与创造。本次发布的“文汇”模型与1月初OpenAI刚刚发布的DALL·E和CLIP这两个连接文本与图像的大规模预训练模型类似,“文汇”模型能够学习不同模态(文本和视觉领域为主)之间的概念,可以实现“用图生文”等任务,具有一定的认知能力。“文汇”模型参数规模达113亿,仅次于DALL·E模型的120亿参数量,是目前我国规模最大的预训练模型,并已实现与国际领先预训练技术的并跑。 北京智源人工智能研究院

支持向量机和YOLO用于移动食品分级系统 食品质量和安全引起社会极大关注,因为它不仅是人类健康的基本保证,而且也是社会发展和稳定的基本保证。确保食品质量和安全是一个复杂的过程。从种植,收获和储存到准备和食用,应考虑所有食品加工阶段。分级是控制食品质量的重要过程之一。本文提出了一种基于移动视觉的系统来评估食品等级。特别地,当香蕉在移动的传送带上时,所提出的系统会获取香蕉的图像。基于机器学习的两层图像处理系统用于对香蕉进行分级,并且这两层分别分配在边缘设备和云服务器上。支持向量机(SVM)是基于提取的由颜色和纹理特征组成的特征向量对香蕉进行分类的第一层。然后,一次只看一次(YOLO)v3模型进一步定位果皮的缺陷区域,并确定输入是否属于中熟或熟熟的类别。根据实验结果,第一层的精度达到98.5%,而第二层的精度为85.7%,总体精度为96.4%。 加拿大圭尔夫大学

Facebook等研究员探索可以从短片中推断整个平面图的AI 据VentureBeat报道,Facebook,德克萨斯大学奥斯汀分校和卡内基梅隆大学的研究人员正在探索一种 AI 技术,该技术利用视觉和音频从短视频剪辑中重建平面图。研究人员断言,音频提供了空间和语义信号,补充了图像的映射功能。他们说这是因为声音本质上是由物体的几何形状驱动的。音频反射从表面反射并显示出房间的形状,远远超出了摄像机的视野。从远处(甚至在多个房间之外)听到的声音可以揭示出可能存在发声物体(例如,狗在另一房间吠叫)的「自由空间」的存在。此外,来自不同方向的声音会根据这些声音所代表的活动或事物暴露出布局。淋浴可能暗示浴室的方向,例如,微波炉发出的哔哔声暗示厨房。 VentureBeat

2021首期Nature封面:牛津大学ML算法实现10万高压非晶硅原子的模拟 为了对一般无序结构材料有更深的理解,人们广泛研究了非晶硅在高压条件下的富相行为。然而在和原子打交道的层面上,人们一直需要借助量子力学来理解材料的结构和键合,这仅限于尺度很小的模型系统,如果用机器学习算法从量子力学数据中「学习」会是怎么样?在2021年的第一期《自然》杂志封面研究中,来自牛津大学的Volker Deringer等人展示了模拟加压非晶硅的原子机器学习模型,成功解决了这一挑战,并捕获了实验中遇到的所有结构变化。这种计算方法可以为实验条件极富挑战性的材料预测建模开启全新的方式。这是2020年12月DeepMind人工智能解决生物学50年来重大挑战之后,人工智能在又一个新的领域展现强大能力。现在,人类已经能够实现10纳米尺度,十万个硅原子系统的模拟——使用常规方法的话,即使是超级计算机也需要耗费大量时间。 机器之心

经验

分布式深度学习最佳入门指南 本文主要分为两部分:1.各框架分布式简介;2.分布式常见问题汇总(踩坑指南)。在各框架分布式简介中,将先从入门的角度介绍各个框架的分布式接口或相关概念以及和单机程序的主要区别、然后在分布式示例部分,通过各个框架github官方仓库中的分布式代码实现(resnet50),简单介绍各框架的分布式训练;最后对分布式深度学习中常见的库如Horovod、Dali做简单的介绍,及安装使用说明。在分布式常见问题汇总(踩坑指南)中会总结分布式深度学习训练中的常见问题,如:docker及ssh环境问题、nccl多机通信问题等。 知乎

以上是《智源社区AI周刊》第55期的内容,智源研究院编辑团队将本着“提供真正内行的AI资讯”的目标,不断优化和完善我们的内容服务,各位读者们如有批评意见,或者好的建议,请留言给我们。谢谢大家。

内容中包含的图片若涉及版权问题,请及时与我们联系删除