导语

在2024年12月6日举行的2024滴水湖新兴金融年度大会上,澜舟科技参编的《上海全球资产管理中心建设资产管理大模型应用实践与指南》(以下简称《实践指南》)正式发布!
《实践指南》聚焦资产管理与财富管理领域大模型应用实践现状、挑战及机遇,汇聚了来自银行及银行理财、证券及券商资管、公募及私募基金、保险资管、科研院所、大模型科技公司、法律服务及审计机构等众多资产管理、财富管理领域专家的智慧和实践经验。总结了大模型在资产管理、财富管理领域16个典型应用场景。
章节四
风险合规管理
四、风险合规管理
ChatGPT的横空出世,使得生成式人工智能引发热议。生成式人工智能可以广泛收集、筛选和处理各类信息、生成各种内容,给人类带来了极大的便利。但是,生成式人工智能无法辨认信息是否真实以及其具有的不可控性等亦带来了极大风险。大语言模型在金融领域特别是资产管理领域已经有较多的应用,以下将就其可能的风险进行初步的分析。
基于资管领域的金融市场属性,大模型可能导致算法同质化、编程设计错误、对数据利用深度不够等算法模型缺陷或系统异常,可能加剧投资行为的顺周期性,影响金融市场的稳定性。同时也可能增加金融机构面临的流动性风险、信用风险、操作风险等非系统性风险,随着大模型在金融业的加快应用,如果缺乏足够的操作安全保障,可能会增加潜在风险。此外,在从底层芯片到上层软件构建大模型基础与应用体系时,可能面临更加突出的自主可控风险。此外,在大模型使用过程中还可能涉及数据泄露风险、技术滥用风险(大模型技术如果被滥用,可能会被用于进行欺诈、洗钱等非法活动)。
4.1 资管领域大模型的法律适用
大模型的开发需要训练数据的投入,在此意义上模型开发者即为数据处理者,其当然要遵守关于数据处理的相关规定,承担包括《数据安全法》《网络安全法》《个人信息保护法》在内的一系列法律规定对数据处理者施加的一般性义务。此外,网信办等七部门发布的《生成式人工智能服务管理暂行办法》(下称“《暂行办法》”)已于2023年8月15日正式实施。《暂行办法》作为特别规定,直接规制生成式人工智能领域内的数据处理活动,对于哪些模型开发者/服务提供者的行为需要受到《暂行办法》的规制,需对《暂行办法》的适用范围作进一步分析与确认。金融行业作为一个受到强监管的行业,金融业对于技术应用的安全性、稳定性、可控性等要求远比其他行业更为严格,尤其是数据的安全与合规问题。资产管理业务系受到强监管的金融业务,金融监管规定也是资管领域大模型必须遵守的规则。目前,金融监管部门尚未出台针对大模型的明确规定,在相关“软规则”方面,人民银行已发布《金融领域科技伦理指引》,但针对大模型的风险治理与伦理原则,仍需更加细化的政策与标准。
《暂行办法》第2条对适用范围作出了规定,采用了一般规定和例外情形的体例。换言之,一般而言,“利用生成式人工智能技术向中华人民共和国境内公众提供生成文本、图片、音频、视频等内容的服务(以下称生成式人工智能服务),适用本办法”。同时又规定了两个例外情形:一是“国家对利用生成式人工智能服务从事新闻出版、影视制作、文艺创作等活动另有规定的,从其规定”;二是“行业组织、企业、教育和科研机构、公共文化机构、有关专业机构等研发、应用生成式人工智能技术,未向境内公众提供生成式人工智能服务的,不适用本办法的规定”。由此可知,在判断相关企业是否受《暂行办法》的规制时,应同时考虑四个要素标准,即“境内”“公众”“提供生成式人工智能技术服务”及例外情形。
其中,“境内”“公众”“提供生成式人工智能技术服务”构成了适用范围的一般标准。第一,境内,即接受服务的对象在中华人民共和国境内。此外,根据《暂行办法》第20条的规定,境外服务提供者向境内提供生成式人工智能技术服务的,亦属于《暂行办法》的规制范围。这采取了属人加属地的原则。第二,公众,即不特定的多数主体,并不当然仅指自然人。《最高人民法院关于审理商标民事纠纷案件适用法律若干问题的解释》第8条曾对“公众”作出解释,即“商标法所称相关公众,是指与商标所标识的某类商品或者服务有关的消费者和与前述商品或者服务的营销有密切关系的其他经营者”。该解释明确,“公众”除了自然人,还包括法人和非法人组织。此外,《暂行办法》第22条更是进一步明确,生成式人工智能服务使用者包括组织与个人。此外,提供服务的组织与个人亦受《暂行办法》的规制。第三,提供生成式人工智能技术服务,即提供《暂行办法》所规定的“生成式人工智能技术”。
生成式人工智能的生命周期大致可以分为模型训练、应用运行和模型优化三个阶段,其生命周期中的参与主体可分为模型开发者、服务提供者、服务使用者与训练数据提供者,各阶段参与的主体以及数据处理活动的合规要求并不相同。其中,在现阶段,受开发能力的限制,生成式人工智能的模型开发者与服务提供者往往为同一主体,这也可能是《暂行办法》未对二者进行明确区分的原因。但随着生成式人工智能行业的进一步发展,可能会出现越来越多的服务提供者与模型开发者相分离的情况,届时,可能会对二者之间的权利义务作更加明确的分配。
4.2 大模型应用的主要合规要点
(一)违法训练数据取得的大模型及参数能否继续使用
相较于《生成式人工智能服务管理暂行办法(征求意见稿)》(下称“征求意见稿”),《暂行办法》在很大程度上放宽了对模型开发者/服务提供者在训练大模型时使用的训练数据的要求,但亦对训练数据作出了规定。《暂行办法》第7条第1项、第4项规定,服务提供者应在训练数据处理活动中遵守“使用具有合法来源的数据和基础模型”“采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性”。
1.训练数据本身违法
因大模型的参数取决于训练数据的投入,若在开发、训练大模型时使用的训练数据本身违法,如使用了违反法律法规、公序良俗、国家利益、人类道德的训练数据,则大模型本身就有极高的生成违法内容的可能。当然,亦有一种可能是大模型需要利用含有违法内容的数据来训练模型,以使特定大模型可以识别“坏人”。对此,应当认为,除前述特殊情形外,在利用非法数据训练大模型的情况下,无论是大模型通过训练获得的参数还是大模型本身,均不能继续使用。
2.训练数据来源违法
对使用内容合法但来源违法的训练数据进行大模型训练,获取的相关参数及大模型能否继续使用的问题,目前法律尚无明确规定。基于对人工智能领域相关技术发展的促进和鼓励,对此宜分情况进行个案判断。
(1)服务提供者以合法渠道取得了来源不合法的数据
此种情形,服务提供者/模型开发者从合法渠道向数据持有者A以合法形式购买训练数据,用于大模型的训练,但交易的训练数据是数据持有者A以非法方式获取的(违规爬取、非法购买等)。此时,应当认可服务提供者/模型开发者通过对上述数据投入的实质性劳动与智慧,允许其继续使用基于来源不合法的训练数据所得到的大模型及相关参数(类似于善意取得制度)。
但与此同时,服务提供者/模型开发者应当提供其已对相关训练数据来源进行合理审查的证明,否则,难以体现其对训练数据的来源审查尽到了合理的注意义务。此时,若服务提供者/模型开发者不能提供相应的证据,则不能认为其对训练数据的来源进行过合理必要的审查,则其应承担相应的侵权及其他责任;情节严重的,不应允许其继续使用基于前述训练数据训练的大模型及相关参数。
(2)服务提供者非法获取训练数据
若服务提供者/模型开发者以非法方式或非法途径获取相关数据进行大模型的训练,其明显违反了《暂行办法》第7条第1项“使用具有合法来源的数据和基础模型”的规定。在此情形下,服务提供者/模型开发者的主观恶意明显,不应允许其继续使用基于上述数据训练而获得的大模型及相关参数,其还可能将因其违法行为承担相应法律责任。
(二)服务提供者和模型开发者预训练数据的合规性
《暂行办法》第7条规定,“生成式人工智能服务提供者(以下称提供者)应当依法开展预训练、优化训练等训练数据处理活动,遵守以下规定:(一)使用具有合法来源的数据和基础模型;(二)涉及知识产权的,不得侵害他人依法享有的知识产权;(三)涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形;(四)采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性;(五)《中华人民共和国网络安全法》、《中华人民共和国数据安全法》、《中华人民共和国个人信息保护法》等法律、行政法规的其他有关规定和有关主管部门的相关监管要求”。
《暂行办法》第8条规定,“在生成式人工智能技术研发过程中进行数据标注的,提供者应当制定符合本办法要求的清晰、具体、可操作的标注规则;开展数据标注质量评估,抽样核验标注内容的准确性;对标注人员进行必要培训,提升尊法守法意识,监督指导标注人员规范开展标注工作”。
基于此,可以得出服务提供者/模型开发者在使用训练数据进行大模型的预训练时,需要重点关注以下合规风险点。
1.数据来源是否合法
目前服务提供者/模型开发者获取训练数据的方式通常包括公开采集(例如通过爬虫软件、RPA等技术手段采集)、直接采集(通过用户自主提供或通过设备采集)、间接采集(从数据提供者处以购买、数据共享等方式获得)、使用合成数据等。对此,需要重点关注服务提供者/模型开发者采集数据的行为及数据来源渠道是否合法合规。
以爬虫软件等自动化访问工具采集数据的,根据将于2025年1月1日正式实施的《网络数据安全管理条例》第18条,“网络数据处理者使用自动化工具访问、收集网络数据,应当评估对网络服务带来的影响,不得非法侵入他人网不得干扰网络服务正常运行”。因此,若使用爬虫软件采集数据,需要遵守被爬取网站的协议并遵循行业惯例,不得破坏、绕过其设置的反爬取技术措施等。爬取的数据应当为公开数据,不得涉及个人信息数据、重要数据、敏感数据等,不得违反《反不正当竞争法》的相关规定。
以购买或数据共享方式取得训练数据的,服务提供者/模型开发者需对相关数据的来源进行合理审查,避免该数据的上游取得方式违法,以致产生合规隐患。
2.数据训练过程是否侵犯他人知识产权
大模型的训练需要大量诸如文字、图片等数据的投入,其中不乏受到著作权保护的作品。因而,在未经相关著作权人授权的情况下,以获取的公开数据为训练数据进行大模型的训练,可能会构成对相应著作权人享有著作权的侵犯。现阶段,要求服务提供者/模型开发者在进行大模型训练前取得所有相关著作权人的授权显然不现实,赋予其过重的合规义务无疑会压缩生成式人工智能行业的发展空间,与《暂行办法》鼓励相关技术发展的精神不符。故而,如何在知识产权领域实现服务提供者/模型开发者与知识产权人之间利益的平衡,对于促进整个人工智能领域的发展,显得尤为重要。
3.训练数据是否涉及个人信息
实践中,大模型的训练很少使用直接的个人信息(如单独的姓名、身份证号等),但亦存在此种可能。根据《暂行办法》第 7 条第 3 项的规定,倘若训练数据涉及个人信息,应当取得个人同意,或符合法律、行政法规规定的其他情形。
4.是否采取有效措施提高训练数据质量
相较于征求意见稿要求的“能够保证数据的真实性、准确性、客观性、多样性”,《暂行办法》出于对生成式人工智能行业发展的鼓励,已大幅放宽了对训练数据的质量要求标准,仅进行“倡议性”的要求。但对于服务提供者/模型开发者来说,提供训练数据的质量仍不可忽视。对此,服务提供者/模型开发者应当积极采取有效措施,并进行记录和留痕,以便在接受监管时,能够向相关部门证明其对于提高训练数据质量已经尽到了合理的义务。
5.数据标注活动是否符合规定
《暂行办法》第 8 条对数据标注活动提出了明确的要求,因此,服务提供者/模型开发者在训练数据时应当制定标注规则、开展数据标注质量评估,并对标注人员进行必要的培训,否则可能存在合规风险。
(三)服务提供者储存和利用使用者输入信息的合规问题
大模型的训练并非一蹴而就,在服务提供者完成大模型的预训练后,大模型只是初步成型,其本身还需要在后续提供服务的过程中持续训练。可以说,使用者在接受基于大模型的生成式人工智能服务的同时,也在变相地帮助服务提供者继续训练大模型。此时,服务提供者能否直接利用使用者在使用时输入的相关信息及使用记录进行大模型的升级迭代,仍有待商榷。对此问题,《暂行办法》未作明确规定,但《暂行办法》与征求意见稿均规定了服务提供者对涉及使用者个人信息的输入信息和使用记录所应承担的义务。基于此,可以推断监管部门对上述问题的监管口径。
征求意见稿第11条规定“提供者在提供服务过程中,对用户的输入信息和使用记录承担保护义务。不得非法留存能够推断出用户身份的输入信息,不得根据用户输入信息和使用情况进行画像,不得向他人提供用户输入信息。法律法规另有规定的,从其规定”。以禁止性规定的形式对服务提供者作出要求,且没有规定除外条款,口径可谓非常严格。而《暂行办法》第11条第1款的规定则在一定程度上放松了对服务提供者的限制,“提供者对使用者的输入信息和使用记录应当依法履行保护义务,不得收集非必要个人信息,不得非法留存能够识别使用者身份的输入信息和使用记录,不得非法向他人提供使用者的输入信息和使用记录”。为禁止性条款设置了“非必要”“非法”的前提,即承认了服务提供者在合法情况下可以对此进行一定的收集、存储和利用。
基于此,本文认为《暂行办法》并未明确禁止服务提供者存储和利用使用者在使用过程中输入的信息及使用记录,而是认可了服务提供者利用该数据优化模型的行为。但出于避免合规风险的考量,建议服务提供者应根据《暂行办法》第9条“与注册其服务的生成式人工智能服务使用者(以下称使用者)签订服务协议,明确双方权利义务”的规定,在服务协议中预先明确取得使用者授权,以增强其收集、存储、处理相关数据的合法合规性。
(四)大模型关联数据出境的合规风险
《暂行办法》并未禁止境外向境内提供生成式人工智能服务,亦未禁止境内服务提供者于境外训练大模型,或在大模型中嵌套境外大模型,但这并不意味着上述做法被我国现行法律所当然认可。
在大模型部署在境外的情况下,服务提供者/模型开发者以境内数据对其进行训练,或使用者向其输入境内数据,均会导致大模型与境内数据在境外接触,即可能产生数据出境的问题,造成境内相关数据无序出境的法律风险。《数据出境安全评估办法》第4条规定,在数据处理者向境外提供重要数据;关键信息基础设施运营者和处理100万人以上个人信息的数据处理者向境外提供个人信息;自上年1月1日起累计向境外提供10万人个人信息或者1万人敏感个人信息的数据处理者向境外提供个人信息;国家网信部门规定的其他需要申报数据出境安全评估的情形四种情况下,数据处理者向境外提供数据的,应当通过所在地省级网信部门向国家网信部门申报数据出境安全评估。向公众提供服务的场景下,数据出境将变得不可控,对相关数据进行逐条统计并在达到一定标准时及时向相关部门申报数据出境安全评估缺乏可行性。
根据《暂行办法》第 20 条的规定,对来源于中华人民共和国境外向境内提供生成式人工智能服务不符合法律、行政法规和本办法规定的,国家网信部门应当通知有关机构采取技术措施和其他必要措施予以处置。换言之,在利用境外大模型向境内公众提供服务的情况下,服务提供者 / 模型开发者会因为数据无序出境问题承担极高的法律风险。
此外,如果将利用境内数据进行训练后得到的大模型直接部署到境外,而非在境内向境外提供服务,也会涉及数据出境的法律风险。因为在将大量数据用于大模型的训练后,相关大模型就会基于此特定数据环境而产生一定的推理能力,虽然大模型本身并不存储原始数据,但其推理、生成逻辑本身在一定程度上已经包含了离散的、概率的数据。此时,大模型出境亦会产生数据出境的风险。
综上,为避免数据无序出境带来的风险与法律责任,服务提供者/模型开发者应尽可能在境内开发和训练大模型,即使所使用大模型源自境外,也应尽可能地实现本地化部署。
章节五
安全与伦理问题防范
五、安全与伦理问题防范
资管机构在大模型建设和应用过程中,应以安全、平等、尊重和可信的方式负责任地使用AI技术,将科技伦理融入到业务和产品服务生命周期中。负责任AI不仅关乎技术的成功实施,还关系到资管机构的监管合规,以及对用户、对行业和对社会的责任。通过负责任地开发和部署大模型应用,资管机构可以确保技术进步与商业目标和社会价值相协调,减少违规风险和潜在的法律诉讼;同时,可确保用户的隐私安全、做到公平可信并遵守商业道德,进而提升资管机构的市场竞争力,推动行业高质量发展。
5.1 数据安全与隐私保护
在资产管理、财富管理领域,大模型的应用依赖于海量数据的输入与分析。数据安全涉及到资管机构的数据与模型治理水平是否到位、与数据相关的流程是否规范与完备、数据安全相关的技术手段是否充足等因素。除了大模型训练过程中存在训练数据的安全隐患之外,在大模型应用建设和使用过程中同样有着潜在的数据安全风险。因此,数据安全的要求将体现在与大模型相关的数据采集、传输、存储、加工及信息处理的全流程环节。若流程、技术和治理措施层面存在明显欠缺,则无法有效保障数据安全,容易导致数据泄露与滥用。
为此,资管机构需要建立明确的数据保护目标、原则和操作流程,从基座大模型到业务适配全过程的相关数据都需进行严密的清洗、审查;加强数据安全管理制度建设,建立健全数据安全管理制度,明确数据采集、存储、处理、传输等各个环节的安全责任与操作流程,确保数据生命周期内的安全可控;建立定期备份与异地备份制度,确保在数据丢失或损坏时能够及时恢复,同时加强对备份数据的安全管理,防止备份数据成为新的泄露源;设立严格的访问控制机制,确保只有授权人员能够访问敏感数据;记录和监控所有数据访问和操作行为,以便于事后审计和责任追踪;加强网络安全机制、外部攻击防御能力;加强对员工的培训与教育,提高全员数据安全意识,构建全方位的数据安全防护体系。
5.2 防范生成内容包含社会偏见问题
在资产管理、财富管理领域,金融服务的普及性和公平性对社会成员的福祉至关重要。资管机构在应用大模型技术进行金融业务开展时,应充分考虑金融服务的普惠与共享属性,聚焦社会民生,实现尊重平等。然而,在大模型使用过程中,如果算法设计或数据使用不当,可能会导致在地域、经济地位、性别、年龄、种族等方面对部分人群或个体进行不公平或不平等对待。
为了有效防范大模型应用过程中可能出现的算法偏见,首先,资管机构在大模型训练的过程中应保证数据集的多样性,确保训练数据可代表所有相关群体,避免数据偏差。其次,应利用专业的偏见检测工具,定期检测模型在不同人群中的表现是否存在显著差异,对于发现的问题要及时调整,优化模型参数或重新构建模型应用;最后,在算法层面引入公平性约束来减少输出偏见;此外,可强化从业人员的职业道德教育和技能培训,提高其对社会偏见问题的认识,加强员工的公平服务意识,培养他们在日常工作中主动规避此类风险的能力。
通过优化模型和算法,建立必要的人工审核和干预机制,建立完整的反馈机制,强化员工抗风险意识,可以尽可能地降低模型造成的偏见影响,确保金融服务的公平性和包容性。
5.3 防范生成内容的严谨性问题
资产管理、财富管理领域容错率低,对大模型生成内容的严谨性、可靠性有着较高要求。然而,由于模型结构、解码算法、暴露偏差等原因,大模型可能出现幻觉现象,即模型生成的内容虽然流畅但与事实不符,或者与提供的源内容不一致,生成看似合理却无法应用于实际情境的非事实性内容。此外,在大模型应用过程中还可能存在输出内容包含有害信息、不良价值观的风险。
为了降低模型幻觉影响,防范大模型生成内容的严谨性问题,需要从数据治理、模型工程等多方面着手:一是训练阶段强化数据治理和指令对齐,需要在源头上保障大模型的学习质量和价值取向,通过“精调”和“对齐”技术,确保大模型的价值取向正确。二是在推理阶段建立模型安全检测和防御体系,通过诱导式对抗生成技术,持续不断地攻击和训练模型的安全防线,在模型上线前后对其进行全方位的安全扫描,提前识别和挖掘风险漏洞;在大模型输入和输出两端设置安全围栏,进行严密的风险判别和拦截,实现对诱导提示攻击、有害违规内容生成等风险的识别和安全拦截,帮助大模型挡住恶意提问,同时对生成的回答内容进行风险过滤,保障大模型上线后从用户输入到生成输出的整体安全防御。三是可采用多种可解释性机制(如思维链),提升模型推理的透明度、可信度,从而帮助用户与监管机构理解模型的决策依据。通过以上举措保障生成内容遵守法律法规,尊重社会公德和伦理道德,促进生成式人工智能技术在资产管理、财富管理领域的创新应用,保障大模型应用安全。
章节六
人才培养
六、人才培养
在大模型应用项目中,人才培养至关重要。大模型应用项目开发流程包含需求分析、算法设计、开发测试、上线部署等多个阶段,对应涉及多个核心角色,包括业务分析师、提示工程师、开发工程师和算法工程师。以下将分别介绍这四个岗位的职责、岗位要求及培养计划。
6.1 业务分析师
(一)岗位职责
业务分析师需深入了解业务需求,精准挖掘客户在资产管理过程中遇到的实际问题,并将其转化为大模型应用场景。在此基础上,业务分析师需根据业务需求精心制定项目计划,高效协调团队资源,确保项目能够按时高质量地完成。项目执行过程中,业务分析师还需积极参与模型效果的评估工作,结合用户反馈和业务目标的达成情况,客观验证模型的实际应用成效。同时,作为客户与技术团队之间的桥梁,需定期与客户保持沟通,广泛收集反馈意见,并根据反馈对项目进行必要的调整和优化,以确保解决方案的持续优化和升级。
(二)岗位要求
理想的业务分析师应具备金融及资产管理领域的深厚专业知识,能够深入洞察并理解业务需求;同时,熟练运用数据分析工具(如Excel、SQL、Python等)进行精准的业务数据分析。此外,还应掌握基本的项目管理工具和方法,拥有良好的沟通协调能力。对于大语言模型的基本概念及应用场景也应有所了解,并具备一定的自然语言处理(NLP)基础。
(三)培养方案
业务分析师的培养方案应注重全面提升其专业能力和实战经验。首先,定期组织金融、资产管理等领域的专题培训,深化其对业务场景和需求的理解能力。同时,提供大语言模型的基础知识培训,涵盖模型原理、常见应用场景以及效果评估方法,确保业务分析师具备扎实的理论基础。安排其参与真实项目,从需求分析到项目交付全程跟进,积累宝贵的实战经验。此外,通过定期的项目复盘和绩效评估,帮助业务分析师全面审视工作流程,识别改进空间,并持续优化工作方法,以促进个人能力的不断提升和团队的持续发展。
6.2 提示工程师
(一)岗位职责
提示工程师需根据具体的业务场景精心设计提示词(Prompts),通过不断调整和优化,以确保模型输出效果符合业务需求。在此基础上,还需针对不同输入进行广泛测试,深入分析模型输出结果,并根据分析结果进一步优化提示词,从而提升模型的准确性和实用性。为了促进团队成员和客户对模型的高效使用,提示工程师还需要负责编写提示词使用手册,详细阐述使用方法和注意事项。同时,提示词优化专家还应具备强烈的创新意识,根据最新的模型能力和业务需求,不断探索新的提示词设计方案,推动创新应用,以持续提升模型的性能和价值。
(二)岗位要求
提示工程师应具备出色的语言表达能力和逻辑思维能力,能够巧妙地设计结构化的提示词以引导对话;同时,还需掌握自然语言处理的基础知识,对大语言模型的工作机制和潜在限制有深入的理解。此外,提示工程师应具备强烈的好奇心和探索精神,勇于尝试新的提示设计思路和优化策略,不断寻求创新。在技术工具使用方面,提示工程师应熟练掌握常用的文本分析工具和语言模型平台,如LangChain和OpenAI API,以高效地完成各项任务。
(三)培养方案
提示工程师的培养方案旨在全面提升其专业技能和创新能力。首先,提供结构化的提示词设计课程,深入讲解设计原则、测试方法以及常见问题的解决方案,为提示工程师打下坚实的理论基础。通过经典案例分析和项目实战,让提示工程师在实践中锻炼自己,提高其设计效率和提示词应用效果,确保能够设计出符合业务需求的优质提示词。为增强跨团队协作能力,可安排提示工程师与业务分析师、开发工程师合作项目,通过实际项目中的沟通与协作,提升提示词设计与业务需求的对接能力。此外,可根据情况定期组织创新工作坊,邀请行业专家分享最新的提示词设计思路和创新应用案例,激发提示工程师的创新思维,鼓励其不断探索新的设计方法和应用场景。
6.3 开发工程师
(一)岗位职责
开发工程师需要负责项目的整体技术开发和系统集成工作,确保大模型能够与现有系统实现无缝对接。在此基础上,还需负责大模型API的调用、封装和部署。通过优化系统性能和响应速度,确保API的高效运行。在系统实际运行过程中,开发工程师需要具备强大的异常处理和调试能力,能够迅速排查并解决遇到的技术问题,从而有效提升系统的稳定性和可靠性。此外,还需为客户提供技术支持,处理使用过程中出现的各种问题,并定期进行系统维护,确保系统的持续稳定运行。
(二)岗位要求
理想的开发工程师需熟练掌握Python、JavaScript等编程语言并具备丰富的NLP应用开发经验,能够灵活应对各种开发需求。同时,应熟悉API的设计和调用流程,能够与大模型的API接口实现无缝集成,确保数据流通和交互的顺畅。在系统架构与优化方面,开发工程师需了解分布式系统架构的原理,并具备一定的系统性能调优经验,以确保系统的稳定性和高效性。此外,还应具备较强的沟通能力,能够与业务分析师和提示工程师紧密协作,共同推动项目的顺利进行。
(三)培养方案
开发工程师的培养方案致力于全面提升其专业技术能力和项目实战经验。可根据情况定期提供大语言模型API使用、系统架构设计和性能优化的专项培训,确保开发工程师掌握最新的技术动态和工具使用方法,为项目开发打下坚实的技术基础。安排代码审核与项目复盘环节,通过资深工程师的审核与团队讨论,帮助开发工程师发现并优化编程习惯,提高代码质量和项目交付效率。定期组织技术分享会,邀请团队成员分享开发过程中的难点和解决方案,促进技术交流与学习,激发开发工程师的创新思维,鼓励其在技术探索的道路上不断前行。
6.4 算法工程师
(一)岗位职责
算法工程师需要负责大语言模型的设计、微调和训练工作,通过不断优化训练样本和训练策略,提升模型在特定场景下的应用效果。此外,还需根据业务需求进行数据预处理和特征工程,通过精心设计和优化模型输入,为模型性能的提升奠定基础。在模型评估与优化方面,算法工程师应深入分析模型效果,灵活调整模型超参数和训练策略,以持续提升模型性能。同时,需要密切关注自然语言处理领域的最新研究成果,积极将新技术应用于大模型项目中,以推动项目的不断创新和升级。
(二)岗位要求
理想的算法工程师应具备扎实的数学、统计学和机器学习基础知识,这是进行深入研究和分析的基石。同时,应精通Python、TensorFlow、PyTorch等深度学习框架,具备良好的算法实现能力,能够高效地将理论转化为实践。在NLP前沿研究方面,算法工程师需保持敏锐的洞察力,了解自然语言处理的最新研究进展,并具备模型调优和创新能力。
(三)培养方案
针对算法工程师的培养方案,可酌情提供大语言模型架构、微调方法和训练技巧的系统培训,确保其具备扎实的理论基础和前沿技术知识。同时为保持对行业动态的敏锐洞察,应定期组织算法工程师阅读和分享NLP领域的前沿论文,激发创新思维,推动技术创新。同时,安排算法工程师参与实际项目的模型训练和调优过程,从实践中积累经验,提升解决复杂问题的能力。此外,可安排资深算法专家担任导师,通过一对一指导和技术交流,为算法工程师提供个性化的成长路径和专业建议,助力其在职业生涯中持续进步。
6.5 S.P.L.E.N.D. 人才能力框架
为进一步概括在资产管理大模型应用建设过程中,关键角色需要具备的核心能力,本文结合行业经验总结出以下六项能力,并以英文首字母组成S.P.L.E.N.D.。该框架代表了大模型人才所需的六大核心能力,包括快速学习(Swift Learning)、问题拆解(Problem Decomposition)、逻辑化表达(Logical Articulation)、工程化思维(Engineering Mindset)、创新能力(Novelty and Creativity)以及数据敏感性(Data Sensitivity)。
(一)快速学习能力(Swift Learning)
大模型和人工智能领域发展迅速,技术更新迭代频繁,人才必须具备快速学习和适应新知识的能力。相关人员需要能够在项目中迅速掌握新工具、新算法和新框架,并将其应用于实际业务需求。团队领导应定期组织学习前沿技术、参加研讨会和技术交流活动,保持对行业最新进展的敏感度。
(二)问题拆解能力(Problem Decomposition)
相关人才需要能够将复杂的业务需求或技术问题拆解成若干可操作的子问题,制定清晰的解决方案。在大语言模型应用中,问题往往涉及多个模块或复杂的业务逻辑,问题拆解能力能够帮助团队高效找到切入点。团队领导应鼓励在项目讨论中使用问题树(Issue Tree)或鱼骨图等工具,提升系统性分析和拆解问题的能力。
(三)逻辑化表达能力(Logical Articulation)
相关人才应具备清晰的逻辑思维和表达能力,能够准确地描述问题、需求、设计方案和模型结果。这种逻辑思维和表达能力,不仅能够在跨部门、多团队协作中提升沟通和合作效率,更重要的是可以在撰写提示工程中更快更准的搭建易于大模型理解的智能体。相关人才应具备或培养解决方案的设计和撰写能力,团队领导应定期组织方案讲解和演示等培训。
(四)工程化思维(Engineering Mindset)
相关人才应具备系统化和工程化的思维方式,能够将理论研究转化为可实施的技术方案,并关注可扩展性、稳定性和性能优化。大语言模型应用不仅涉及模型的设计,还包括API集成、系统部署和性能优化,工程化思维至关重要。团队领导应开展系统架构设计培训、代码评审和性能优化研讨,培养从全局视角进行系统化思考的能力。
(五)创新能力(Novelty and Creativity)
大模型人才需要能够跳出常规思维模式,提出新的解决方案和应用场景,特别是在面对不确定性和挑战时具备创新思维。随着大语言模型在资产管理领域的应用场景不断拓展,创新能力能够帮助团队在激烈竞争中脱颖而出,找到差异化优势。团队领导鼓励团队进行头脑风暴、创新实验和跨领域学习,建立一个开放的创新文化。
(六)数据敏感性(Data Sensitivity)
相关人才需要具备对数据变化和异常的敏感性,能够及时发现潜在问题,并对数据质量和模型效果保持高度关注。大语言模型的效果高度依赖于数据,数据敏感性有助于提升模型的准确性和鲁棒性,减少偏差和错误。团队应定期开展数据分析和数据清洗培训,提升团队对数据质量和模型效果的敏感度。
章节七
资管领域大模型应用测评指南
七、资管领域大模型应用测评指南
7.1 测评目标
(一) 测评目的
本指南旨在提供一套全面的资管领域大模型测评体系,包括测试方法、测试数据要求、测试内容等,以确保大模型在资管业务中的性能、准确性、安全性和可靠性。本指南适用于金融机构、金融技术厂商、科研机构等,用于评估和优化大模型在资管领域的应用。
(二) 测评目标
测评应全面、客观地反映大模型在资管领域的应用能力,涵盖大模型在资管领域的核心应用场景、关键技术能力和服务成熟度,旨在全面了解大模型在资管业务中的表现,发现其潜在问题和不足,为优化模型性能提供依据。
在提升模型性能方面。通过测评,可以发现模型在处理资管业务数据时的瓶颈和不足,从而有针对性地进行优化。在确保数据安全方面。测评过程中,可以对模型的数据处理、存储和传输等环节进行全面检查,确保数据安全合规。在提高决策准确性方面。经过测评的大模型能够更准确地提供投资建议和资产配置策略,为资管机构提供有力的决策支持。
7.2 测试内容
测评可对资管领域大模型在业务场景、模型能力、应用服务方面的能力展开评估,具体测试能力项见下表。
表2 资管领域大模型应用测评能力项

(一) 业务场景
在业务场景方面,测评大模型对财富管理、投资研究、风险管理、等典型资产管理场景的丰富度和业务价值提升效果。针对场景丰富度,应在财富管理、投资研究、风险管理等场景上支持多种任务。
1.针对财富管理场景
测试大模型是否能够支持多种任务类型,包括但不限于根据客户资产和风险偏好进行有效的资产配置建议;提供长期的财富增长和保值策略;提供投资教育和市场动态的实时陪伴;理解和响应客户的个性化咨询需求;基于客户数据提供个性化的产品推荐。
2.针对投资研究场景
测试大模型是否支持多种任务类型,包括但不限于从大量的研究报告中提炼关键信息,为客户提供摘要和洞察;对投资机会进行深入分析,包括基本面和技术面分析;对研究报告进行评价,提供专业客观的观点和分析;自动生成研究报告,包括市场分析和预测;对过去的投资决策进行复盘,分析成功和失败的原因。
3.针对风险管理场景
测试大模型是否能够支持多种任务类型,包括但不限于识别和预防金融欺诈行为,保护客户资产安全;实时监测市场和投资组合的风险,及时预警;对各项业务操作进行监管审查,如反洗钱和客户身份验证等。
4.针对业务价值提升效果
应在大模型适用前后具有显著的业务提升,可从性能优化和人效优化两方面测试。性能优化为使用资管大模型与原有模型相比提升的场景效果数值占原数值的比例。人效优化为使用资管业大模型与原有模型相比人工工时缩减的比例。
(二) 模型能力
针对大模型基础能力,应在语言、语音、视觉、多模态等任务上具有较好的性能表现。语言任务上。测试在金融知识识别、金融知识理解、金融文本生成、金融推理计算任务等任务类型上的覆盖度,通过F1值、QAC值、ROUGE-N值等测试语言任务性能效果。语音任务上。测试大模型在金融语音识别、金融语音表达、金融语音风控等任务类型上的覆盖度,通过错误接受率、句识别准确率、MOS等评分测试语音任务性能效果。视觉任务上。测试大模型在金融图像识别、金融图像理解、金融视觉风控等任务类型上的覆盖度,通过交并比等指标测试视觉任务性能效果。多模态任务上。测试大模型在金融场景中的语音转文字、图文检索、文生图、图片转表格数据等任务类型上的覆盖度,通过准确率、前10命中率、MOS评分等测试跨模态任务性能效果。
针对大模型专业能力,应在金融知识理解、金融事件判断、金融信息推理等金融专业知识(会计、金融、经济等)任务上具有较好的性能表现。金融知识理解上,通过准确率和小组打分结合的方式测试是否支持准确理解的金融知识,如理财常识、赎回方式等金融知识。金融事件判断上,通过准确率测试是否支持准确判断真实的金融事件,如外资涌入、交易正回购等事件。金融信息推理上,通过准确率测试是否支持输出准确的金融推理问题,如盈利测算、投资组合配置建议等。金融知识问答上,通过准确率测试是否支持输出准确的金融知识问答,如时间、地点、机构等客观信息等。
(三) 应用服务
针对数据安全,模型应在数据处理、存储和传输过程中具备数据治理和数据保密能力。数据治理,通过数据质量测试、组织结构审查验证大模型是否能够确保数据的合规使用和保护,包括数据的采集、存储和处理。数据保密,通过数据加密测试验证测试大模型是否能够保护敏感数据不被未授权访问,包括使用加密技术和访问控制。
针对风险控制,风险预警、可控性、模型安全等方面具备较好的能力,保证大模型可以应对一定的金融风险。风险预警,通过压力测试、历史数据模拟验证大模型是否能够识别和预测潜在的风险因素,并及时发出预警信号,并通过准确率测试预警信号是否存在误报漏报。可控性,通过人类干预、文档审查等方式验证大模型的行为和决策过程是否可以被人类理解和控制,确保模型的透明度和可解释性。模型安全,通过应急测试、安全漏洞工具扫描验证大模型是否能够保护模型免受恶意攻击和数据泄露,确保模型的稳定性和数据的安全性。
针对内容安全,模型应在信息溯源、合规安全和价值观等方面具备较好的能力,以确保信息的真实性和合规性。信息溯源,通过验证测试大模型是否能够追踪信息的来源,确保信息的真实性和可靠性。合规审核,通过验证测试大模型是否能够进行自我审核,确保所有操作符合法律法规和行业标准。人类价值观对齐,通过公平性测试、人工审查等方式验证测试大模型的设计和应用是否符合人类的道德和价值观,避免偏见和歧视。
7.3 测评过程
(一) 测试环境
应模拟真实的资管业务环境,包括数据仓库、服务器、网络等基础设施。服务器方面,可选用具有多核处理器、大容量内存以及高速网络接口的服务器,以确保模型训练和测试过程能够高效运行。GPU加速方面,由于资管大模型通常具有庞大的参数量和复杂的计算任务,需选择适合的 GPU 型号和数量,如 NVIDIA A100、V100 等。存储设备方面,配备高速、大容量的存储设备来存储模型数据、训练数据和中间结果等。可以使用固态硬盘(SSD)组成的磁盘阵列,以提供快速的数据读写能力,减少数据加载时间,提高测试效率。
(二) 测试方法
性能测试,使用数据集构造、人工评测、工具测试等操作测评对象产生特定的结果,将运行结果与预期结果进行比对的过程,评估大模型在处理资管业任务时的性能、效率和稳定性。
功能测试,通过对测评对象进行观察、查验、分析,验证大模型在资管业务场景中的功能实现情况,如资产配置、财富规划、投教陪伴、客户咨询、营销推荐、投资研究、风险管理等功能模块的测试。检查对象是产品说明文档、后台日志、产品服务案例等文字、图片、视频类材料。
(三) 测试数据
为构建高质量、真实反映市场情况且合法合规、安全可靠的测试数据,从而准确评估资管大模型性能,确保其在实际资产管理应用中的可靠性、稳定性和有效性,同时保护数据隐私和遵守法律法规,测评数据构建过程中应考虑以下方面。真实性,测试数据应真实反映资管业务的实际情况,确保测评结果的可靠性。多样性,测试数据应涵盖资管业务中的各种场景和情况,确保模型的泛化能力。合规性,测试数据应符合相关法律法规和行业标准的要求,经过严格的处理和脱敏,确保测评过程的合规性。
(四) 测评流程
为明确资管大模型测试目标和要求,确保资管大模型的质量、功能和性能符合预期并为实际应用提供可靠依据,测评主要分为六个阶段。目标分析,明确测试目标和范围,制定测试计划。测试设计,根据需求分析结果,设计测试用例和测试场景。测试准备,搭建测试环境,准备测试数据和测试工具。测试执行,按照测试计划和测试用例进行性能测试和功能测试。测试结果分析,对测试结果进行统计和分析,找出问题和不足。测试报告编写,编写详细的测试报告,包括测试目的、方法、过程、结果和建议。
通过以上测试指南的实施,可以全面、系统地评估资管领域大模型的性能和功能表现,为资管机构提供有力的技术支持和决策依据。
章节八
总结展望
八、总结展望
资产管理行业在数字化转型的大潮中,正迎来前所未有的发展机遇。随着技术的不断进步,尤其是大模型技术的突破,其在资产管理、财富管理领域的应用已成为推动行业转型升级的重要力量。本文深入探讨了资管领域大模型应用的建设路径,从场景选择、大模型选型、语料供给、算力建设等多个关键环节进行了详细阐述,针对大模型应用建设过程中的风险合规管理、伦理安全问题防范、人才储备与培养方案、应用测评方式方法等重点问题进行了一系列经验总结并提出指导建议,旨在为资管机构提供一套全面、系统且具备实践指导意义的规范指南。
在场景选择方面,本文深入探讨了基金投研助手、财报分析助手、投顾助手、路演会议助手、风控合规助手、基金合同审核助手、市场营销助手、智能代码辅助助手、智能搜索助手等多个应用场景,揭示了大模型在提升资管机构运营效率、优化客户体验、增强风险管理能力等方面的巨大潜力。
在模型选型方面,本文综合考虑了大模型的基本属性、开闭源及部署方式、技术和应用能力等多个因素,通过对比分析不同技术方案的优缺点,为资管机构提供了科学、合理的选型建议。同时,本文还强调了模型选型过程的重要性,指出合理的选型不仅能够提升模型的应用效果,还能降低后期的运维成本,为资管机构带来更大的经济效益。
语料供给和算力建设是大模型应用不可或缺的两大支撑。在语料供给方面,本文详细阐述了资管行业数据的获取和处理方法,强调了数据质量和隐私保护的重要性。通过规范数据采集、处理和使用流程,进而确保大模型在训练和应用过程中的合法合规性。在算力建设方面,本文分析了算力资源的选取依据和国产化趋势,提出依托GPU虚拟化技术建设AI算力中心等指导建议,为资管机构提供了算力建设的参考方案。通过合理配置算力资源,提升大模型的训练和应用效率。
在风险合规管理与安全伦理问题防范方面,本文深入探讨了资管领域大模型应用的法律适用性和合规要点,以及针对数据安全、恶意利用或错误引导模型能力、生成内容存在社会偏见与歧视、模型输出包含不良信息和有害内容等潜在风险提出防范措施与合规建议,为资管机构在应用大模型技术时提供了全面的法律安全保障。
人才培养是大模型应用持续发展的关键。本文详细介绍了业务分析师、提示工程师、开发工程师、算法工程师等关键岗位的人才需求和能力要求,结合S.P.L.E.N.D.人才能力框架提出了大模型人才所需的六大核心能力。
在应用测评方面,从测评目标、测试内容、测评过程等方面给出了详细指导,旨在帮助资管机构建立科学合理的评估体系。通过大模型应用测评,资管机构可以全面评估大模型技术的应用效果,发现问题,优化改进,提升大模型技术的应用效果,确保大模型应用的有效性和安全性。
展望未来,随着资管行业的不断发展和大模型技术的持续创新,大模型在资管领域的应用将呈现出更加广阔的前景。资管机构应紧跟时代步伐,积极拥抱大模型科技浪潮,适时关注政策法规的动态变化,在合法合规的前提下推进现有业务与大模型技术的深度融合,利用大模型技术推动资管业务的创新发展。同时,应强化行业交流与共享,加强与大模型技术服务提供方的交流与合作,共同推动资管行业的智能化升级和高质量发展。
指导单位:中共上海市委金融委员会办公室
特别支持:中国(上海)自由贸易试验区临港新片区管理委员会
主编单位:上海资产管理协会、智能投研技术联盟(ITL)
参编单位:
中国信息通信研究院、上海人工智能实验室、上海科学智能研究院等
富国基金管理有限公司、中欧基金管理有限公司、天弘基金管理有限公司、万家基金管理有限公司、中银基金管理有限公司、申万菱信基金管理有限公司、上海临港新片区私募基金管理有限公司
招商银行股份有限公司、浦银理财有限责任公司、中银金融科技有限公司
国泰君安证券股份有限公司、中银国际证券股份有限公司、上海东方证券资产管理有限公司、上海国泰君安证券资产管理有限公司、中泰证券(上海)资产管理有限公司
平安资产管理有限责任公司、太平资产管理有限公司
上证所信息网络有限公司、上海库帕思科技有限公司、蚂蚁科技集团股份有限公司、上海商汤智能科技有限公司、上海财跃星辰智能科技有限公司、恒生电子股份有限公司、无限光年(上海)技术有限公司、上海智谱寰宇科技有限公司、澜舟科技有限公司、上海文因互联信息技术有限公司、天云融创数据科技有限公司
协力律师事务所、立信会计师事务所(特殊普通合伙)
查看更多可点击“阅读原文”
往期文章推荐
”
澜舟科技官方网站
获奖与新闻
HICOOL 2021创业大赛一等奖 | 周明博士专访
技术专栏一览

期待您的关注:)
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢