
导语


分享简介
分享简介
在本次分享中,肖熊烨老师将介绍如何从网络科学的角度理解智能的本质,尤其是在大语言模型等人工智能系统中如何观察到自组织行为和结构涌现。他们团队提出一种基于多重分形分析(Multifractal Analysis)的图建模方法,用于量化神经交互网络的复杂性、异质性以及随训练演化的模式。该方法不仅可用于生物神经网络的建模,也为分析人工模型提供了统一视角,帮助我们从结构入手,深入理解智能系统的生成规律。
分享大纲
分享大纲
• 智能与复杂系统的基本特征
• 多尺度结构与网络科学视角
• 大模型训练中的自组织现象
• 基于多重分形的结构建模方法
• 案例分析:从神经元到神经网络
• 启发与展望:AI for Science 与 Science for AI
核心概念
核心概念
自组织(Self-Organization):无需外部指导,系统自身形成结构或功能模式
涌现(Emergence):个体交互下产生的系统新行为或性质
多重分形谱(Multifractal Spectrum):反映网络异质性和复杂度的指标
神经交互网络(NIN):将大模型的神经元及其激活关系抽象为图结构
结构涌现指标(Emergence Measure):量化结构演化带来新能力的指标
参考文献
参考文献
(基于多重分形分析框架研究大模型的自组织与涌现)Xiao, Xiongye, et al. Neuron-based Multifractal Analysis of Neuron Interaction Dynamics in Large Models. ICLR 2025. https://openreview.net/forum?id=nt8gBX58Kh
(讲者在这篇文章提出了复杂网络的多重分形分析框架)Xiao, Xiongye, Chen, Hanlong, and Bogdan, Paul. Deciphering the generating rules and functionalities of complex networks. Scientific Reports, 2021. https://www.nature.com/articles/s41598-021-02203-4
(复杂网络自相似领域开山之作)Song, C., Havlin, S., & Makse, H.A. Self-similarity of complex networks. Nature, 2005.
(这篇论文是最早体现分形思想的研究)Mandelbrot, B. How long is the coast of Britain? Statistical self-similarity and fractional dimension. Science, 1967.
共创任务
共创任务
如果你对这次分享的内容感兴趣,我们正在招募对本期内容进行内容整理的共创者,任务审核通过,我们会根据完成质量回馈集智积分,最高可获得退费权益,并成为集智内容共创团队成员。
详情请点击下方链接,进入集智斑图共创任务领取页查看https://pattern.swarma.org/bounty_mission/1267
主讲人简介
主讲人简介

肖熊烨,现任田纳西大学EECS系助理教授,博士毕业于南加州大学ECE系,本科毕业于浙江大学控制科学与工程学院。主要研究方向包括人工智能、复杂网络、神经算子等。
招生信息:肖熊烨团队招收2026年春季博士生,也欢迎硕士生、本科生参与科研项目,欢迎有相关背景的同学联系:
• 有一定编程/数学/科研训练背景
• 对 AI 基础、科学建模、复杂系统等方向有热情
• 有自我驱动力,执行力强
有意向申请者请发简历+成绩单至 xxiao9@utk.edu或xiongyex98@gmail.com。
邮件标题注明:[PhD Application] / [RA Inquiry]
参与方式
参与方式
参与时间
北京时间2025年8月10日(周日)早上10:00-12:00
报名加入社群交流

(可开发票)
https://pattern.swarma.org/study_group_issue/965?from=wechat
扫码参与「大模型可解释性」读书会,加入社群,获取系列读书会永久回看权限,与社区的一线科研工作者沟通交流,共同探索大模型可解释性这一前沿领域的发展。
大模型可解释性读书会
集智俱乐部联合上海交通大学副教授张拳石、阿里云大模型可解释性团队负责人沈旭、彩云科技首席科学家肖达、北京师范大学硕士生杨明哲和浙江大学博士生姚云志共同发起「大模型可解释性」读书会。本读书会旨在突破大模型“黑箱”困境,尝试从以下四个视角梳理大语言模型可解释性的科学方法论:
自下而上:Transformer circuit 为什么有效?
自上而下:神经网络的精细决策逻辑和性能根因是否可以被严谨、清晰地解释清楚?
点击“阅读原文”,报名读书会
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢