智能控制内容总结#
这份笔记按期末复习来整理:先抓课程主线,再分别整理智能控制概论、模糊控制、神经网络、遗传算法。公式统一写成 LaTeX,重点内容用“考点”标出。
说明:实例.ppt 转换后没有可抽取文字,因此本笔记主要依据其余课件文本整理。
0. 课程主线#
智能控制的核心问题是:当被控对象复杂、非线性、时变、不确定,或者难以建立精确数学模型时,如何利用人工智能、自动控制、运筹优化等方法实现较好的控制与决策。
本课程大致有四条主线:
- 智能控制概论:智能控制的定义、特点、研究对象、典型类型。
- 模糊控制:用模糊集合、模糊规则和模糊推理处理“经验规则”和“不精确概念”。
- 神经网络控制基础:用神经网络学习非线性映射,重点是感知器、BP、SOM、Hopfield。
- 遗传算法:用群体进化、选择、交叉、变异做全局优化,常用于参数优化和组合优化。
速记关系:
智能控制 = 人工智能思想 + 自动控制结构 + 优化/决策方法
模糊控制:把专家经验规则化
神经网络:把样本映射学习出来
遗传算法:把参数/方案搜索出来
text
1. 智能控制概论#
1.1 智能控制的含义#
智能控制没有唯一标准定义,课件中出现的核心意思可以合并为:
智能控制是研究和模拟人类智能活动及其控制、信息传递规律,并将其用于复杂系统控制的一类控制理论与方法。
它强调系统能在较少人工干预下,面对结构化或非结构化、熟悉或不熟悉的环境,自主或交互地完成控制目标。
1.2 智能控制的三元结构#
经典表述:
IC=AI∩AC∩OR
其中:
- IC:Intelligent Control,智能控制。
- AI:Artificial Intelligence,人工智能,提供知识表示、记忆、学习、推理、信息处理等能力。
- AC:Automatic Control,自动控制,提供系统动力学、反馈、稳定性、动态性能等基础。
- OR:Operations Research,运筹学,提供优化、规划、调度、决策、多目标优化等方法。
1.3 智能控制的特点#
考点:常见简答题。
- 控制器通常是非线性的。
- 控制结构可以是可变结构,不一定固定。
- 具有全局自寻优能力。
- 能满足多样化、高性能目标。
- 是交叉学科,融合控制、AI、优化、系统工程等。
- 适合处理复杂、非线性、时变、不确定系统。
1.4 智能控制的研究对象#
智能控制主要面向传统控制难以处理的系统:
- 复杂系统、非线性系统、时变系统。
- 参数或结构不确定的系统。
- 信息不完全、模型难以精确建立的系统。
- 传统线性假设不再适用的系统。
- 用传统建模方法会过于复杂或可靠性不足的系统。
1.5 智能控制的主要类型#
课件列出的典型类型:
- 分级递阶智能控制。
- 专家控制。
- 神经网络控制。
- 模糊控制。
- 学习控制。
- 集成或混合智能控制。
分级递阶智能控制#
一般分为三层:
| 层次 | 作用 | 特点 |
|---|
| 组织级 | 最高层,目标、规划、策略、任务分解 | 智能程度最高,精度要求相对低 |
| 协调级 | 协调组织级与执行级,分配任务、反馈协调 | 介于智能与精度之间 |
| 执行级 | 完成具体控制动作 | 智能程度低,控制精度高 |
速记:越往上越智能,越往下越精确。
专家控制#
专家控制把专家知识、经验规则引入控制器。特点:
- 使用启发式知识。
- 规则透明,便于解释。
- 能处理不确定信息。
- 灵活,但依赖知识库质量。
学习控制#
学习控制强调系统通过重复输入、训练和经验积累改善响应。学习的本质是根据过去经验改变控制策略或参数。
2. 模糊集合基础#
2.1 为什么需要模糊集合#
现实控制中大量概念不是精确二值的,例如:
- 温度“高”或“低”。
- 速度“快”或“慢”。
- 误差“大”或“小”。
- 控制量“稍微增加”或“明显减小”。
传统集合只允许属于或不属于:
μA(x)={1,0,x∈Ax∈/A
模糊集合允许“部分属于”:
A={(x,μA(x))∣x∈X},μA(x)∈[0,1]
其中 μA(x) 是 x 对模糊集合 A 的隶属度。
2.2 基本概念#
考点:定义题。
| 概念 | 定义 |
|---|
| 论域 X | 被讨论对象的全体取值范围 |
| 隶属函数 μA(x) | 描述元素 x 属于模糊集 A 的程度 |
| 支撑集 | {x∣μA(x)>0} |
| 核 | {x∣μA(x)=1} |
| α 截集 | {x∣μA(x)≥α} |
| 交叉点 | {x∣μA(x)=0.5} |
| 模糊单点 | 支撑集只有一个元素且该点隶属度为 1 |
| 凸模糊集 | μA(λx1+(1−λ)x2)≥min{μA(x1),μA(x2)} |
2.3 模糊集的表示#
离散论域:
A=x1μA(x1)+x2μA(x2)+⋯+xnμA(xn)
连续论域:
A=∫XxμA(x)
注意:这里的 ∑ 和 ∫ 只是模糊集表示符号,不是真正的求和与积分;xμA(x) 也不是除法。
2.4 模糊集运算#
子集:
A⊆B⟺μA(x)≤μB(x)
并集:
μA∪B(x)=max{μA(x),μB(x)}=μA(x)∨μB(x)
交集:
μA∩B(x)=min{μA(x),μB(x)}=μA(x)∧μB(x)
补集:
μAˉ(x)=1−μA(x)
2.5 常见隶属函数#
三角形隶属函数#
tri(x;a,b,c)=⎩⎨⎧0,b−ax−a,c−bc−x,0,x≤aa<x≤bb<x<cx≥c
梯形隶属函数#
trap(x;a,b,c,d)=⎩⎨⎧0,b−ax−a,1,d−cd−x,0,x≤aa<x≤bb<x≤cc<x<dx≥d
高斯隶属函数#
g(x;c,σ)=exp[−21(σx−c)2]
广义钟形隶属函数#
bell(x;a,b,c)=1+ax−c2b1
2.6 模糊语言算子 Hedges#
浓缩:
μconA(x)=[μA(x)]2
扩张:
μdilA(x)=[μA(x)]1/2
“稍微加强”:
[μA(x)]1.25
“稍微减弱”:
[μA(x)]0.75
2.7 T 范式与 S 范式#
T 范式用于表示“交”,常见形式:
Tmin(a,b)=min(a,b)
Tap(a,b)=ab
Tbp(a,b)=max{0,a+b−1}
强积:
Tdp(a,b)=⎩⎨⎧a,b,0,b=1a=1a<1, b<1
S 范式用于表示“并”,常见形式:
Smax(a,b)=max(a,b)
Sas(a,b)=a+b−ab
Sbs(a,b)=min{1,a+b}
强和:
Sds(a,b)=⎩⎨⎧a,b,1,b=0a=0a>0, b>0
3. 模糊逻辑推理#
3.1 推理问题的一般形式#
模糊推理的典型规则:
IF X=A THEN Y=B
已知事实:
X=A′
要求推出:
Y=B′
解决思路分两步:
- 把规则转换成前件论域与后件论域之间的模糊关系。
- 用已知前件 A′ 与模糊关系合成,得到结论 B′。
3.2 Mamdani 与 Larsen 模糊关系#
Mamdani 最小蕴含或最小关系:
RC=A→B=A×B
其隶属度为:
μR(x,y)=μA(x)∧μB(y)
Larsen 乘积关系:
μR(x,y)=μA(x)μB(y)
3.3 合成推理#
一般结论:
B′=A′∘R=A′∘(A→B)
最大-最小合成法:
μB′(y)=x∈X⋁[μA′(x)∧μR(x,y)]
最大-代数积合成法:
μB′(y)=x∈X⋁[μA′(x)μR(x,y)]
3.4 单前件单规则#
规则:
IF x is A THEN y is B
事实:
x is A′
采用 max-min 推理:
μB′(y)=x⋁[μA′(x)∧μA(x)∧μB(y)]
令:
ω=x⋁[μA′(x)∧μA(x)]
则:
μB′(y)=ω∧μB(y)
含义:结论 B 被匹配度 ω 截断。
3.5 多前件单规则#
规则:
IF x=A AND y=B THEN z=C
事实:
x=A′,y=B′
匹配度:
ω1=x⋁[μA′(x)∧μA(x)]
ω2=y⋁[μB′(y)∧μB(y)]
结论:
μC′(z)=(ω1∧ω2)∧μC(z)
3.6 去模糊化#
模糊推理输出通常是一个模糊集合,实际控制需要清晰数值,因此要去模糊化。
常见方法:
- 极大隶属度法。
- 重心法。
- 面积均分法。
重心法连续形式:
y∗=∫μB(y)dy∫yμB(y)dy
离散形式:
y∗=∑i=1lμB(yi)∑i=1lyiμB(yi)
面积均分法:
∫ay∗μB(y)dy=∫y∗bμB(y)dy
3.7 Mamdani 与 Takagi-Sugeno 推理#
Mamdani 推理的后件仍是模糊集合:
IF x1 is M1 AND x2 is M2 THEN u is M3
Takagi-Sugeno 推理的后件是函数:
IF x1 is M1 AND x2 is M2 THEN u=f(x1,x2)
速记:
- Mamdani:规则直观,后件是语言变量,常用于控制经验表达。
- T-S:后件是数学函数,适合建模和优化。
4. 模糊控制系统#
4.1 模糊控制器结构#
模糊控制器通常包括:
- 模糊化接口。
- 知识库。
- 模糊推理机或决策逻辑。
- 去模糊化接口。
闭环中常用误差和误差变化率作为输入:
ek=yr−yk
Δek=ek−ek−1
规则的一般形式:
Ri: IF x1 is A1i,…,xn is Ani THEN y is Ci
4.2 模糊控制器设计步骤#
考点:流程题。
- 确定输入、输出变量,例如 e,Δe,u 或 Δu。
- 确定各变量论域。
- 选择语言变量,如 NB、NM、NS、ZE、PS、PM、PB。
- 设计隶属函数。
- 建立控制规则表。
- 选择推理方法。
- 选择去模糊化方法,课件示例中使用重心法。
- 仿真、调试并修正规则和隶属函数。
4.3 规则设计思想#
模糊控制规则常根据 e 与 Δe 判断控制量变化:
- 若误差正在满意地趋近于零,可以令 Δu=0。
- 若误差不能自动减小,则根据 e 和 Δe 的符号与大小调整 Δu。
- 若接近设定值,要防止超调。
- 若偏差较大,要优先缩短上升时间。
典型规则:
| 情况 | 控制思想 |
|---|
| e=0,Δe=0 | Δu=0 |
| e>0,Δe<0 | 误差正在减小,远离目标时可继续加大控制,接近目标时减小或保持 |
| e<0,Δe<0 | 可能继续向负方向偏离,要抑制超调 |
| e<0,Δe>0 | 误差正在回升,远离目标时反向调整 |
| e>0,Δe>0 | 误差正在增大,应增强修正 |
4.4 规则完整性与一致性#
完整性:每一种可能的过程状态都应有合适规则覆盖。
ε 完整性:模糊子集的并覆盖论域达到一定程度,通常要求:
ε≥0.5
一致性:规则之间不能互相矛盾。例如同一前件组合不应推出明显冲突的控制动作。
4.5 模糊 PID#
常规模糊 PID:
e, Δe, Σe -> 模糊推理 -> u -> 被控对象
text
增量式模糊 PID:
e, Δe, Δ²e -> 模糊推理 -> Δu -> 累加 -> u -> 被控对象
text
速记:
- 常规式直接输出 u。
- 增量式输出 Δu,再累加得到 u。
5. 神经网络基础#
5.1 生物神经元#
生物神经元由四部分组成:
- 细胞体。
- 树突。
- 轴突。
- 突触。
信息处理机制:
- 信息产生是电化学活动。
- 静息状态对应极化。
- 兴奋对应去极化。
- 抑制对应超极化。
- 存在空间整合与时间整合。
5.2 人工神经元模型#
人工神经元的三大核心要素:
- 节点本身的信息处理能力。
- 节点之间的连接拓扑结构。
- 节点之间连接强度,即权值,通过学习调整。
神经元模型:
oj(t)=f(i=1∑nwijxi(t−τij)−Tj)
忽略时延后:
oj(t+1)=f(i=1∑nwijxi(t)−Tj)
引入偏置输入 x0=−1,w0=Tj,可写成:
netj=i=0∑nwijxi=WjTX
输出:
oj=f(netj)=f(WjTX)
5.3 常见转移函数#
阈值函数:
f(x)={1,0,x≥0x<0
单极性 Sigmoid:
f(x)=1+e−x1
双极性 Sigmoid:
f(x)=1+e−x1−e−x
分段线性函数:
f(x)=⎩⎨⎧0,cx,1,x≤00<x≤xcx>xc
概率型转移函数:
P(1)=1+e−x/T1
其中 T 是温度参数。
5.4 神经网络类型#
按拓扑结构:
- 层次型结构。
- 互连型结构。
- 全互连型结构。
- 局部互连型结构。
按信息流向:
- 前馈型网络:信息由输入层到隐层再到输出层逐层传播。
- 反馈型网络:节点输出会反馈回网络,状态与历史有关。
5.5 神经网络学习#
学习的本质:对可变权值进行动态调整,使网络输出逐渐接近期望输出。
一般权值调整形式:
ΔWj=ηr[Wj(t),X(t),dj(t)]X(t)
Wj(t+1)=Wj(t)+ηr[Wj(t),X(t),dj(t)]X(t)
学习类型:
- 有导师学习。
- 无导师学习。
- 死记式学习。
6. 前馈神经网络:感知器与 BP#
6.1 单层感知器模型#
输入:
X=(x1,x2,…,xn)T
权向量:
Wj=(w1j,w2j,…,wnj)T
净输入:
netj=i=1∑nwijxi
输出:
oj=sgn(netj−Tj)=sgn(WjTX)
二维情况下,分界线为:
w1jx1+w2jx2−Tj=0
三维情况下,分界面为:
w1jx1+w2jx2+w3jx3−Tj=0
n 维情况下是超平面。
考点:单层感知器只能解决线性可分问题,不能解决异或 XOR。
6.2 感知器学习规则#
感知器学习属于有导师学习。
权值更新:
Wj(t+1)=Wj(t)+η[djp−ojp(t)]Xp
其中:
- djp 是期望输出。
- ojp(t) 是实际输出。
- η 是学习率,通常 0<η≤1。
训练步骤:
- 初始化权值为较小非零随机数。
- 输入样本对 {Xp,dp}。
- 计算输出 ojp(t)=sgn[WjT(t)Xp]。
- 用学习规则调整权值。
- 重复直到所有样本输出与期望输出一致。
6.3 多层感知器#
引入隐层可以解决单层感知器不能解决的线性不可分问题。
分类能力大致为:
| 网络结构 | 分类能力 |
|---|
| 无隐层 | 半平面,线性可分 |
| 单隐层 | 可形成凸域 |
| 双隐层 | 可形成任意复杂形状域 |
6.4 BP 算法模型#
三层 BP 网络包括输入层、隐层、输出层。
输入向量:
X=(x1,x2,…,xn)T
隐层输出:
Y=(y1,y2,…,ym)T
输出层输出:
O=(o1,o2,…,ol)T
期望输出:
d=(d1,d2,…,dl)T
输出层:
ok=f(netk),k=1,2,…,l
netk=j=0∑mwjkyj
隐层:
yj=f(netj),j=1,2,…,m
netj=i=0∑nvijxi
6.5 BP 算法误差函数#
单样本输出误差:
E=21k=1∑l(dk−ok)2
BP 的本质是梯度下降:
Δwjk=−η∂wjk∂E
Δvij=−η∂vij∂E
6.6 BP 误差信号与权值更新#
单极性 Sigmoid:
f(x)=1+e−x1,f′(x)=f(x)[1−f(x)]
输出层误差信号:
δko=(dk−ok)ok(1−ok)
隐层误差信号:
δjy=(k=1∑lδkowjk)yj(1−yj)
输出层权值更新:
Δwjk=ηδkoyj
展开为:
Δwjk=η(dk−ok)ok(1−ok)yj
输入层到隐层权值更新:
Δvij=ηδjyxi
展开为:
Δvij=η(k=1∑lδkowjk)yj(1−yj)xi
6.7 BP 学习过程#
考点:流程题。
- 初始化权值 V,W,设定误差阈值 Emin 和学习率 η。
- 输入训练样本。
- 正向传播,计算隐层和输出层输出。
- 计算输出误差。
- 反向传播误差,计算各层误差信号。
- 调整各层权值。
- 对所有样本完成一轮训练。
- 判断总误差是否满足精度要求,否则继续训练。
6.8 BP 网络能力#
- 非线性映射能力:能学习输入到输出之间的非线性关系。
- 泛化能力:对未见过的样本也能给出合理输出。
- 容错能力:输入样本有误差时,网络输出规律仍可能保持稳定。
6.9 BP 算法局限性#
考点:简答题。
标准 BP 的缺陷:
- 易陷入局部极小,不能保证全局最优。
- 训练次数多,学习效率低,收敛速度慢。
- 隐节点个数缺乏明确理论指导。
- 学习新样本可能遗忘旧样本。
从误差曲面看:
- 存在平坦区域:梯度小,误差下降慢。
- 存在多个极小点:容易陷入局部最小。
可调参数总数:
nw=m(n+1)+l(m+1)
其中 n 为输入节点数,m 为隐层节点数,l 为输出节点数。
6.10 BP 算法改进#
增加动量项#
标准 BP 只看当前梯度,容易振荡。加入动量项:
ΔW(t)=ηδX+αΔW(t−1)
其中:
α∈(0,1)
作用:利用上一次调整方向,减小振荡,提高收敛速度。
自适应调节学习率#
思想:让学习率随误差变化自动调整。
η=βη,β<1
η=θη,θ>1
引入陡度因子#
在 Sigmoid 中加入陡度因子:
o=1+e−net/λ1
当发现 ΔE 接近 0 而 d−o 仍较大时,说明可能进入平坦区,可令 λ>1,压缩净输入,使神经元退出饱和区。退出后再令 λ=1。
7. 自组织神经网络 SOM#
7.1 自组织学习#
自组织学习是指网络通过自动寻找样本中的内在规律和本质属性,自组织、自适应地改变网络参数与结构。
SOM 的自组织功能通过竞争学习实现。
7.2 分类与聚类#
分类:有导师信号,把样本分到已知类别。
聚类:无导师分类,把相似样本划为一类,不相似样本分开。
相似性测度可用欧氏距离:
∥X−Xi∥=(X−Xi)T(X−Xi)
也可用余弦相似度:
cosψ=∥X∥∥Xi∥XTXi
7.3 竞争学习 Winner-Take-All#
竞争学习规则:输出神经元之间互相竞争,每次只有一个输出神经元被激活,被激活者称为获胜神经元。
步骤:
- 对输入向量 X 和竞争层各权向量 Wj 归一化。
- 找到与输入最相似的权向量。
- 获胜神经元输出 1,其余输出 0。
- 调整获胜神经元权值。
获胜条件:
W^j∗TX^=j∈{1,2,…,m}max(W^jTX^)
等价于欧氏距离最小:
∥X^−W^j∗∥=jmin∥X^−W^j∥
输出:
oj(t+1)={1,0,j=j∗j=j∗
权值调整:
W^j∗(t+1)=W^j∗(t)+μ(t)[X^−W^j∗(t)]
非获胜神经元:
W^j(t+1)=W^j(t),j=j∗
7.4 SOM 网络#
SOM 由 Kohonen 提出,因此也称 Kohonen 网络。它通常包括输入层和输出竞争层。
SOM 与普通竞争学习的区别:不仅获胜神经元调整权值,获胜神经元邻域内的神经元也按距离远近调整权值。
优胜邻域:
- 以获胜神经元为中心。
- 初始邻域较大。
- 随训练次数增加逐渐收缩。
- 最终可收缩到半径为零。
7.5 Kohonen 学习算法#
- 初始化输出层权向量并归一化,设置初始优胜邻域 Nj∗(0) 和学习率 η。
- 从训练集中随机选择输入模式并归一化。
- 计算输入与各权向量的点积,找出获胜节点 j∗。
- 定义当前优胜邻域 Nj∗(t)。
- 对优胜邻域内的节点调整权值:
wij(t+1)=wij(t)+η(t,N)[xip−wij(t)]
其中:
j∈Nj∗(t)
学习率规律:
t↑⇒η↓,N↑⇒η↓
课件给出一种形式:
η(t,N)=η(t)e−N
- 当学习率衰减到 0 或某个预定小值时结束。
8. 反馈神经网络:离散 Hopfield 网络#
8.1 Hopfield 网络概念#
Hopfield 网络是典型反馈神经网络。课件重点讨论离散型 Hopfield 网络,即 DHNN。
DHNN 中每个神经元都有相同功能,神经元输出称为状态:
X=[x1,x2,…,xn]T
初始状态:
X(0)=[x1(0),x2(0),…,xn(0)]T
状态更新:
xj=f(netj),j=1,2,…,n
8.2 DHNN 转移函数与净输入#
DHNN 常用符号函数:
xj=sgn(netj)={1,−1,netj≥0netj<0
净输入:
netj=i=1∑n(wijxi−Tj)
一般要求:
wii=0,wij=wji
网络稳定输出:
t→∞limX(t)
8.3 异步与同步工作方式#
异步方式:每次只更新一个神经元,其余状态保持不变。
xj(t+1)={sgn[netj(t)],xj(t),j=ij=i
同步方式:所有神经元同时更新。
xj(t+1)=sgn[netj(t)],j=1,2,…,n
8.4 稳定性与吸引子#
若网络从初态 X(0) 出发,经有限次递归后状态不再变化:
X(t+1)=X(t)
则称网络稳定。
吸引子定义:
X=f(WX−T)
满足该式的状态 X 是网络的吸引子。
直观理解:吸引子就是网络最终收敛到的稳定状态。
8.5 能量函数#
DHNN 的能量函数:
E(t)=−21XT(t)WX(t)+XT(t)T
状态变化:
ΔX(t)=X(t+1)−X(t)
能量变化:
ΔE(t)=E(t+1)−E(t)
异步更新且 W 为对称阵时:
ΔE(t)=−Δxj(t)netj(t)≤0
结论:能量不会增加,并且有下界,因此最终收敛到一个能量极小状态。能量极小状态称为能量井,对应网络吸引子。
8.6 DHNN 稳定性定理#
定理 1:对于 DHNN,若按异步方式调整状态,且连接权矩阵 W 为对称阵,则对于任意初态,网络最终收敛到一个吸引子。
定理 2:对于 DHNN,若按同步方式调整状态,且连接权矩阵 W 为非负定对称阵,则对于任意初态,网络最终收敛到一个吸引子。
8.7 吸引子性质#
性质 1:若 X 是吸引子,阈值 T=0,且任意节点净输入不为零,则 −X 也是吸引子。
证明思路:
f[W(−X)]=f[−WX]=−f(WX)=−X
性质 2:若 Xa 是吸引子,则与 Xa 海明距离为 1 的 Xb 一定不是吸引子。
海明距离:
dH(Xa,Xb)
表示两个状态向量中对应分量不同的个数。
8.8 外积和法设计权值#
设给定 P 个模式样本:
Xp,p=1,2,…,P
其中:
xip∈{−1,1},n>P
若样本两两正交,则权值矩阵可设计为:
W=p=1∑PXp(Xp)T
若要求 wjj=0,则:
W=p=1∑P[Xp(Xp)T−I]
分量形式:
wij={∑p=1Pxipxjp,0,i=ji=j
若样本正交,有:
(Xp)TXk={0,n,p=kp=k
则:
WXk=(n−P)Xk
因为 n>P,所以:
f(WXk)=Xk
说明给定样本是网络吸引子。
9. 遗传算法#
9.1 智能优化算法#
智能优化算法又称现代启发式算法,特点是具有全局优化性能、通用性强、适合并行处理。
常见智能优化算法:
- 遗传算法 GA。
- 模拟退火 SA。
- 禁忌搜索 TS。
共同特点:从任一解出发,按某种机制并以一定概率在整个求解空间中探索最优解,因此具有全局优化性能。
9.2 遗传算法基本思想#
遗传算法由 J. Holland 于 1975 年提出,是借鉴自然选择与自然遗传机制的随机化搜索算法。
搜索机制:
- 保留一组候选解,即种群。
- 按适应度选择较优个体。
- 通过选择、交叉、变异产生新一代。
- 重复迭代直到满足收敛指标。
9.3 基本遗传算法 SGA 组成#
- 编码与初始种群。
- 适应度函数。
- 遗传算子:选择、交叉、变异。
- 运行参数:种群规模、进化代数、交叉概率、变异概率。
SGA 通常使用二进制串编码。
例如函数优化:
f(x)=xsin(10πx)+2.0,x∈[−1,2]
若要求 10−6 精度,区间长度为 3,需要至少满足:
221<3×106<222
因此二进制编码至少需要 22 位。
适应度函数#
适应度函数评价个体好坏,是遗传算法进化过程的驱动力。适应度越大,个体质量越好。
选择算子#
SGA 使用轮盘赌选择,即个体被选中的概率与适应度成正比:
Pi=∑i=1nFiFi
其中 Fi 是个体 i 的适应度。
交叉算子#
交叉是对两个配对染色体按交叉概率 Pc 交换部分基因,产生新个体。SGA 通常采用单点交叉。
变异算子#
变异按变异概率 Pm 改变编码串中的某些基因。二进制编码中,0 变 1,1 变 0。
作用:
- 增强局部搜索能力。
- 保持种群多样性。
- 与交叉共同完成全局与局部搜索。
9.4 SGA 流程#
- 产生初始种群。
- 判断是否满足停止准则。
- 计算个体适应度。
- 执行比例选择。
- 执行单点交叉。
- 执行基本位变异。
- 产生新一代种群。
- 重复直到停止。
9.5 遗传算法特点#
考点:简答题。
- 群体搜索,易于并行化。
- 不是盲目穷举,而是启发式搜索。
- 适应度函数不要求连续、可微,适用范围广。
- 具有较强全局搜索能力。
9.6 模式定理与积木块假设#
模式:种群个体基因串中的相似样板,用来描述某些特征位相同的结构。二进制编码中使用字符集 {0,1,∗},其中 ∗ 表示任意字符。
例如:
模式阶 O(H):模式 H 中确定位置的个数。
O(10∗∗1)=3
定义距 δ(H):模式中第一个确定位置和最后一个确定位置之间的距离。
δ(10∗∗1)=4
模式定理:
具有低阶、短定义距、平均适应度高于种群平均适应度的模式,在子代中呈指数增长。
积木块假设:
遗传算法通过短定义距、低阶、高平均适应度的模式,在遗传操作下相互结合,最终接近全局最优解。
9.7 收敛性影响因素#
要实现全局收敛:
- 任意初始种群经过有限步应能到达全局最优解。
- 要通过保优操作防止最优解丢失。
主要影响因素:
| 因素 | 影响 |
|---|
| 种群规模 M | 太小采样不足,太大计算量大、收敛慢 |
| 选择操作 | 适应度高的个体更易保留;最优保存策略有利于收敛 |
| 交叉概率 Pc | 太大破坏优秀个体,太小搜索停滞 |
| 变异概率 Pm | 太小难产生新模式,太大退化为随机搜索 |
9.8 遗传算法改进#
遗传欺骗问题:某些超常个体竞争力过强,控制选择过程,使算法容易陷入局部最优。
改进方向:
- 编码方式改进:二进制编码、格雷编码、浮点数编码。
- 遗传算子改进:排序选择、均匀交叉、逆序变异。
- 控制参数改进:自适应 Pc、Pm。
- 执行策略改进:混合遗传算法、免疫遗传算法、小生境遗传算法、单亲遗传算法、并行遗传算法。
Schaffer 建议参数范围:
M=20∼100
T=100∼500
Pc=0.4∼0.9
Pm=0.001∼0.01
9.9 遗传算法应用#
常见应用:
- 组合优化。
- 函数优化。
- 自动控制。
- 生产调度。
- 图像处理。
- 机器学习。
- 人工生命。
- 数据挖掘。
在 PID 参数优化中,可把 Kp,Ki,Kd 编码为染色体,适应度函数可由控制性能指标构造,例如 ITAE:
J=∫t∣e(t)∣dt
通常希望 J 越小越好,因此可把适应度设计成 1/J 或带惩罚项的函数。
10. 期末复习重点#
10.1 必须会背的概念#
- 智能控制的定义、特点、研究对象。
- IC=AI∩AC∩OR 的含义。
- 模糊集合、隶属函数、支撑集、核、α 截集。
- 模糊推理的一般形式。
- 模糊控制器结构。
- 神经元模型、转移函数、神经网络学习本质。
- 感知器为什么只能解决线性可分问题。
- BP 算法正向传播与误差反传流程。
- SOM 的竞争学习和 Winner-Take-All。
- Hopfield 网络的吸引子、能量函数、稳定性。
- 遗传算法的编码、适应度、选择、交叉、变异。
- 模式定理、积木块假设。
10.2 必须会写的公式#
模糊集:
A={(x,μA(x))∣x∈X},μA(x)∈[0,1]
模糊并、交、补:
μA∪B=max(μA,μB),μA∩B=min(μA,μB),μAˉ=1−μA
模糊控制误差:
ek=yr−yk,Δek=ek−ek−1
重心去模糊:
y∗=∫μB(y)dy∫yμB(y)dy
神经元模型:
oj=f(i=0∑nwijxi)=f(WjTX)
BP 误差:
E=21k=1∑l(dk−ok)2
BP 更新:
δko=(dk−ok)ok(1−ok)
δjy=(k=1∑lδkowjk)yj(1−yj)
Δwjk=ηδkoyj,Δvij=ηδjyxi
SOM 获胜条件:
W^j∗TX^=jmax(W^jTX^)
SOM 权值更新:
wij(t+1)=wij(t)+η(t,N)[xip−wij(t)]
Hopfield 能量函数:
E(t)=−21XT(t)WX(t)+XT(t)T
外积和法:
W=p=1∑P[Xp(Xp)T−I]
轮盘赌选择:
Pi=∑i=1nFiFi
10.3 最可能考成简答题的内容#
- 智能控制与传统控制的区别。
- 模糊控制器的组成和设计步骤。
- Mamdani 推理与 T-S 推理的区别。
- BP 算法的基本思想、流程、优缺点和改进方法。
- 为什么单层感知器不能解决异或问题。
- SOM 与普通竞争学习的区别。
- Hopfield 网络稳定条件、吸引子和能量函数含义。
- 遗传算法流程、特点和参数影响。
- 模式定理和积木块假设。
- 遗传算法如何用于 PID 参数优化。
10.4 临考速通顺序#
- 先背第 1、4、6、8、9 章的“流程与概念”。
- 再抄写第 10.2 节公式,保证能独立写出。
- 最后看模糊推理、BP、Hopfield、GA 四类典型推导。
如果时间很紧,优先级:
模糊控制器结构 > BP公式与流程 > Hopfield能量函数 > 遗传算法流程 > 智能控制概念
text