04 神经网络基础#
1. 本章定位#
本章是后续感知器、BP、SOM、Hopfield 的基础。重点是人工神经元模型、转移函数、拓扑结构和学习本质。
2. 生物神经元基础#
生物神经元由四部分组成:
- 细胞体。
- 树突。
- 轴突。
- 突触。
信息处理机制:
- 静息:极化。
- 兴奋:去极化。
- 抑制:超极化。
- 空间整合:同一时刻多个刺激叠加。
- 时间整合:一段时间内输入脉冲累积。
3. 人工神经元建模假设#
课件中的关键假设:
- 每个神经元是多输入单输出单元。
- 输入分为兴奋性和抑制性。
- 神经元具有空间整合特性和阈值特性。
- 输入输出之间有固定时滞。
- 忽略时间整合作用和不应期。
- 神经元本身非时变。
4. 神经元数学模型#
含时延形式:
oj(t)=f(i=1∑nwijxi(t−τij)−Tj)
离散简化形式:
oj(t+1)=f(i=1∑nwijxi(t)−Tj)
令 x0=−1,w0=Tj,可以写成:
netj=i=0∑nwijxi=WjTX
输出:
oj=f(netj)=f(WjTX)
5. 常见转移函数#
阈值型:
f(x)={1,0,x≥0x<0
单极性 Sigmoid:
f(x)=1+e−x1
双极性 Sigmoid:
f(x)=1+e−x1−e−x
分段线性:
f(x)=⎩⎨⎧0,cx,1,x≤00<x≤xcx>xc
概率型:
P(1)=1+e−x/T1
6. 神经网络三大性能要素#
决定网络性能的三大要素:
- 节点本身的信息处理能力。
- 节点之间的连接拓扑结构。
- 节点之间的连接强度,即权值。
7. 网络类型#
按拓扑结构:
- 层次型结构。
- 互连型结构。
- 全互连型结构。
- 局部互连型结构。
按信息流向:
- 前馈型网络:输入层到隐层再到输出层。
- 反馈型网络:节点之间存在反馈,状态与历史有关。
8. 神经网络学习#
学习的本质:
通过样本训练不断改变连接权值和拓扑结构,使网络输出接近期望输出。
一般权值调整形式:
ΔWj=ηr[Wj(t),X(t),dj(t)]X(t)
Wj(t+1)=Wj(t)+ηr[Wj(t),X(t),dj(t)]X(t)
学习类型:
- 有导师学习。
- 无导师学习。
- 死记式学习。
9. 本章考点#
必背:
- 人工神经元模型。
- 常见转移函数。
- 神经网络三大性能要素。
- 前馈网络与反馈网络区别。
- 学习的本质和学习类型。