• 2. 扩散概率模型(diffusion probabilistic models)
    • 2.1. 扩散概率模型(diffusion probabilistic model)
      • 2.1.1. 马尔科夫分层自编码器(Markovian Hierarchical Variational Autoencoder,MHVAE)
      • 2.1.2. 扩散模型
      • 2.1.3. 前向-后向
      • 2.1.4. 目标函数(ELBO)
      • 2.1.5. 图片生成(采样)过程
      • 2.2. 降噪扩散概率模型(Denoising diffusion probabilistic model,DDPM)
      • 2.3. 基于分数的解释(Score-based DDPM)
      • 2.4. 扩散模型的三种等价表示
      • 2.5. 改进降噪扩散概率模型(Improved Denoising Diffusion Probabilistic Models,IDDPM)
      • 2.6. 参考文献
      • 3. 去噪扩散隐式模型(Denoising Diffusion Implicit Models,DDIM)
        • 3.1. 扩散模型的回顾
        • 3.2. 非马尔科夫前向过程
        • 3.3. 加速采样
        • 3.4. 参考文献
        • 4. 基于分数的生成模型(Score-based generative models)
          • 4.1. 基于分数的生成模型
            • 4.1.1. 分数匹配算法(Score Matching)
            • 4.1.2. 基于分数的生成模型面临的困难
            • 4.1.3. 通过加噪的方法估计分布的近似分数
            • 4.1.4. 基于分数的改进采样算法
            • 4.1.5. 改进的分数生成模型
            • 4.2. 随机微分方程
              • 4.2.1. 微分方程
              • 4.2.2. 随机微分方程
              • 4.2.3. 基于随机微分方程的生成模型
              • 4.3. 参考文献
              • 5. 条件控制扩散模型
                • 5.1. classifier guidance
                • 5.2. Classifier-free guidance
                • 5.3. CLIP Guidance
                  • 5.3.1. 参考文献
                  • 7. 稳定扩散模型(Stable diffusion model)
                    • 7.1. 潜在扩散模型(Latent diffusion model,LDM)
                    • 7.2. 稳定扩散模型(Stable diffusion,SD)
                      • 7.2.1. 推理过程代码
                      • 7.2.2. 训练过程
                      • 7.3. 参考文献
                      • 8. 条件控制之ControlNet
                        • 8.1. 算法原理
                        • 8.2. 代码实现
                        • 8.3. 最后的总结
                        • 8.4. 参考文献
                        • 9. 条件控制之DreamBooth
                          • 9.1. DreamBooth 技术
                          • 9.2. 参考文献
                          • 10. Imagen
                            • 10.1. 代码实现解读
                              • 10.1.1. 第一阶段
                              • 10.1.2. 第二阶段
                              • 10.1.3. 第三阶段
                              • 10.2. Imagen 总结
                              • 10.3. 参考文献
                              • 1.8. 频域分析
                                • 1.8.1. 声谱(spectrum)和时频谱(spectrogram)
                                • 1.8.2. 短时傅里叶变换 Short-time Fourier transform (STFT)
                                • 1.8.3. 倒频谱
                                • 1.8.4. 色谱图
                                • 1.9. 小波域特征
                                  • 1.9.1. 离散小波域变换
                                  • 1.9.2. 小波域过零率
                                  • 1.9.3. 小波域质心
                                  • 1.9.4. 小波域子带能量
                                  • 1.10. 语音识别的音频特征–MFCC
                                  • 1.11. 参考资料
                                  • 1.2. 隐马尔科夫模型(Hidden Markov Model,HMM)
                                  • 1.3. 贝叶斯知识追踪(Bayesian Knowledge Tracing)
                                    • 1.3.1. BKT的参数估计
                                    • 1.4. 项目反映理论(Item Response Theory,IRT)
                                    • 1.5. BKT结合IRT
                                    • 1.6. 实验
                                      • 1.6.1. 数据集
                                      • 1.6.2. 实验方法
                                      • 1.6.3. 实验结果
                                      • 1.6.4. 项目代码
                                      • 1.7. 未来工作
                                        • 1.7.1. 题目难度的计算
                                        • 1.7.2. 多参数IRT模型
                                        • 1.7.3. 参数估计算法
                                        • 1.8. 参考文献
                                        • 1.3.1. 欧氏距离(Euclidean Distance)
                                        • 1.3.2. 闵科夫斯基距离(Minkowski Distance)
                                        • 1.3.3. 曼哈顿距离(Manhattan Distance)
                                        • 1.3.4. 切比雪夫距离(Chebyshev Distance )
                                        • 1.3.5. 马氏距离(Mahalanobis Distance)
                                        • 1.3.6. 余弦夹角相似度(Cosine Similarity)
                                        • 1.3.7. 汉明距离(Hamming Distance)
                                        • 1.3.8. Jaccard 系数
                                        • 1.3.9. 编辑距离
                                        • 1.3.10. 最长公共字串
                                        • 1.3.11. 最长公共子序列
                                        • 1.4. 文本去重
                                          • 1.4.1. KShingle算法
                                          • 1.4.2. Minhash算法
                                          • 1.4.3. simhash
                                          • 1.4.4. KSentence算法
                                          • 1.5. 话术去重
                                          • 2. Attention&Transformer&Bert 简介
                                            • 2.1. Transformer 从宏观到微观
                                              • 2.1.1. seq2seq
                                              • 2.1.2. 模型的输入
                                              • 2.2. Self-Attention
                                                • 2.2.1. 什么是注意力?
                                                • 2.2.2. 加权求和
                                                • 2.2.3. 位置编码
                                                • 2.2.4. 多头注意力(Multi-head)
                                                • 2.3. Attention 机制
                                                • 2.4. 其它参考资料
                                                • 我们用符号 \(k\) 表示事件发生的次数, 符号 \(T\) 表示直到 \(k\) 次事件发生等待的时间,也就是目标随机变量。 \(\lambda\) 表示泊松过程中事件发生的频率(单位时间内发生的次数)。 \(p(T>t;k)\) 表示直到第 \(k\) 次事件发生等待的时间 \(T\) 大于 \(t\) 的概率。 用符号 \(p(k;T=t)\) 表示在泊松过程中 \(t\) 个时间单元内事件发生 \(k\) 次的概率。

                                                  泊松分布表示单位时间窗口内事件发生次数的概率分布, 泊松分布的概率分布函数为:

                                                  (16.2.1) \[p(k) = \frac{\lambda^k}{k!} e^{-\lambda}\]

                                                  其表示在一个单位时间内事件发生 \(k\) 次的概率,唯一的参数 \(\lambda\) 表示单位时间内事件发生次数的平均值, 也就是 \(k\) 的期望值, \(\mathbb{E}[x]=\lambda\) 。 现在要想计算 \(t\) 个单位时间内事件发生的次数,只需要用 \(\lambda t\) 替换上式中的 \(\lambda\) 即可, \(t\) 个时间单元内事件发生 \(k\) 次的概率为:

                                                  (16.2.2) \[p(k;t) = \frac{(\lambda t)^k}{k!} e^{-\lambda t}\]

                                                  为什么用 \(\lambda t\) 替换 \(\lambda\) 就可以?

                                                  泊松分布表示单位时间内,随机事件发生 \(k\) 次的概率分布。 这个单位时间并没有具体的长度限制,只要保证每个时间片段的长度相同就可以。 泊松分布唯一的参数就是每个时间片段内随机事件发生次数的平均值 \(\lambda\) , 如果要算 \(t\) 个时间片段内随机事件发生次数的概率分布,相当于原来的时间片段扩大了 \(t\) 倍, 这个 \(t\) 倍的时间片段也可以看做是一个”单位时间”,这个新的”单位时间”组成一个新的泊松分布, 并且其平均值参数 \(\lambda_{new}\) 也是原来的 \(t\) 倍,即 \(\lambda_{new} = \lambda t\)

                                                  (16.2.3) \[p(k) = \frac{(\lambda_{new})^k}{k!} e^{-\lambda_{new}} = \frac{(\lambda t)^k}{k!} e^{-\lambda t}\]

                                                  泊松分布表示的是 一个单位时间片段内 随机事件发生 次数 的概率分布, 指数分布表示的是随机事件 第一次 发生的需要的 时间 的概率分布。 泊松分布描述的是 次数 ,是离散变量的分布; 指数分布描述的是 时间 ,是连续值变量的分布。 然而指数分布仅仅描述了事件首次发生,不能表示更多次事件发生,不具备一般化, Gamma 分布就是指数分布的扩展,能够表达事件发生任意次数所需 时间 的概率分布。

                                                  我们令符号 \(p(T>t;k)\) 表示随机事件发生 \(k\) 所需时间大于 \(t\) 的概率。 如果随机事件第 \(k\) 发生的时间大于 \(t\) , 意味着在 \(t\) 个时间单元内,事件发生次数一定是小于等于 \(k-1\) 次。 换句话说, \(t\) 个时间单元内最多只发生 \(k-1\) 次, 第 \(k\) 次发生的时间一定是大于 \(t\) 。 因此 \(p(T>t;k)\) 可以看成是在 \(t\) 个时间单元内,事件发生 \(0,1,2,...,k-1\) 次的概率之和。

                                                  (16.2.4) \[p(T>t;k) = \sum_{i=0}^{k-1} p(i;t) = \sum_{i=0}^{k-1} \frac{(\lambda t)^{i}}{i!} e^{-\lambda t}\]

                                                  现在我们得到了第 \(k\) 次事件发生时间大于 \(t\) 的概率 \(p(T>t;k)\) ,反过来,第 \(k\) 次事件发生时间小于等于 \(t\) 的概率为:

                                                  (16.2.5) \[ \begin{align}\begin{aligned}p(T\le t;k) &= 1-p(T>t;k)\\&= 1- \sum_{i=0}^{k-1} \frac{(\lambda t)^{i}}{i!} e^{-\lambda t}\end{aligned}\end{align} \]

                                                  显然 公式(16.2.5) 是一个累积分布函数(Cumulative Distribution Function), 是概率密度函数的积分,对其进行微分可以得到概率密度函数, 这里省略微分的过程,直接给出结果

                                                  (16.2.6) \[ \begin{align}\begin{aligned}f(t) &= \frac{\lambda e^{-\lambda t}(\lambda t)^{k-1}}{(k-1)!}\\&= \frac{\lambda^k e^{-\lambda t}t^{k-1}}{\Gamma(k)}\end{aligned}\end{align} \]

                                                  公式(16.2.6) 就是 Gamma 分布的概率密度函数,其表示随机事件发生 \(k\) 次所需时间 \(t\) 的概率分布。注意, \(f(t)\) 不是具体的时间值,而是时间 \(t\) 的概率分布。 参数 \(k\) 表示事件发生的次数,又被称为形状参数(shape parameter)。 参数 \(\lambda\) 来源于泊松分布,表示随机事件发生的频次,即单位时间发生的平均次数,又被称为速率参数(rate parameter)。

                                                  什么是形状参数(shape parameter)?

                                                  在概率分布中,按照参数对概率分布函数曲线的影响,可以分为几种。

                                                • 位置参数(location parameter),影响着图形在 \(x\) 轴上的位置;

                                                • 尺度参数(scale parameter),控制着图形的拉伸和缩小,可以缩放图形。 尺度参数的倒数称为速率参数(rate parameter),对图形的影响与尺度参数是一样。

                                                • 形状参数(shape parameter),其既不是位置参数也不是尺度参数(也不是关于这两者的函数)。 形状参数直接影响图形分布的形状,而不是简单地移动分布(如位置参数)或拉伸/缩小分布(如比例参数)。

                                                • Gamma 分布的期望和方差分别为:

                                                  (16.2.7) \[ \begin{align}\begin{aligned}\mathbb{E}[T] &= \frac{k}{\lambda}\\Var(T) &= \frac{k}{\lambda^2}\end{aligned}\end{align} \]

                                                  \(k\) 是事件发生总次数, \(\lambda\) 是事件发生速率, 显然事件发生 \(k\) 次所需要的平均时间就是 \(k/\lambda\) ,这和 Gamma 分布的期望是一致的。

                                                  \(k=1\) 时,Gamma分布就退化为指数分布:

                                                  (16.2.8) \[f(t;k=1,\lambda) = \lambda e^{-\lambda t} \quad (\lambda ,t > 0)\]

                                                  因此有 \(Gamma(1,\lambda) = Exponential(\lambda)\) 成立,更一般的,如果有 \(n\) 个独立的指数分布 \(Exponential(\lambda)\) 随机变量, 就可以得到一个 Gamma 分布的随机变量 \(Gamma(n,\lambda)\)

                                                  现在我们来看下形状参数和速率参数分别对概率分布函数的影响是怎样的。 图 16.2.1 展示了形状参数 \(k\) 对概率分布函数的影响, 图 16.2.2 展示了速率参数 \(\lambda\) 对概率分布函数的影响。

                                                  图 16.2.1 Gamma分布不同 \(k\) 值下图形比较

                                                  在计量经济学和其它一些自然科学领域,经常使用形状参数和尺度参数进行参数化表示。

                                                  常见参数化方式1:

                                                  令参数 \(\alpha=k\) 表式形状参数,参数 \(\beta=1/\lambda\) 表示尺度参数, 服从 Gamma 分布的随机变量 \(X\) 的概率密度函数为

                                                  (16.2.9) \[f(x;\alpha,\beta) = \frac{ x^{\alpha-1} e^{-\frac{x}{\beta} }}{\beta^{\alpha} \Gamma(\alpha)} \quad (x,\alpha,\beta > 0)\]

                                                  这种形式常见于计量经济学和其它一些自然科学领域。 这种形式下, Gamma 分布的期望和方差为别为

                                                  (16.2.10) \[ \begin{align}\begin{aligned}\mathbb{E}[X] &= \alpha \beta\\Var(X) &= \alpha \beta^2\end{aligned}\end{align} \]

                                                  常见参数化方式2:

                                                  令参数 \(\alpha=k\) 表式形状参数,参数 \(\beta=\lambda\) 表示尺度参数, 这种方式下, 尺度参数 \(\beta\) 公式(16.2.9) 是倒数关系,这只是不同的参数化方法而已, 二者是等价的,这时 Gamma 分布的概率分布函数写成

                                                  (16.2.11) \[f(x;\alpha,\beta) = \frac{ x^{\alpha-1} e^{-\beta x } \beta^{\alpha} }{ \Gamma(\alpha)} \quad (x,\alpha,\beta > 0)\]

                                                  此时的期望和方差为别为

                                                  (16.2.12) \[ \begin{align}\begin{aligned}\mathbb{E}[X] &= \frac{\alpha}{\beta}\\Var(X) &= \frac{\alpha} {\beta^2}\end{aligned}\end{align} \]

                                                  16.3. Gamma 回归模型

                                                  在GLM中,Gamma模型用于响应数据只能取大于或等于0的连续值数据进行建模。

                                                  Gamma 分布是是一个双参数分布,包含形状参数 \(\alpha\) 和尺度化参数 \(\beta\) ,形状参数 \(\alpha\) 表示事件的发生次数,尺度化参数 \(\beta\) 表示平均一次事件发生需要的时间。 二者的乘积 \(\mu=\alpha \beta\) 就是事件发生 \(\alpha\) 次所需的平均时间, 即 Gamma 分布的期望值(均值)。

                                                  当把 Gamma 分布作为 GLM 家族的成员时, 需要把 \(\alpha\) 看做一个已知的常量, 也就是人为给 \(\alpha\) 设置一个常数,并且对于所有观测样本都是一样的值。 通常这个值一个经验值,需要根据观测数据分布情况

                                                  GLM中指数族分布的标准形式为

                                                  (16.3.1) \[f(y;\theta,\phi) = \exp \left \{\frac{\theta y - b(\theta)}{a(\phi)} + c(y,\phi) \right \}\]

                                                  现在我们把 Gamma 分布的概率密度函数转化成上述指数族分布的标准形式, 首先,从上文已知 Gamma 分布的期望为 \(\mu=\alpha \beta\) 。令 \(\phi = 1/\alpha\) ,则有 \(\alpha = 1 / \phi ,\beta=\mu / \alpha=\mu \phi\) ,代入到 公式(16.2.9) 可得

                                                  (16.3.2) \[ \begin{align}\begin{aligned}f(y;\mu,\phi) &= \frac{ y^{\alpha-1} e^{-\frac{y}{\beta} }}{\beta^{\alpha} \Gamma(\alpha)}\\&= \exp \left [ -\frac{y}{\beta} + (\alpha-1) \ln y - \alpha \ln \beta - \ln \Gamma(\alpha) \right ]\\&= \exp \left [ -y / \beta - \alpha \ln \beta + (\alpha-1) \ln y - \ln \Gamma(\alpha) \right ]\\ &= \exp \left [ \frac{-y}{\mu \phi} - \frac{ \ln (\mu \phi) }{ \phi} + (\frac{1}{\phi}-1) \ln y - \ln [\Gamma(1 / \phi)] \right ]\\&= \exp \left [ \frac{y(1/\mu)}{-\phi} - \frac{ \ln \mu }{ \phi} - \frac{ \ln \phi }{ \phi} + (\frac{1-\phi}{\phi}) \ln y - \ln [\Gamma(1 / \phi)] \right ]\\&= \exp \left [ \frac{y(1/\mu)}{-\phi} + \frac{ \ln \mu }{ -\phi} - \frac{ \ln \phi }{ \phi} + (\frac{1-\phi}{\phi}) \ln y - \ln [\Gamma(1 / \phi)] \right ]\\ &= \exp \left [ \frac{y(1/\mu) - (-\ln \mu)}{-\phi} - \frac{ \ln \phi }{ \phi} + (\frac{1-\phi}{\phi}) \ln y - \ln [\Gamma(1 / \phi)] \right ]\end{aligned}\end{align} \]

                                                  公式(16.2.9) 对比下,可以直接得到各个重要组件的形式。

                                                  (16.3.3) \[ \begin{align}\begin{aligned}\theta &= 1/\mu\\b(\theta) &= -\ln(\mu)\\a(\phi) &= - \phi\end{aligned}\end{align} \]

                                                  显然 Gamma模型的标准连接函数就是倒数函数, \(\eta=g(\mu) = \theta= 1/\mu\) 。 现在我们看下 Gamma 分布的期望和方差函数。

                                                  (16.3.4) \[ \begin{align}\begin{aligned}b'(\theta) &= \frac{\partial b}{\partial \mu} \frac{\partial \mu}{\partial \theta}\\&= \left ( - \frac{1}{\mu} \right )(-\mu^2)\\&=\mu\\b''(\theta) &= \frac{\partial^2 b}{\partial \mu^2} \left ( \frac{\partial \mu}{\partial \theta} \right ) + \frac{\partial b}{\partial \mu} \frac{\partial^2\mu}{\partial \theta^2}\\&= (1)(-\mu^2)\\&= -\mu^2\end{aligned}\end{align} \]

                                                  注意, \(b''(\theta)\) 是方差函数,体现的是方差和均值的关系, 显然 Gamma 分布的方差是和其均值相关的 ,Gamma 分布的方差为:

                                                  (16.3.5) \[Var(y) = b''(\theta) a(\phi) = -\mu^2(-\phi) = \phi\mu^2\]

                                                  最后我们整理一下 Gamma 模型的一些关键组件。

                                                  (16.3.6) \[ \begin{align}\begin{aligned}\text{标准连接函数:} & \eta = g(\mu) = \frac{1}{\mu}\\\text{反链接(响应)函数:} & \mu = r(\eta) = \frac{1}{\eta}\\\text{方差函数:} & \nu(\mu)=\mu^2\\\text{分散函数:} & a(\phi) = -\phi\\\text{标准连接函数导数:} & g'=-\frac{1}{\mu^2}\end{aligned}\end{align} \]

                                                  16.4. 参数估计

                                                  16.4.1. 似然函数

                                                  概率分布函数的指数族形式 公式(16.3.2) ,直接去掉底数就得到了其对数似然函数。

                                                  (16.4.1) \[\ell(\mu,\phi;y) = \sum_{i=1}^N \left \{ \frac{y_i / \mu_i -(- \ln \mu_i)}{-\phi} + \frac{ 1-\phi}{\phi} \ln y_i - \frac{\ln \phi}{ \phi } - \ln \Gamma (1/ \phi) \right \}\]

                                                  根据 公式(8.1.12) ,标准连接函数的Gamma模型的似然函数的一阶偏导为

                                                  (16.4.2) \[ \begin{align}\begin{aligned}U_j = \frac{\partial \ell}{\partial \beta_j} &= \sum_{i=1}^N \frac{y_i-\mu_i}{a(\phi) \nu(\mu_i)g(\mu_i)' } x_{ij}\\&= - \sum_{i=1}^N \frac{y_i-\mu_i}{-\phi \mu_i^2 \eta_i^2 } x_{ij}\end{aligned}\end{align} \]

                                                  16.4.2. IRLS

                                                  只需要给出 \(W\) \(Z\) 的计算等式就可以应用IRLS算法。

                                                  (16.4.3) \[ \begin{align}\begin{aligned}W &= \text{diag} \left \{ \frac{ 1}{ a(\phi) \nu(\hat{\mu}) ( g' )^2} \right \}_{(N\times N)}\\&= \text{diag} \left \{ \frac{ -\hat{\mu}^2}{ \phi} \right \}_{(N\times N)}\end{aligned}\end{align} \] (16.4.4) \[ \begin{align}\begin{aligned}Z &= \left \{ (y- \hat{\mu}) g' + \eta \right \}_{(N\times 1 )}\\ &= \left \{ \frac{-(y- \hat{\mu})}{ \hat{\mu}^2} + \eta \right \}_{(N\times 1 )}\end{aligned}\end{align} \]

                                                  16.4.3. 拟合优度

                                                  Gamma模型的偏差统计量为

                                                  (16.4.5) \[ \begin{align}\begin{aligned}D &= 2 \{ \ell(y;y) - \ell(\hat{\mu};y)\}\\&= 2 \sum_{i=1}^N \frac{1+\ln(y_i)-y_i/\hat{\mu}_i-\ln(\hat{\mu}_i) }{-\phi}\\&= \frac{2}{\phi} \sum_{i=1}^N \left \{ \frac{y_i - \hat{\mu}_i}{\hat{\mu}_i} - \ln \left ( \frac{y_i}{\hat{\mu}_i} \right ) \right \}\end{aligned}\end{align} \]

                                                  Gamma模型的皮尔逊卡方统计量为

                                                  (16.4.6) \[ \begin{align}\begin{aligned}\chi^2 &= \sum_{i=1}^N \frac{ (y_i-\hat{\mu}_i)^2}{\nu{\hat{\mu}_i}}\\&= \sum_{i=1}^N \frac{ (y_i-\hat{\mu}_i)^2}{\hat{\mu}_i^2}\end{aligned}\end{align} \]

                                                  16.5. 其他连接函数

                                                  16.5.1. 对数 Gamma 模型

                                                  前面我们提到,在给定一组特定的解释变量或预测变量的情况下,倒数链接估计模型响应的每单位速率。 对数链接的 Gamma 表示响应的对数率。 该模型规范与指数回归相同。 当然,这样的规范估计数据呈负指数下降。 但是,与生存分析中发现的指数模型不同,我们不能将对数伽马模型用于审查数据。 但是,我们看到未经审查的指数模型可以符合GLM规范。 我们将其保留到本章末尾。

                                                  对数伽玛模型,与它的对等模型一样,用于响应大于0的数据。几乎在每个学科中都可以找到示例。 例如,在健康分析中,通常可以使用对数伽玛回归来估算住院天数(LOS), 因为住院天数总是被约束为正数。 LOS数据通常使用泊松或负二项式回归进行估计,因为LOS的元素是离散的。 但是,当存在许多LOS元素(即许多不同的LOS值)时,许多研究人员发现伽马或高斯逆模型是可以接受的并且是更可取的。

                                                  在GLM之前,通常使用对数转换响应的高斯回归来估计现在使用对数伽马技术估计的数据。 尽管两种方法的结果通常相似,但对数伽马技术不需要外部转换,更易于解释,并带有一组残差,可用于评估模型的价值。 因此,对数伽马技术正在曾经使用过高斯技术的研究人员中得到越来越多的使用。

                                                  对数 gamma 模型是值其连接函数是对数函数,其响应函数(反链接)是指数函数。

                                                  (16.5.1) \[ \begin{align}\begin{aligned}\eta &= \ln (\mu)\\\mu &= e^{\eta}\end{aligned}\end{align} \]

                                                  对数连接函数的一阶导数是 \(g'(\mu)=1\mu\) , 可以轻松的使用IRLS算法进行参数估计。 但是由于对数连接函数表示规范连接函数, IRLS算法的估计量和ML算法的估计量有不同的标准误差(standard errors)。 但是,除了极端情况外,标准误差的差异通常很小。 在较大数据集时,使用不同的估算方法通常不会产生任何推断差异。

                                                  16.5.2. 恒等(identity) Gamma 模型

                                                  恒等连接函数 \(\eta=\mu\) ,假设 \(\mu\) \(\eta\) 之间存在一一对应的关系。 高斯模型的规范链接就是恒等函数,但是Gamma模型中恒等函数不是规范链接。

                                                  在同一模型家族的不同链接之间进行选择有时可能很困难。 McCullagh和Nelder(1989)支持最小偏差的方法。 他们还检查残差以观察拟合的紧密度以及标准化残差本身的正态性和独立性。 在此示例中,我们有两个我们要比较的非规范链接:对数和恒等链接。 在其他因素都相同的情况下,最好选择偏差最小的模型。

                                                  我们也可以使用其他统计检验方法来评估链接之间的差异, 比如BIC和AIC,这些检验值较低的模型是更好一些的。 关于BIC,如果两个模型的BIC之间的绝对差小于2, 则两个模型的差异是比较小的。 2和6之间差值时,两个模型之间就有了一定的区别。 而6和10之间的差值,则说明两个模型有了明显的区别。 绝对差值大于10,那就肯定是BIC值较小的那个模型更好了。

  •