Correlative Learning: A Basis for Brain and Adaptive Systems
暫譯: 相關學習:大腦與自適應系統的基礎

Zhe Chen, Simon Haykin, Jos J. Eggermont, Suzanna Becker

  • 出版商: Wiley
  • 出版日期: 2007-09-01
  • 售價: $6,720
  • 貴賓價: 9.5$6,384
  • 語言: 英文
  • 頁數: 480
  • 裝訂: Hardcover
  • ISBN: 0470044888
  • ISBN-13: 9780470044889
  • 海外代購書籍(需單獨結帳)

買這商品的人也買了...

相關主題

商品描述

Description

Correlative Learning: A Basis for Brain and Adaptive Systems provides a bridge between three disciplines: computational neuroscience, neural networks, and signal processing. First, the authors lay down the preliminary neuroscience background for engineers. The book also presents an overview of the role of correlation in the human brain as well as in the adaptive signal processing world; unifies many well-established synaptic adaptations (learning) rules within the correlation-based learning framework, focusing on a particular correlative learning paradigm, ALOPEX; and presents case studies that illustrate how to use different computational tools and ALOPEX to help readers understand certain brain functions or fit specific engineering applications.
~

Table of Contents

Foreword.

Preface.

Acknowledgments.

Acronyms.

Introduction.

1. The Correlative Brain.

1.1 Background.

1.1.1 Spiking Neurons.

1.1.2 Neocortex.

1.1.3 Receptive fields.

1.1.4 Thalamus.

1.1.5 Hippocampus.

1.2 Correlation Detection in Single Neurons.

1.3 Correlation in Ensembles of Neurons: Synchrony and Population Coding.

1.4 Correlation is the Basis of Novelty Detection and Learning.

1.5 Correlation in Sensory Systems: Coding, Perception, and Development.

1.6 Correlation in Memory Systems.

1.7 Correlation in Sensory-Motor Learning.

1.8 Correlation, Feature Binding, and Attention.

1.9 Correlation and Cortical Map Changes after Peripheral Lesions and Brain Stimulation.

1.10 Discussion.

2. Correlation in Signal Processing.

2.1 Correlation and Spectrum Analysis.

2.1.1 Stationary Process.

2.1.2 Non-stationary Process.

2.1.3 Locally Stationary Process.

2.1.4 Cyclostationary Process.

2.1.5 Hilbert Spectrum Analysis.

2.1.6 Higher Order Correlation-based Bispectra Analysis.

2.1.7 Higher Order Functions of Time, Frequency, Lag, and Doppler.

2.1.8 Spectrum Analysis of Random Point Process.

2.2 Wiener Filter.

2.3 Least-Mean-Square Filter.

2.4 Recursive Least-Squares Filter.

2.5 Matched Filter.

2.6 Higher Order Correlation-Based Filtering.

2.7 Correlation Detector.

2.7.1 Coherent Detection.

2.7.2 Correlation Filter for Spatial Target Detection.

2.8 Correlation Method for Time-Delay Estimation.

2.9 Correlation-Based Statistical Analysis.

2.9.1 Principal Component Analysis.

2.9.2 Factor Analysis.

2.9.3 Canonical Correlation Analysis.

2.9.4 Fisher Linear Discriminant Analysis.

2.9.5 Common Spatial Pattern Analysis.

2.10 Discussion.

Appendix: Eigenanalysis of Autocorrelation Function of Nonstationary Process.

Appendix: Estimation of the Intensity and Correlation Functions of Stationary Random Point Process.

Appendix: Derivation of Learning Rules with Quasi-Newton Method.

3. Correlation-Based Neural Learning and Machine Learning.

3.1 Correlation as a Mathematical Basis for Learning.

3.1.1 Hebbian and Anti-Hebbian Rules (Revisited).

3.1.2 Covariance Rule.

3.1.3 Grossberg’s Gated Steepest Descent.

3.1.4 Competitive Learning Rule.

3.1.5 BCM Learning Rule.

3.1.6 Local PCA Learning Rule.

3.1.7 Generalizations of PCA Learning.

3.1.8 CCA Learning Rule.

3.1.9 Wake-Sleep Learning Rule for Factor Analysis.

3.1.10 Boltzmann Learning Rule.

3.1.11 Perceptron Rule and Error-Correcting Learning Rule.

3.1.12 Differential Hebbian Rule and Temporal Hebbian Learning.

3.1.13 Temporal Difference and Reinforcement Learning.

3.1.14 General Correlative Learning and Potential Function.

3.2 Information-Theoretic Learning.

3.2.1 Mutual Information vs. Correlation.

3.2.2 Barlow’s Postulate.

3.2.3 Hebbian Learning and Maximum Entropy.

3.2.4 Imax Algorithm.

3.2.5 Local Decorrelative Learning.

3.2.6 Blind Source Separation.

3.2.7 Independent Component Analysis.

3.2.8 Slow Feature Analysis.

3.2.9 Energy-Efficient Hebbian Learning.

3.2.10 Discussion.

3.3 Correlation-Based Computational Neural Models.

3.3.1 Correlation Matrix Memory.

3.3.2 Hopfield Network.

3.3.3 Brain-State-in-a-Box Model.

3.3.4 Autoencoder Network.

3.3.5 Novelty Filter.

3.3.6 Neuronal Synchrony and Binding.

3.3.7 Oscillatory Correlation.

3.3.8 Modeling Auditory Functions.

3.3.9 Correlations in the Olfactory System.

3.3.10 Correlations in the Visual System.

3.3.11 Elastic Net.

3.3.12 CMAC and Motor Learning.

3.3.13 Summarizing Remarks.

Appendix: Mathematical Analysis of Hebbian Learning.

Appendix: Necessity and Convergence of Anti-Hebbian Learning.

Appendix: Link Between the Hebbian Rule and Gradient Descent.

Appendix: Reconstruction Error in Linear and Quadratic PCA.

4. Correlation-Based Kernel Learning.

4.1 Background.

4.2 Kernel PCA and Kernelized GHA.

4.3 Kernel CCA and Kernel ICA.

4.4 Kernel Principal Angles.

4.5 Kernel Discriminant Analysis.

4.6 KernelWiener Filter.

4.7 Kernel-Based Correlation Analysis: Generalized Correlation Function and Correntropy.

4.8 Kernel Matched Filter.

4.9 Discussion.

5. Correlative Learning in a Complex-Valued Domain.

5.1 Preliminaries.

5.2 Complex-Valued Extensions of Correlation-Based Learning.

5.2.1 Complex-Valued Associative Memory.

5.2.2 Complex-Valued Boltzmann Machine.

5.2.3 Complex-Valued LMS Rule.

5.2.4 Complex-Valued PCA Learning.

5.2.5 Complex-Valued ICA Learning.

5.2.6 Constant Modulus Algorithm.

5.3 Kernel Methods for Complex-Valued Data.

5.3.1 Reproducing Kernels in the Complex Domain.

5.3.2 Complex-Valued Kernel PCA.

5.4 Discussion.

6. ALOPEX: A Correlation-Based Learning Paradigm.

6.1 Background.

6.2 The Basic ALOPEX Rule.

6.3 Variants of the ALOPEX Algorithm.

6.3.1 Unnikrishnan and Venugopal’s ALOPEX.

6.3.2 Bia’s ALOPEX-B.

6.3.3 An Improved Version of the ALOPEX-B.

6.3.4 Two-Timescale ALOPEX.

6.3.5 Other Types of Correlation Mechanisms.

6.4 Discussion.

6.5 Monte Carlo Sampling-Based ALOPEX Algorithms.

6.5.1 Sequential Monte Carlo Estimation.

6.5.2 Sampling-Based ALOPEX Algorithms.

6.5.3 Remarks.

Appendix: Asymptotical Analysis of the ALOPEX Process.

Appendix: Asymptotic Convergence Analysis of the 2t-ALOPEX Algorithm.

7. Case Studies.

7.1 Hebbian Competition as the Basis for Cortical Map Reorganization?

7.2 Learning Neurocompensator: A Model-Based Hearing Compensation Strategy.

7.2.1 Background.

7.2.2 Model-Based Hearing Compensation Strategy.

7.2.3 Optimization.

7.2.4 Experimental Results.

7.2.5 Summary.

7.3 Online Training of Artificial Neural Networks.

7.3.1 Background.

7.3.2 Parameters Setup.

7.3.3 Online Option Prices Prediction.

7.3.4 Online System Identification.

7.3.5 Summary.

7.4 Kalman Filtering in Computational Neural Modeling.

7.4.1 Background.

7.4.2 Overview of Kalman Filter in Modeling Brain Functions.

7.4.3 Kalman Filter for Learning Shape and Motion from Image Sequences.

7.4.4 General Remarks and Implications.

8. Discussion.

8.1 Summary: Why Correlation?

8.1.1 Hebbian Plasticity and the Correlative Brain.

8.1.2 Correlation-Based Signal Processing.

8.1.3 Correlation-Based Machine Learning.

8.2 Epilogue: What Next?

8.2.1 Generalizing the Correlation Measure.

8.2.2 Deciphering the Correlative Brain.

Appendix A: Autocorrelation and Cross-correlation Functions.

Appendix B: Stochastic Approximation.

Appendix C: A Primer on Linear Algebra.

Appendix D: Probability Density and Entropy Estimators.

Appendix E: EM Algorithm.

Topic Index.

商品描述(中文翻譯)

**描述**

《相關學習:大腦與自適應系統的基礎》提供了計算神經科學、神經網絡和信號處理三個學科之間的橋樑。首先,作者為工程師奠定了初步的神經科學背景。該書還概述了相關性在人體大腦以及自適應信號處理世界中的角色;在基於相關性的學習框架內統一了許多成熟的突觸適應(學習)規則,專注於一個特定的相關學習範式 ALOPEX;並展示了案例研究,說明如何使用不同的計算工具和 ALOPEX 來幫助讀者理解某些大腦功能或適應特定的工程應用。

**目錄**

前言。
序言。
致謝。
縮寫詞。
引言。
**1. 相關的大腦。**
1.1 背景。
1.1.1 脈衝神經元。
1.1.2 新皮層。
1.1.3 感受野。
1.1.4 視丘。
1.1.5 海馬體。
1.2 單神經元中的相關性檢測。
1.3 神經元集群中的相關性:同步性和群體編碼。
1.4 相關性是新奇檢測和學習的基礎。
1.5 感覺系統中的相關性:編碼、感知和發展。
1.6 記憶系統中的相關性。
1.7 感覺-運動學習中的相關性。
1.8 相關性、特徵綁定和注意力。
1.9 外周損傷和大腦刺激後的相關性與皮層地圖變化。
1.10 討論。
**2. 信號處理中的相關性。**
2.1 相關性與頻譜分析。
2.1.1 穩態過程。
2.1.2 非穩態過程。
2.1.3 局部穩態過程。
2.1.4 循環穩態過程。
2.1.5 希爾伯特頻譜分析。
2.1.6 基於高階相關性的雙頻譜分析。
2.1.7 時間、頻率、延遲和多普勒的高階函數。
2.1.8 隨機點過程的頻譜分析。
2.2 威納濾波器。
2.3 最小均方濾波器。
2.4 迴歸最小二乘濾波器。
2.5 匹配濾波器。
2.6 基於高階相關性的濾波。
2.7 相關檢測器。
2.7.1 相干檢測。
2.7.2 用於空間目標檢測的相關濾波器。
2.8 時延估計的相關方法。
2.9 基於相關性的統計分析。
2.9.1 主成分分析。
2.9.2 因子分析。
2.9.3 標準相關分析。
2.9.4 費雪線性判別分析。
2.9.5 常見空間模式分析。
2.10 討論。
附錄:非穩態過程的自相關函數的特徵分析。
附錄:穩態隨機點過程的強度和相關函數的估計。
附錄:使用準牛頓法推導學習規則。
**3. 基於相關性的神經學習與機器學習。**
3.1 相關性作為學習的數學基礎。
3.1.1 赫布規則與反赫布規則(重訪)。
3.1.2 協方差規則。
3.1.3 Grossberg 的門控最陡下降法。
3.1.4 競爭學習規則。
3.1.5 BCM 學習規則。
3.1.6 局部 PCA 學習規則。
3.1.7 PCA 學習的概括。
3.1.8 CCA 學習規則。
3.1.9 因子分析的覺醒-睡眠學習規則。
3.1.10 波茲曼學習規則。
3.1.11 感知器規則和錯誤修正學習規則。
3.1.12 微分赫布規則和時間赫布學習。
3.1.13 時間差異和強化學習。
3.1.14 一般相關學習和潛在函數。
3.2 信息理論學習。
3.2.1 互信息與相關性。
3.2.2 Barlow 的假設。
3.2.3 赫布學習與最大熵。
3.2.4 Imax 算法。
3.2.5 局部去相關學習。
3.2.6 盲源分離。
3.2.7 獨立成分分析。
3.2.8 慢特徵分析。
3.2.9 能源高效的赫布學習。
3.2.10 討論。
3.3 基於相關性的計算神經模型。
3.3.1 相關矩陣記憶。
3.3.2 Hopfield 網絡。
3.3.3 大腦狀態模型。
3.3.4 自編碼器網絡。
3.3.5 新奇濾波器。
3.3.6 神經元同步與綁定。
3.3.7 振盪相關性。
3.3.8 聲音功能建模。
3.3.9 嗅覺系統中的相關性。
3.3.10 視覺系統中的相關性。
3.3.11 彈性網。
3.3.12 CMAC 和運動學習。
3.3.13 總結性評論。
附錄:赫布學習的數學分析。
附錄:反赫布學習的必要性與收斂性。
附錄:赫布規則與梯度下降之間的聯繫。
附錄:線性和二次 PCA 的重建誤差。
**4. 基於相關性的核學習。**
4.1 背景。
4.2 核 PCA 和核化 GHA。
4.3 核 CCA 和核 ICA。
4.4 核主角。
4.5 核判別分析。
4.6 核威納濾波器。
4.7 基於核的相關性分析:廣義相關函數和相關熵。
4.8 核匹配濾波器。
4.9 討論。
**5. 複數值域中的相關學習。**
5.1 初步知識。
5.2 基於相關性的學習的複數擴展。
5.2.1 複數值關聯記憶。
5.2.2 複數值波茲曼機。
5.2.3 複數值 LMS 規則。
5.2.4 複數值 PCA 學習。
5.2.5 複數值 ICA 學習。
5.2.6 常數模算法。
5.3 複數值數據的核方法。
5.3.1 複數域中的再生核。
5.3.2 複數值核 PCA。
5.4 討論。
**6. ALOPEX:基於相關性的學習範式。**
6.1 背景。
6.2 基本 ALOPEX 規則。
6.3 ALOPEX 算法的變體。
6.3.1 Unnikrishnan 和 Venugopal 的 ALOPEX。
6.3.2 Bia 的 ALOPEX-B。
6.3.3 ALOPEX-B 的改進版本。
6.3.4 雙時間尺度 ALOPEX。
6.3.5 其他類型的相關機制。
6.4 討論。
6.5 基於蒙地卡羅抽樣的 ALOPEX 算法。
6.5.1 序列蒙地卡羅估計。
6.5.2 基於抽樣的 ALOPEX 算法。
6.5.3 評論。
附錄:ALOPEX 過程的漸近分析。
附錄:2t-ALOPEX 算法的漸近收斂分析。
**7. 案例研究。**
7.1 赫布競爭作為皮層地圖重組的基礎?
7.2 學習神經補償器:基於模型的聽力補償策略。
7.2.1 背景。
7.2.2 基於模型的聽力補償策略。
7.2.3 優化。
7.2.4 實驗結果。
7.2.5 總結。
7.3 人工神經網絡的在線訓練。
7.3.1 背景。
7.3.2 參數設置。
7.3.3 在線選項價格預測。
7.3.4 在線系統識別。
7.3.5 總結。
7.4 計算神經建模中的卡爾曼濾波。
7.4.1 背景。
7.4.2 卡爾曼濾波在建模大腦功能中的概述。
7.4.3 用於從圖像序列學習形狀和運動的卡爾曼濾波。
7.4.4 一般性評論和啟示。
**8. 討論。**
8.1 總結:為什麼是相關性?
8.1.1 赫布可塑性與相關的大腦。
8.1.2 基於相關性的信號處理。
8.1.3 基於相關性的機器學習。
8.2 結語:接下來是什麼?
8.2.1 相關性度量的概括。
8.2.2 解碼相關的大腦。
附錄 A:自相關和交叉相關函數。
附錄 B:隨機近似。
附錄 C:線性代數入門。
附錄 D:概率密度和熵估計器。
附錄 E:EM 算法。
主題索引。