<html>

<head>
<title>Book</title>

<body bgcolor="FFFFFF" TEXT="#000001" LINK="#000009" VLINK="#000090" ALINK="#000099">

<br><img src="http://www.esat.kuleuven.ac.be/sista/lssvmlab/header.jpg" alt="[Least Squares Support Vector Machines Toolbox]" WIDTH = 700><br><br>

<font size=-1>
<table cellspacing="5" cellpadding ="10">
<tr>
<td>
<H2>Book</H2>
<b>J. A. K. Suykens, T. Van Gestel, J. De Brabanter, B. De Moor, J. Vandewalle, </b><br>
<b>Least Squares Support Vector Machines,</b><br>
<b>World Scientific, Singapore, 2002 (ISBN 981-238-151-1)</b><br><br>
</td>
<td>
<img src="http://www.esat.kuleuven.ac.be/sista/lssvmlab/kasteel3_2small.jpg" border =1 alt="[authors]" WIDTH = 200 border="0">
</tr>
</td>
</table>


<table cellspacing="5" cellpadding ="10">
<tr>
<td>
<a href="http://www.wspc.com/books/compsci/5089.html"><img src="http://www.esat.kuleuven.ac.be/sista/lssvmlab/cover_js_small.jpg" border =1 alt="[Least Squares Support Vector Machines]" WIDTH = 200 border="0"></a>
</td>
<td>
This book focuses on Least Squares Support Vector Machines (LS-SVMs) which are reformulations to standard SVMs. LS-SVMs are closely related to regularization networks and Gaussian processes but additionally emphasize and exploit primal-dual interpretations from optimization theory. The authors explain the natural links between LS-SVM classifiers and kernel Fisher discriminant analysis. Bayesian inference of LS-SVM models is discussed, together with methods for imposing sparseness and employing robust statistics. 
<p>
The framework is further extended towards unsupervised learning by considering PCA analysis and its kernel version as a one-class modelling problem. This leads to new primal-dual support vector machine formulations for kernel PCA and kernel CCA analysis. Furthermore, LS-SVM formulations are given for recurrent networks and control. In general, support vector machines may pose heavy computational challenges for large data sets. For this purpose, a method of fixed size LS-SVM is proposed where the estimation is done in the primal space in relation to a Nyström sampling with active selection of support vectors. The methods are illustrated with several examples. 
<p>
</td>
</tr>
</table>

<p>
<br>

<b>Contents: </b>
<ul>
<li> Introduction
<li> Support vector machines
<li> Least squares support vector machines, links with Gaussian
  processes, regularization networks, and kernel FDA
<li> Bayesian inference for LS-SVM models
<li> Weighted versions and robust statistics
<li> Large scale problems: Nystrom sampling, reduced set methods,
  basis formation and Fixed size LS-SVM
<li> LS-SVM for unsupervised learning: support vector machines
  formulations for kernel PCA. Related methods of kernel CCA.
<li> LS-SVM for recurrent networks and control
<li> Illustrations and applications
</ul>
<br><br>

<b>Readership:</b> Graduate students and researchers in neural networks;
machine learning; data-mining; signal processing; circuit, systems and control theory; pattern recognition; and statistics.
<br><br>

<b>Info:</b>
308pp, 
Publication date: Nov. 2002,
ISBN 981-238-151-1,
US$58 / £39
<br><br>

<b>Order information:</b>
<a href="http://www.wspc.com/books/compsci/5089.html">World Scientific</a>
<br><br>
<br><br>

</font>
</body>
</html>