<?xml version="1.0" encoding="UTF-8" ?>
<oai_dc:dc schemaLocation="http://www.openarchives.org/OAI/2.0/oai_dc/ http://www.openarchives.org/OAI/2.0/oai_dc.xsd">
<dc:title>A new approach to Decimation in High Order Boltzmann Machines</dc:title>
<dc:creator>Farguell Matesanz, Enric</dc:creator>
<dc:contributor>Mazzanti Castrillejo, Ferran</dc:contributor>
<dc:contributor>Garriga Berga, Carles</dc:contributor>
<dc:contributor>Universitat Ramon Llull. La Salle</dc:contributor>
<dc:subject>Artificial Neural Networks</dc:subject>
<dc:subject>Decimation</dc:subject>
<dc:subject>Boltzmann Machines</dc:subject>
<dc:subject>Artificial Intelligence</dc:subject>
<dc:subject>Redes Neuronales Artificiales</dc:subject>
<dc:subject>Decimación</dc:subject>
<dc:subject>Máquinas de Boltzmann</dc:subject>
<dc:subject>Inteligencia artificial</dc:subject>
<dc:subject>Xarxes Neuronals Artificials</dc:subject>
<dc:subject>Decimació</dc:subject>
<dc:subject>Màquines de Boltzmann</dc:subject>
<dc:subject>Intel·ligència artificial</dc:subject>
<dc:subject>Les TIC i la seva gestió</dc:subject>
<dc:subject>51</dc:subject>
<dc:subject>62</dc:subject>
<dc:description>La Màquina de Boltzmann (MB) és una xarxa neuronal estocàstica amb l'habilitat tant d'aprendre com d'extrapolar distribucions de probabilitat. Malgrat això, mai ha arribat a ser tant emprada com d'altres models de xarxa neuronal, com ara el perceptró, degut a la complexitat tan del procés de simulació com d'aprenentatge: les quantitats que es necessiten al llarg del procés d'aprenentatge són normalment estimades mitjançant tècniques Monte Carlo (MC), a través de l'algorisme del Temprat Simulat (SA). Això ha portat a una situació on la MB és més ben aviat considerada o bé com una extensió de la xarxa de Hopfield o bé com una implementació paral·lela del SA. <br/> <br/>Malgrat aquesta relativa manca d'èxit, la comunitat científica de l'àmbit de les xarxes neuronals ha mantingut un cert interès amb el model. Una de les extensions més rellevants a la MB és la Màquina de Boltzmann d'Alt Ordre (HOBM), on els pesos poden connectar més de dues neurones simultàniament. Encara que les capacitats d'aprenentatge d'aquest model han estat analitzades per d'altres autors, no s'ha pogut establir una equivalència formal entre els pesos d'una MB i els pesos d'alt ordre de la HOBM. <br/> <br/>En aquest treball s'analitza l'equivalència entre una MB i una HOBM a través de l'extensió del mètode conegut com a decimació. Decimació és una eina emprada a física estadística que es pot també aplicar a cert tipus de MB, obtenint expressions analítiques per a calcular les correlacions necessàries per a dur a terme el procés d'aprenentatge. Per tant, la decimació evita l'ús del costós algorisme del SA. Malgrat això, en la seva forma original, la decimació podia tan sols ser aplicada a cert tipus de topologies molt poc densament connectades. La extensió que es defineix en aquest treball permet calcular aquests valors independentment de la topologia de la xarxa neuronal; aquest model es basa en afegir prou pesos d'alt ordre a una MB estàndard com per a assegurar que les equacions de la decimació es poden solucionar. <br/> <br/>Després, s'estableix una equivalència directa entre els pesos d'un model d'alt ordre, la distribució de probabilitat que pot aprendre i les matrius de Hadamard: les propietats d'aquestes matrius es poden emprar per a calcular fàcilment els pesos del sistema. Finalment, es defineix una MB estàndard amb una topologia específica que permet entendre millor la equivalència exacta entre unitats ocultes de la MB i els pesos d'alt ordre de la HOBM.</dc:description>
<dc:description>La Máquina de Boltzmann (MB) es una red neuronal estocástica con la habilidad de aprender y extrapolar distribuciones de probabilidad. Sin embargo, nunca ha llegado a ser tan popular como otros modelos de redes neuronals como, por ejemplo, el perceptrón. Esto es debido a la complejidad tanto del proceso de simulación como de aprendizaje: las cantidades que se necesitan a lo largo del proceso de aprendizaje se estiman mediante el uso de técnicas Monte Carlo (MC), a través del algoritmo del Temple Simulado (SA). En definitiva, la MB es generalmente considerada o bien una extensión de la red de Hopfield o bien como una implementación paralela del algoritmo del SA. <br/> <br/>Pese a esta relativa falta de éxito, la comunidad científica del ámbito de las redes neuronales ha mantenido un cierto interés en el modelo. Una importante extensión es la Màquina de Boltzmann de Alto Orden (HOBM), en la que los pesos pueden conectar más de dos neuronas a la vez. Pese a que este modelo ha sido analizado en profundidad por otros autores, todavía no se ha descrito una equivalencia formal entre los pesos de una MB i las conexiones de alto orden de una HOBM. <br/> <br/>En este trabajo se ha analizado la equivalencia entre una MB i una HOBM, a través de la extensión del método conocido como decimación. La decimación es una herramienta propia de la física estadística que también puede ser aplicada a ciertos modelos de MB, obteniendo expresiones analíticas para el cálculo de las cantidades necesarias en el algoritmo de aprendizaje. Por lo tanto, la decimación evita el alto coste computacional asociado al al uso del costoso algoritmo del SA. Pese a esto, en su forma original la decimación tan solo podía ser aplicada a ciertas topologías de MB, distinguidas por ser poco densamente conectadas. La extensión definida en este trabajo permite calcular estos valores independientemente de la topología de la red neuronal: este modelo se basa en añadir suficientes pesos de alto orden a una MB estándar como para asegurar que las ecuaciones de decimación pueden solucionarse. <br/> <br/>Más adelante, se establece una equivalencia directa entre los pesos de un modelo de alto orden, la distribución de probabilidad que puede aprender y las matrices tipo Hadamard. Las propiedades de este tipo de matrices se pueden usar para calcular fácilmente los pesos del sistema. Finalmente, se define una BM estándar con una topología específica que permite entender mejor la equivalencia exacta entre neuronas ocultas en la MB y los pesos de alto orden de la HOBM.</dc:description>
<dc:description>The Boltzmann Machine (BM) is a stochastic neural network with the ability of both learning and extrapolating probability distributions. However, it has never been as widely used as other neural networks such as the perceptron, due to the complexity of both the learning and recalling algorithms, and to the high computational cost required in the learning process: the quantities that are needed at the learning stage are usually estimated by Monte Carlo (MC) through the Simulated Annealing (SA) algorithm. This has led to a situation where the BM is rather considered as an evolution of the Hopfield Neural Network or as a parallel implementation of the Simulated Annealing algorithm. <br/> <br/>Despite this relative lack of success, the neural network community has continued to progress in the analysis of the dynamics of the model. One remarkable extension is the High Order Boltzmann Machine (HOBM), where weights can connect more than two neurons at a time. Although the learning capabilities of this model have already been discussed by other authors, a formal equivalence between the weights in a standard BM and the high order weights in a HOBM has not yet been established. <br/> <br/>We analyze this latter equivalence between a second order BM and a HOBM by proposing an extension of the method known as decimation. Decimation is a common tool in statistical physics that may be applied to some kind of BMs, that can be used to obtain analytical expressions for the n-unit correlation elements required in the learning process. In this way, decimation avoids using the time consuming Simulated Annealing algorithm. However, as it was first conceived, it could only deal with sparsely connected neural networks. The extension that we define in this thesis allows computing the same quantities irrespective of the topology of the network. This method is based on adding enough high order weights to a standard BM to guarantee that the system can be solved. <br/> <br/>Next, we establish a direct equivalence between the weights of a HOBM model, the probability distribution to be learnt and Hadamard matrices. The properties of these matrices can be used to easily calculate the value of the weights of the system. Finally, we define a standard BM with a very specific topology that helps us better understand the exact equivalence between hidden units in a BM and high order weights in a HOBM.</dc:description>
<dc:date>2011-04-12T18:37:12Z</dc:date>
<dc:date>2011-01-24</dc:date>
<dc:date>2011-01-20</dc:date>
<dc:date>2011-01-24</dc:date>
<dc:type>info:eu-repo/semantics/doctoralThesis</dc:type>
<dc:type>info:eu-repo/semantics/publishedVersion</dc:type>
<dc:identifier>http://www.tdx.cat/TDX-0124111-175646</dc:identifier>
<dc:identifier>http://hdl.handle.net/10803/9155</dc:identifier>
<dc:identifier>B.5718-2011</dc:identifier>
<dc:language>eng</dc:language>
<dc:rights>ADVERTIMENT. L'accés als continguts d'aquesta tesi doctoral i la seva utilització ha de respectar els drets de la persona autora. Pot ser utilitzada per a consulta o estudi personal, així com en activitats o materials d'investigació i docència en els termes establerts a l'art. 32 del Text Refós de la Llei de Propietat Intel·lectual (RDL 1/1996). Per altres utilitzacions es requereix l'autorització prèvia i expressa de la persona autora. En qualsevol cas, en la utilització dels seus continguts caldrà indicar de forma clara el nom i cognoms de la persona autora i el títol de la tesi doctoral. No s'autoritza la seva reproducció o altres formes d'explotació efectuades amb finalitats de lucre ni la seva comunicació pública des d'un lloc aliè al servei TDX. Tampoc s'autoritza la presentació del seu contingut en una finestra o marc aliè a TDX (framing). Aquesta reserva de drets afecta tant als continguts de la tesi com als seus resums i índexs.</dc:rights>
<dc:rights>info:eu-repo/semantics/openAccess</dc:rights>
<dc:format>application/pdf</dc:format>
<dc:format>application/pdf</dc:format>
<dc:publisher>Universitat Ramon Llull</dc:publisher>
<dc:source>TDX (Tesis Doctorals en Xarxa)</dc:source>
</oai_dc:dc>
<?xml version="1.0" encoding="UTF-8" ?>
<dim:dim schemaLocation="http://www.dspace.org/xmlns/dspace/dim http://www.dspace.org/schema/dim.xsd">
<dim:field element="contributor" mdschema="dc">Universitat Ramon Llull. La Salle</dim:field>
<dim:field authority="4fc25bd9-08ed-477f-87cc-518859a715fe" confidence="-1" element="contributor" mdschema="dc" qualifier="author">Farguell Matesanz, Enric</dim:field>
<dim:field element="contributor" mdschema="dc" qualifier="authoremail">efarguell@hotmail.com</dim:field>
<dim:field element="contributor" mdschema="dc" qualifier="authoremailshow">true</dim:field>
<dim:field authority="5343f741-b56e-4af4-bb52-917088ada990" confidence="-1" element="contributor" mdschema="dc" qualifier="director">Mazzanti Castrillejo, Ferran</dim:field>
<dim:field authority="e34891b5-6fc4-4b9d-91e9-3f7bacad7b14" confidence="-1" element="contributor" mdschema="dc" qualifier="tutor">Garriga Berga, Carles</dim:field>
<dim:field element="date" mdschema="dc" qualifier="accessioned">2011-04-12T18:37:12Z</dim:field>
<dim:field element="date" mdschema="dc" qualifier="available">2011-01-24</dim:field>
<dim:field element="date" mdschema="dc" qualifier="issued">2011-01-20</dim:field>
<dim:field element="date" mdschema="dc" qualifier="submitted">2011-01-24</dim:field>
<dim:field element="identifier" mdschema="dc" qualifier="uri">http://www.tdx.cat/TDX-0124111-175646</dim:field>
<dim:field element="identifier" mdschema="dc" qualifier="uri">http://hdl.handle.net/10803/9155</dim:field>
<dim:field element="identifier" mdschema="dc" qualifier="dl">B.5718-2011</dim:field>
<dim:field element="description" lang="cat" mdschema="dc" qualifier="abstract">La Màquina de Boltzmann (MB) és una xarxa neuronal estocàstica amb l'habilitat tant d'aprendre com d'extrapolar distribucions de probabilitat. Malgrat això, mai ha arribat a ser tant emprada com d'altres models de xarxa neuronal, com ara el perceptró, degut a la complexitat tan del procés de simulació com d'aprenentatge: les quantitats que es necessiten al llarg del procés d'aprenentatge són normalment estimades mitjançant tècniques Monte Carlo (MC), a través de l'algorisme del Temprat Simulat (SA). Això ha portat a una situació on la MB és més ben aviat considerada o bé com una extensió de la xarxa de Hopfield o bé com una implementació paral·lela del SA. <br/> <br/>Malgrat aquesta relativa manca d'èxit, la comunitat científica de l'àmbit de les xarxes neuronals ha mantingut un cert interès amb el model. Una de les extensions més rellevants a la MB és la Màquina de Boltzmann d'Alt Ordre (HOBM), on els pesos poden connectar més de dues neurones simultàniament. Encara que les capacitats d'aprenentatge d'aquest model han estat analitzades per d'altres autors, no s'ha pogut establir una equivalència formal entre els pesos d'una MB i els pesos d'alt ordre de la HOBM. <br/> <br/>En aquest treball s'analitza l'equivalència entre una MB i una HOBM a través de l'extensió del mètode conegut com a decimació. Decimació és una eina emprada a física estadística que es pot també aplicar a cert tipus de MB, obtenint expressions analítiques per a calcular les correlacions necessàries per a dur a terme el procés d'aprenentatge. Per tant, la decimació evita l'ús del costós algorisme del SA. Malgrat això, en la seva forma original, la decimació podia tan sols ser aplicada a cert tipus de topologies molt poc densament connectades. La extensió que es defineix en aquest treball permet calcular aquests valors independentment de la topologia de la xarxa neuronal; aquest model es basa en afegir prou pesos d'alt ordre a una MB estàndard com per a assegurar que les equacions de la decimació es poden solucionar. <br/> <br/>Després, s'estableix una equivalència directa entre els pesos d'un model d'alt ordre, la distribució de probabilitat que pot aprendre i les matrius de Hadamard: les propietats d'aquestes matrius es poden emprar per a calcular fàcilment els pesos del sistema. Finalment, es defineix una MB estàndard amb una topologia específica que permet entendre millor la equivalència exacta entre unitats ocultes de la MB i els pesos d'alt ordre de la HOBM.</dim:field>
<dim:field element="description" lang="spa" mdschema="dc" qualifier="abstract">La Máquina de Boltzmann (MB) es una red neuronal estocástica con la habilidad de aprender y extrapolar distribuciones de probabilidad. Sin embargo, nunca ha llegado a ser tan popular como otros modelos de redes neuronals como, por ejemplo, el perceptrón. Esto es debido a la complejidad tanto del proceso de simulación como de aprendizaje: las cantidades que se necesitan a lo largo del proceso de aprendizaje se estiman mediante el uso de técnicas Monte Carlo (MC), a través del algoritmo del Temple Simulado (SA). En definitiva, la MB es generalmente considerada o bien una extensión de la red de Hopfield o bien como una implementación paralela del algoritmo del SA. <br/> <br/>Pese a esta relativa falta de éxito, la comunidad científica del ámbito de las redes neuronales ha mantenido un cierto interés en el modelo. Una importante extensión es la Màquina de Boltzmann de Alto Orden (HOBM), en la que los pesos pueden conectar más de dos neuronas a la vez. Pese a que este modelo ha sido analizado en profundidad por otros autores, todavía no se ha descrito una equivalencia formal entre los pesos de una MB i las conexiones de alto orden de una HOBM. <br/> <br/>En este trabajo se ha analizado la equivalencia entre una MB i una HOBM, a través de la extensión del método conocido como decimación. La decimación es una herramienta propia de la física estadística que también puede ser aplicada a ciertos modelos de MB, obteniendo expresiones analíticas para el cálculo de las cantidades necesarias en el algoritmo de aprendizaje. Por lo tanto, la decimación evita el alto coste computacional asociado al al uso del costoso algoritmo del SA. Pese a esto, en su forma original la decimación tan solo podía ser aplicada a ciertas topologías de MB, distinguidas por ser poco densamente conectadas. La extensión definida en este trabajo permite calcular estos valores independientemente de la topología de la red neuronal: este modelo se basa en añadir suficientes pesos de alto orden a una MB estándar como para asegurar que las ecuaciones de decimación pueden solucionarse. <br/> <br/>Más adelante, se establece una equivalencia directa entre los pesos de un modelo de alto orden, la distribución de probabilidad que puede aprender y las matrices tipo Hadamard. Las propiedades de este tipo de matrices se pueden usar para calcular fácilmente los pesos del sistema. Finalmente, se define una BM estándar con una topología específica que permite entender mejor la equivalencia exacta entre neuronas ocultas en la MB y los pesos de alto orden de la HOBM.</dim:field>
<dim:field element="description" lang="eng" mdschema="dc" qualifier="abstract">The Boltzmann Machine (BM) is a stochastic neural network with the ability of both learning and extrapolating probability distributions. However, it has never been as widely used as other neural networks such as the perceptron, due to the complexity of both the learning and recalling algorithms, and to the high computational cost required in the learning process: the quantities that are needed at the learning stage are usually estimated by Monte Carlo (MC) through the Simulated Annealing (SA) algorithm. This has led to a situation where the BM is rather considered as an evolution of the Hopfield Neural Network or as a parallel implementation of the Simulated Annealing algorithm. <br/> <br/>Despite this relative lack of success, the neural network community has continued to progress in the analysis of the dynamics of the model. One remarkable extension is the High Order Boltzmann Machine (HOBM), where weights can connect more than two neurons at a time. Although the learning capabilities of this model have already been discussed by other authors, a formal equivalence between the weights in a standard BM and the high order weights in a HOBM has not yet been established. <br/> <br/>We analyze this latter equivalence between a second order BM and a HOBM by proposing an extension of the method known as decimation. Decimation is a common tool in statistical physics that may be applied to some kind of BMs, that can be used to obtain analytical expressions for the n-unit correlation elements required in the learning process. In this way, decimation avoids using the time consuming Simulated Annealing algorithm. However, as it was first conceived, it could only deal with sparsely connected neural networks. The extension that we define in this thesis allows computing the same quantities irrespective of the topology of the network. This method is based on adding enough high order weights to a standard BM to guarantee that the system can be solved. <br/> <br/>Next, we establish a direct equivalence between the weights of a HOBM model, the probability distribution to be learnt and Hadamard matrices. The properties of these matrices can be used to easily calculate the value of the weights of the system. Finally, we define a standard BM with a very specific topology that helps us better understand the exact equivalence between hidden units in a BM and high order weights in a HOBM.</dim:field>
<dim:field element="format" mdschema="dc" qualifier="mimetype">application/pdf</dim:field>
<dim:field element="language" mdschema="dc" qualifier="iso">eng</dim:field>
<dim:field element="publisher" mdschema="dc">Universitat Ramon Llull</dim:field>
<dim:field element="rights" mdschema="dc" qualifier="license">ADVERTIMENT. L'accés als continguts d'aquesta tesi doctoral i la seva utilització ha de respectar els drets de la persona autora. Pot ser utilitzada per a consulta o estudi personal, així com en activitats o materials d'investigació i docència en els termes establerts a l'art. 32 del Text Refós de la Llei de Propietat Intel·lectual (RDL 1/1996). Per altres utilitzacions es requereix l'autorització prèvia i expressa de la persona autora. En qualsevol cas, en la utilització dels seus continguts caldrà indicar de forma clara el nom i cognoms de la persona autora i el títol de la tesi doctoral. No s'autoritza la seva reproducció o altres formes d'explotació efectuades amb finalitats de lucre ni la seva comunicació pública des d'un lloc aliè al servei TDX. Tampoc s'autoritza la presentació del seu contingut en una finestra o marc aliè a TDX (framing). Aquesta reserva de drets afecta tant als continguts de la tesi com als seus resums i índexs.</dim:field>
<dim:field element="rights" lang="cat" mdschema="dc" qualifier="accessLevel">info:eu-repo/semantics/openAccess</dim:field>
<dim:field element="source" mdschema="dc">TDX (Tesis Doctorals en Xarxa)</dim:field>
<dim:field element="subject" mdschema="dc">Artificial Neural Networks</dim:field>
<dim:field element="subject" mdschema="dc">Decimation</dim:field>
<dim:field element="subject" mdschema="dc">Boltzmann Machines</dim:field>
<dim:field element="subject" mdschema="dc">Artificial Intelligence</dim:field>
<dim:field element="subject" mdschema="dc">Redes Neuronales Artificiales</dim:field>
<dim:field element="subject" mdschema="dc">Decimación</dim:field>
<dim:field element="subject" mdschema="dc">Máquinas de Boltzmann</dim:field>
<dim:field element="subject" mdschema="dc">Inteligencia artificial</dim:field>
<dim:field element="subject" mdschema="dc">Xarxes Neuronals Artificials</dim:field>
<dim:field element="subject" mdschema="dc">Decimació</dim:field>
<dim:field element="subject" mdschema="dc">Màquines de Boltzmann</dim:field>
<dim:field element="subject" mdschema="dc">Intel·ligència artificial</dim:field>
<dim:field element="subject" mdschema="dc" qualifier="other">Les TIC i la seva gestió</dim:field>
<dim:field element="subject" lang="cat" mdschema="dc" qualifier="udc">51</dim:field>
<dim:field element="subject" lang="cat" mdschema="dc" qualifier="udc">62</dim:field>
<dim:field element="title" mdschema="dc">A new approach to Decimation in High Order Boltzmann Machines</dim:field>
<dim:field element="type" mdschema="dc">info:eu-repo/semantics/doctoralThesis</dim:field>
<dim:field element="type" mdschema="dc">info:eu-repo/semantics/publishedVersion</dim:field>
</dim:dim>
<?xml version="1.0" encoding="UTF-8" ?>
<thesis schemaLocation="http://www.ndltd.org/standards/metadata/etdms/1.0/ http://www.ndltd.org/standards/metadata/etdms/1.0/etdms.xsd">
<title>A new approach to Decimation in High Order Boltzmann Machines</title>
<creator>Farguell Matesanz, Enric</creator>
<contributor>efarguell@hotmail.com</contributor>
<contributor>true</contributor>
<contributor>Mazzanti Castrillejo, Ferran</contributor>
<contributor>Garriga Berga, Carles</contributor>
<subject>Artificial Neural Networks</subject>
<subject>Decimation</subject>
<subject>Boltzmann Machines</subject>
<subject>Artificial Intelligence</subject>
<subject>Redes Neuronales Artificiales</subject>
<subject>Decimación</subject>
<subject>Máquinas de Boltzmann</subject>
<subject>Inteligencia artificial</subject>
<subject>Xarxes Neuronals Artificials</subject>
<subject>Decimació</subject>
<subject>Màquines de Boltzmann</subject>
<subject>Intel·ligència artificial</subject>
<description>La Màquina de Boltzmann (MB) és una xarxa neuronal estocàstica amb l'habilitat tant d'aprendre com d'extrapolar distribucions de probabilitat. Malgrat això, mai ha arribat a ser tant emprada com d'altres models de xarxa neuronal, com ara el perceptró, degut a la complexitat tan del procés de simulació com d'aprenentatge: les quantitats que es necessiten al llarg del procés d'aprenentatge són normalment estimades mitjançant tècniques Monte Carlo (MC), a través de l'algorisme del Temprat Simulat (SA). Això ha portat a una situació on la MB és més ben aviat considerada o bé com una extensió de la xarxa de Hopfield o bé com una implementació paral·lela del SA. <br/> <br/>Malgrat aquesta relativa manca d'èxit, la comunitat científica de l'àmbit de les xarxes neuronals ha mantingut un cert interès amb el model. Una de les extensions més rellevants a la MB és la Màquina de Boltzmann d'Alt Ordre (HOBM), on els pesos poden connectar més de dues neurones simultàniament. Encara que les capacitats d'aprenentatge d'aquest model han estat analitzades per d'altres autors, no s'ha pogut establir una equivalència formal entre els pesos d'una MB i els pesos d'alt ordre de la HOBM. <br/> <br/>En aquest treball s'analitza l'equivalència entre una MB i una HOBM a través de l'extensió del mètode conegut com a decimació. Decimació és una eina emprada a física estadística que es pot també aplicar a cert tipus de MB, obtenint expressions analítiques per a calcular les correlacions necessàries per a dur a terme el procés d'aprenentatge. Per tant, la decimació evita l'ús del costós algorisme del SA. Malgrat això, en la seva forma original, la decimació podia tan sols ser aplicada a cert tipus de topologies molt poc densament connectades. La extensió que es defineix en aquest treball permet calcular aquests valors independentment de la topologia de la xarxa neuronal; aquest model es basa en afegir prou pesos d'alt ordre a una MB estàndard com per a assegurar que les equacions de la decimació es poden solucionar. <br/> <br/>Després, s'estableix una equivalència directa entre els pesos d'un model d'alt ordre, la distribució de probabilitat que pot aprendre i les matrius de Hadamard: les propietats d'aquestes matrius es poden emprar per a calcular fàcilment els pesos del sistema. Finalment, es defineix una MB estàndard amb una topologia específica que permet entendre millor la equivalència exacta entre unitats ocultes de la MB i els pesos d'alt ordre de la HOBM.</description>
<description>La Máquina de Boltzmann (MB) es una red neuronal estocástica con la habilidad de aprender y extrapolar distribuciones de probabilidad. Sin embargo, nunca ha llegado a ser tan popular como otros modelos de redes neuronals como, por ejemplo, el perceptrón. Esto es debido a la complejidad tanto del proceso de simulación como de aprendizaje: las cantidades que se necesitan a lo largo del proceso de aprendizaje se estiman mediante el uso de técnicas Monte Carlo (MC), a través del algoritmo del Temple Simulado (SA). En definitiva, la MB es generalmente considerada o bien una extensión de la red de Hopfield o bien como una implementación paralela del algoritmo del SA. <br/> <br/>Pese a esta relativa falta de éxito, la comunidad científica del ámbito de las redes neuronales ha mantenido un cierto interés en el modelo. Una importante extensión es la Màquina de Boltzmann de Alto Orden (HOBM), en la que los pesos pueden conectar más de dos neuronas a la vez. Pese a que este modelo ha sido analizado en profundidad por otros autores, todavía no se ha descrito una equivalencia formal entre los pesos de una MB i las conexiones de alto orden de una HOBM. <br/> <br/>En este trabajo se ha analizado la equivalencia entre una MB i una HOBM, a través de la extensión del método conocido como decimación. La decimación es una herramienta propia de la física estadística que también puede ser aplicada a ciertos modelos de MB, obteniendo expresiones analíticas para el cálculo de las cantidades necesarias en el algoritmo de aprendizaje. Por lo tanto, la decimación evita el alto coste computacional asociado al al uso del costoso algoritmo del SA. Pese a esto, en su forma original la decimación tan solo podía ser aplicada a ciertas topologías de MB, distinguidas por ser poco densamente conectadas. La extensión definida en este trabajo permite calcular estos valores independientemente de la topología de la red neuronal: este modelo se basa en añadir suficientes pesos de alto orden a una MB estándar como para asegurar que las ecuaciones de decimación pueden solucionarse. <br/> <br/>Más adelante, se establece una equivalencia directa entre los pesos de un modelo de alto orden, la distribución de probabilidad que puede aprender y las matrices tipo Hadamard. Las propiedades de este tipo de matrices se pueden usar para calcular fácilmente los pesos del sistema. Finalmente, se define una BM estándar con una topología específica que permite entender mejor la equivalencia exacta entre neuronas ocultas en la MB y los pesos de alto orden de la HOBM.</description>
<description>The Boltzmann Machine (BM) is a stochastic neural network with the ability of both learning and extrapolating probability distributions. However, it has never been as widely used as other neural networks such as the perceptron, due to the complexity of both the learning and recalling algorithms, and to the high computational cost required in the learning process: the quantities that are needed at the learning stage are usually estimated by Monte Carlo (MC) through the Simulated Annealing (SA) algorithm. This has led to a situation where the BM is rather considered as an evolution of the Hopfield Neural Network or as a parallel implementation of the Simulated Annealing algorithm. <br/> <br/>Despite this relative lack of success, the neural network community has continued to progress in the analysis of the dynamics of the model. One remarkable extension is the High Order Boltzmann Machine (HOBM), where weights can connect more than two neurons at a time. Although the learning capabilities of this model have already been discussed by other authors, a formal equivalence between the weights in a standard BM and the high order weights in a HOBM has not yet been established. <br/> <br/>We analyze this latter equivalence between a second order BM and a HOBM by proposing an extension of the method known as decimation. Decimation is a common tool in statistical physics that may be applied to some kind of BMs, that can be used to obtain analytical expressions for the n-unit correlation elements required in the learning process. In this way, decimation avoids using the time consuming Simulated Annealing algorithm. However, as it was first conceived, it could only deal with sparsely connected neural networks. The extension that we define in this thesis allows computing the same quantities irrespective of the topology of the network. This method is based on adding enough high order weights to a standard BM to guarantee that the system can be solved. <br/> <br/>Next, we establish a direct equivalence between the weights of a HOBM model, the probability distribution to be learnt and Hadamard matrices. The properties of these matrices can be used to easily calculate the value of the weights of the system. Finally, we define a standard BM with a very specific topology that helps us better understand the exact equivalence between hidden units in a BM and high order weights in a HOBM.</description>
<date>2011-04-12</date>
<date>2011-01-24</date>
<date>2011-01-20</date>
<date>2011-01-24</date>
<type>info:eu-repo/semantics/doctoralThesis</type>
<type>info:eu-repo/semantics/publishedVersion</type>
<identifier>http://www.tdx.cat/TDX-0124111-175646</identifier>
<identifier>http://hdl.handle.net/10803/9155</identifier>
<identifier>B.5718-2011</identifier>
<language>eng</language>
<rights>ADVERTIMENT. L'accés als continguts d'aquesta tesi doctoral i la seva utilització ha de respectar els drets de la persona autora. Pot ser utilitzada per a consulta o estudi personal, així com en activitats o materials d'investigació i docència en els termes establerts a l'art. 32 del Text Refós de la Llei de Propietat Intel·lectual (RDL 1/1996). Per altres utilitzacions es requereix l'autorització prèvia i expressa de la persona autora. En qualsevol cas, en la utilització dels seus continguts caldrà indicar de forma clara el nom i cognoms de la persona autora i el títol de la tesi doctoral. No s'autoritza la seva reproducció o altres formes d'explotació efectuades amb finalitats de lucre ni la seva comunicació pública des d'un lloc aliè al servei TDX. Tampoc s'autoritza la presentació del seu contingut en una finestra o marc aliè a TDX (framing). Aquesta reserva de drets afecta tant als continguts de la tesi com als seus resums i índexs.</rights>
<rights>info:eu-repo/semantics/openAccess</rights>
<publisher>Universitat Ramon Llull</publisher>
<source>TDX (Tesis Doctorals en Xarxa)</source>
</thesis>
<?xml version="1.0" encoding="UTF-8" ?>
<record schemaLocation="http://www.loc.gov/MARC21/slim http://www.loc.gov/standards/marcxml/schema/MARC21slim.xsd">
<leader>00925njm 22002777a 4500</leader>
<datafield ind1=" " ind2=" " tag="042">
<subfield code="a">dc</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="720">
<subfield code="a">Farguell Matesanz, Enric</subfield>
<subfield code="e">author</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="260">
<subfield code="c">2011-01-20</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="520">
<subfield code="a">La Màquina de Boltzmann (MB) és una xarxa neuronal estocàstica amb l'habilitat tant d'aprendre com d'extrapolar distribucions de probabilitat. Malgrat això, mai ha arribat a ser tant emprada com d'altres models de xarxa neuronal, com ara el perceptró, degut a la complexitat tan del procés de simulació com d'aprenentatge: les quantitats que es necessiten al llarg del procés d'aprenentatge són normalment estimades mitjançant tècniques Monte Carlo (MC), a través de l'algorisme del Temprat Simulat (SA). Això ha portat a una situació on la MB és més ben aviat considerada o bé com una extensió de la xarxa de Hopfield o bé com una implementació paral·lela del SA. <br/> <br/>Malgrat aquesta relativa manca d'èxit, la comunitat científica de l'àmbit de les xarxes neuronals ha mantingut un cert interès amb el model. Una de les extensions més rellevants a la MB és la Màquina de Boltzmann d'Alt Ordre (HOBM), on els pesos poden connectar més de dues neurones simultàniament. Encara que les capacitats d'aprenentatge d'aquest model han estat analitzades per d'altres autors, no s'ha pogut establir una equivalència formal entre els pesos d'una MB i els pesos d'alt ordre de la HOBM. <br/> <br/>En aquest treball s'analitza l'equivalència entre una MB i una HOBM a través de l'extensió del mètode conegut com a decimació. Decimació és una eina emprada a física estadística que es pot també aplicar a cert tipus de MB, obtenint expressions analítiques per a calcular les correlacions necessàries per a dur a terme el procés d'aprenentatge. Per tant, la decimació evita l'ús del costós algorisme del SA. Malgrat això, en la seva forma original, la decimació podia tan sols ser aplicada a cert tipus de topologies molt poc densament connectades. La extensió que es defineix en aquest treball permet calcular aquests valors independentment de la topologia de la xarxa neuronal; aquest model es basa en afegir prou pesos d'alt ordre a una MB estàndard com per a assegurar que les equacions de la decimació es poden solucionar. <br/> <br/>Després, s'estableix una equivalència directa entre els pesos d'un model d'alt ordre, la distribució de probabilitat que pot aprendre i les matrius de Hadamard: les propietats d'aquestes matrius es poden emprar per a calcular fàcilment els pesos del sistema. Finalment, es defineix una MB estàndard amb una topologia específica que permet entendre millor la equivalència exacta entre unitats ocultes de la MB i els pesos d'alt ordre de la HOBM.</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="520">
<subfield code="a">La Máquina de Boltzmann (MB) es una red neuronal estocástica con la habilidad de aprender y extrapolar distribuciones de probabilidad. Sin embargo, nunca ha llegado a ser tan popular como otros modelos de redes neuronals como, por ejemplo, el perceptrón. Esto es debido a la complejidad tanto del proceso de simulación como de aprendizaje: las cantidades que se necesitan a lo largo del proceso de aprendizaje se estiman mediante el uso de técnicas Monte Carlo (MC), a través del algoritmo del Temple Simulado (SA). En definitiva, la MB es generalmente considerada o bien una extensión de la red de Hopfield o bien como una implementación paralela del algoritmo del SA. <br/> <br/>Pese a esta relativa falta de éxito, la comunidad científica del ámbito de las redes neuronales ha mantenido un cierto interés en el modelo. Una importante extensión es la Màquina de Boltzmann de Alto Orden (HOBM), en la que los pesos pueden conectar más de dos neuronas a la vez. Pese a que este modelo ha sido analizado en profundidad por otros autores, todavía no se ha descrito una equivalencia formal entre los pesos de una MB i las conexiones de alto orden de una HOBM. <br/> <br/>En este trabajo se ha analizado la equivalencia entre una MB i una HOBM, a través de la extensión del método conocido como decimación. La decimación es una herramienta propia de la física estadística que también puede ser aplicada a ciertos modelos de MB, obteniendo expresiones analíticas para el cálculo de las cantidades necesarias en el algoritmo de aprendizaje. Por lo tanto, la decimación evita el alto coste computacional asociado al al uso del costoso algoritmo del SA. Pese a esto, en su forma original la decimación tan solo podía ser aplicada a ciertas topologías de MB, distinguidas por ser poco densamente conectadas. La extensión definida en este trabajo permite calcular estos valores independientemente de la topología de la red neuronal: este modelo se basa en añadir suficientes pesos de alto orden a una MB estándar como para asegurar que las ecuaciones de decimación pueden solucionarse. <br/> <br/>Más adelante, se establece una equivalencia directa entre los pesos de un modelo de alto orden, la distribución de probabilidad que puede aprender y las matrices tipo Hadamard. Las propiedades de este tipo de matrices se pueden usar para calcular fácilmente los pesos del sistema. Finalmente, se define una BM estándar con una topología específica que permite entender mejor la equivalencia exacta entre neuronas ocultas en la MB y los pesos de alto orden de la HOBM.</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="520">
<subfield code="a">The Boltzmann Machine (BM) is a stochastic neural network with the ability of both learning and extrapolating probability distributions. However, it has never been as widely used as other neural networks such as the perceptron, due to the complexity of both the learning and recalling algorithms, and to the high computational cost required in the learning process: the quantities that are needed at the learning stage are usually estimated by Monte Carlo (MC) through the Simulated Annealing (SA) algorithm. This has led to a situation where the BM is rather considered as an evolution of the Hopfield Neural Network or as a parallel implementation of the Simulated Annealing algorithm. <br/> <br/>Despite this relative lack of success, the neural network community has continued to progress in the analysis of the dynamics of the model. One remarkable extension is the High Order Boltzmann Machine (HOBM), where weights can connect more than two neurons at a time. Although the learning capabilities of this model have already been discussed by other authors, a formal equivalence between the weights in a standard BM and the high order weights in a HOBM has not yet been established. <br/> <br/>We analyze this latter equivalence between a second order BM and a HOBM by proposing an extension of the method known as decimation. Decimation is a common tool in statistical physics that may be applied to some kind of BMs, that can be used to obtain analytical expressions for the n-unit correlation elements required in the learning process. In this way, decimation avoids using the time consuming Simulated Annealing algorithm. However, as it was first conceived, it could only deal with sparsely connected neural networks. The extension that we define in this thesis allows computing the same quantities irrespective of the topology of the network. This method is based on adding enough high order weights to a standard BM to guarantee that the system can be solved. <br/> <br/>Next, we establish a direct equivalence between the weights of a HOBM model, the probability distribution to be learnt and Hadamard matrices. The properties of these matrices can be used to easily calculate the value of the weights of the system. Finally, we define a standard BM with a very specific topology that helps us better understand the exact equivalence between hidden units in a BM and high order weights in a HOBM.</subfield>
</datafield>
<datafield ind1="8" ind2=" " tag="024">
<subfield code="a">http://www.tdx.cat/TDX-0124111-175646</subfield>
</datafield>
<datafield ind1="8" ind2=" " tag="024">
<subfield code="a">http://hdl.handle.net/10803/9155</subfield>
</datafield>
<datafield ind1="8" ind2=" " tag="024">
<subfield code="a">B.5718-2011</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Artificial Neural Networks</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Decimation</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Boltzmann Machines</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Artificial Intelligence</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Redes Neuronales Artificiales</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Decimación</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Máquinas de Boltzmann</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Inteligencia artificial</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Xarxes Neuronals Artificials</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Decimació</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Màquines de Boltzmann</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Intel·ligència artificial</subfield>
</datafield>
<datafield ind1="0" ind2="0" tag="245">
<subfield code="a">A new approach to Decimation in High Order Boltzmann Machines</subfield>
</datafield>
</record>
<?xml version="1.0" encoding="UTF-8" ?>
<record schemaLocation="http://www.loc.gov/MARC21/slim http://www.loc.gov/standards/marcxml/schema/MARC21slim.xsd">
<leader>nam a 5i 4500</leader>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Artificial Neural Networks</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Decimation</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Boltzmann Machines</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Artificial Intelligence</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Redes Neuronales Artificiales</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Decimación</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Máquinas de Boltzmann</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Inteligencia artificial</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Xarxes Neuronals Artificials</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Decimació</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Màquines de Boltzmann</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Intel·ligència artificial</subfield>
</datafield>
<datafield ind1="1" ind2="0" tag="245">
<subfield code="a">A new approach to Decimation in High Order Boltzmann Machines</subfield>
</datafield>
<datafield ind1=" " ind2="1" tag="264">
<subfield code="a">[Barcelona] :</subfield>
<subfield code="b">Universitat Ramon Llull,</subfield>
<subfield code="c">2011</subfield>
</datafield>
<datafield ind1="4" ind2="0" tag="856">
<subfield code="z">Accés lliure</subfield>
<subfield code="u">http://hdl.handle.net/10803/9155</subfield>
</datafield>
<controlfield tag="007">cr |||||||||||</controlfield>
<controlfield tag="008">AAMMDDs2011 sp ||||fsm||||0|| 0 eng|c</controlfield>
<datafield ind1="1" ind2=" " tag="100">
<subfield code="a">Farguell Matesanz, Enric,</subfield>
<subfield code="e">autor</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="502">
<subfield code="g">Tesi</subfield>
<subfield code="b">Doctorat</subfield>
<subfield code="c">Universitat Ramon Llull. La Salle</subfield>
<subfield code="d">2011</subfield>
</datafield>
<datafield ind1="2" ind2=" " tag="710">
<subfield code="a">Universitat Ramon Llull. La Salle</subfield>
</datafield>
<datafield ind1=" " ind2="4" tag="655">
<subfield code="a">Tesis i dissertacions electròniques</subfield>
</datafield>
<datafield ind1="1" ind2=" " tag="700">
<subfield code="a">Mazzanti Castrillejo, Ferran,</subfield>
<subfield code="e">supervisor acadèmic</subfield>
</datafield>
<datafield ind1="1" ind2=" " tag="700">
<subfield code="a">Garriga Berga, Carles,</subfield>
<subfield code="e">supervisor acadèmic</subfield>
</datafield>
<datafield ind1="0" ind2=" " tag="730">
<subfield code="a">TDX</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="520">
<subfield code="a">La Màquina de Boltzmann (MB) és una xarxa neuronal estocàstica amb l'habilitat tant d'aprendre com d'extrapolar distribucions de probabilitat. Malgrat això, mai ha arribat a ser tant emprada com d'altres models de xarxa neuronal, com ara el perceptró, degut a la complexitat tan del procés de simulació com d'aprenentatge: les quantitats que es necessiten al llarg del procés d'aprenentatge són normalment estimades mitjançant tècniques Monte Carlo (MC), a través de l'algorisme del Temprat Simulat (SA). Això ha portat a una situació on la MB és més ben aviat considerada o bé com una extensió de la xarxa de Hopfield o bé com una implementació paral·lela del SA. <br/> <br/>Malgrat aquesta relativa manca d'èxit, la comunitat científica de l'àmbit de les xarxes neuronals ha mantingut un cert interès amb el model. Una de les extensions més rellevants a la MB és la Màquina de Boltzmann d'Alt Ordre (HOBM), on els pesos poden connectar més de dues neurones simultàniament. Encara que les capacitats d'aprenentatge d'aquest model han estat analitzades per d'altres autors, no s'ha pogut establir una equivalència formal entre els pesos d'una MB i els pesos d'alt ordre de la HOBM. <br/> <br/>En aquest treball s'analitza l'equivalència entre una MB i una HOBM a través de l'extensió del mètode conegut com a decimació. Decimació és una eina emprada a física estadística que es pot també aplicar a cert tipus de MB, obtenint expressions analítiques per a calcular les correlacions necessàries per a dur a terme el procés d'aprenentatge. Per tant, la decimació evita l'ús del costós algorisme del SA. Malgrat això, en la seva forma original, la decimació podia tan sols ser aplicada a cert tipus de topologies molt poc densament connectades. La extensió que es defineix en aquest treball permet calcular aquests valors independentment de la topologia de la xarxa neuronal; aquest model es basa en afegir prou pesos d'alt ordre a una MB estàndard com per a assegurar que les equacions de la decimació es poden solucionar. <br/> <br/>Després, s'estableix una equivalència directa entre els pesos d'un model d'alt ordre, la distribució de probabilitat que pot aprendre i les matrius de Hadamard: les propietats d'aquestes matrius es poden emprar per a calcular fàcilment els pesos del sistema. Finalment, es defineix una MB estàndard amb una topologia específica que permet entendre millor la equivalència exacta entre unitats ocultes de la MB i els pesos d'alt ordre de la HOBM.</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="998">
<subfield code="a">u71</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="040">
<subfield code="a">ES-BaCBU</subfield>
<subfield code="b">cat</subfield>
<subfield code="e">rda</subfield>
<subfield code="c">ES-BaCBU</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="336">
<subfield code="a">text</subfield>
<subfield code="b">txt</subfield>
<subfield code="2">rdacontent</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="337">
<subfield code="a">informàtic</subfield>
<subfield code="b">c</subfield>
<subfield code="2">rdamedia</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="338">
<subfield code="a">recurs en línia</subfield>
<subfield code="b">cr</subfield>
<subfield code="2">rdacarrier</subfield>
</datafield>
</record>
<?xml version="1.0" encoding="UTF-8" ?>
<mets ID=" DSpace_ITEM_10803-9155" OBJID=" hdl:10803/9155" PROFILE="DSpace METS SIP Profile 1.0" TYPE="DSpace ITEM" schemaLocation="http://www.loc.gov/METS/ http://www.loc.gov/standards/mets/mets.xsd">
<metsHdr CREATEDATE="2024-09-05T17:52:14Z">
<agent ROLE="CUSTODIAN" TYPE="ORGANIZATION">
<name>TDX (Tesis Doctorals en Xarxa)</name>
</agent>
</metsHdr>
<dmdSec ID="DMD_10803_9155">
<mdWrap MDTYPE="MODS">
<xmlData schemaLocation="http://www.loc.gov/mods/v3 http://www.loc.gov/standards/mods/v3/mods-3-1.xsd">
<mods:mods schemaLocation="http://www.loc.gov/mods/v3 http://www.loc.gov/standards/mods/v3/mods-3-1.xsd">
<mods:name>
<mods:role>
<mods:roleTerm type="text">author</mods:roleTerm>
</mods:role>
<mods:namePart>Farguell Matesanz, Enric</mods:namePart>
</mods:name>
<mods:name>
<mods:role>
<mods:roleTerm type="text">authoremail</mods:roleTerm>
</mods:role>
<mods:namePart>efarguell@hotmail.com</mods:namePart>
</mods:name>
<mods:name>
<mods:role>
<mods:roleTerm type="text">authoremailshow</mods:roleTerm>
</mods:role>
<mods:namePart>true</mods:namePart>
</mods:name>
<mods:name>
<mods:role>
<mods:roleTerm type="text">director</mods:roleTerm>
</mods:role>
<mods:namePart>Mazzanti Castrillejo, Ferran</mods:namePart>
</mods:name>
<mods:name>
<mods:role>
<mods:roleTerm type="text">tutor</mods:roleTerm>
</mods:role>
<mods:namePart>Garriga Berga, Carles</mods:namePart>
</mods:name>
<mods:extension>
<mods:dateAccessioned encoding="iso8601">2011-04-12T18:37:12Z</mods:dateAccessioned>
</mods:extension>
<mods:extension>
<mods:dateAvailable encoding="iso8601">2011-01-24</mods:dateAvailable>
</mods:extension>
<mods:originInfo>
<mods:dateIssued encoding="iso8601">2011-01-20</mods:dateIssued>
</mods:originInfo>
<mods:identifier type="uri">http://www.tdx.cat/TDX-0124111-175646http://hdl.handle.net/10803/9155</mods:identifier>
<mods:identifier type="dl">B.5718-2011</mods:identifier>
<mods:abstract>La Màquina de Boltzmann (MB) és una xarxa neuronal estocàstica amb l'habilitat tant d'aprendre com d'extrapolar distribucions de probabilitat. Malgrat això, mai ha arribat a ser tant emprada com d'altres models de xarxa neuronal, com ara el perceptró, degut a la complexitat tan del procés de simulació com d'aprenentatge: les quantitats que es necessiten al llarg del procés d'aprenentatge són normalment estimades mitjançant tècniques Monte Carlo (MC), a través de l'algorisme del Temprat Simulat (SA). Això ha portat a una situació on la MB és més ben aviat considerada o bé com una extensió de la xarxa de Hopfield o bé com una implementació paral·lela del SA. <br/> <br/>Malgrat aquesta relativa manca d'èxit, la comunitat científica de l'àmbit de les xarxes neuronals ha mantingut un cert interès amb el model. Una de les extensions més rellevants a la MB és la Màquina de Boltzmann d'Alt Ordre (HOBM), on els pesos poden connectar més de dues neurones simultàniament. Encara que les capacitats d'aprenentatge d'aquest model han estat analitzades per d'altres autors, no s'ha pogut establir una equivalència formal entre els pesos d'una MB i els pesos d'alt ordre de la HOBM. <br/> <br/>En aquest treball s'analitza l'equivalència entre una MB i una HOBM a través de l'extensió del mètode conegut com a decimació. Decimació és una eina emprada a física estadística que es pot també aplicar a cert tipus de MB, obtenint expressions analítiques per a calcular les correlacions necessàries per a dur a terme el procés d'aprenentatge. Per tant, la decimació evita l'ús del costós algorisme del SA. Malgrat això, en la seva forma original, la decimació podia tan sols ser aplicada a cert tipus de topologies molt poc densament connectades. La extensió que es defineix en aquest treball permet calcular aquests valors independentment de la topologia de la xarxa neuronal; aquest model es basa en afegir prou pesos d'alt ordre a una MB estàndard com per a assegurar que les equacions de la decimació es poden solucionar. <br/> <br/>Després, s'estableix una equivalència directa entre els pesos d'un model d'alt ordre, la distribució de probabilitat que pot aprendre i les matrius de Hadamard: les propietats d'aquestes matrius es poden emprar per a calcular fàcilment els pesos del sistema. Finalment, es defineix una MB estàndard amb una topologia específica que permet entendre millor la equivalència exacta entre unitats ocultes de la MB i els pesos d'alt ordre de la HOBM.</mods:abstract>
<mods:abstract>La Máquina de Boltzmann (MB) es una red neuronal estocástica con la habilidad de aprender y extrapolar distribuciones de probabilidad. Sin embargo, nunca ha llegado a ser tan popular como otros modelos de redes neuronals como, por ejemplo, el perceptrón. Esto es debido a la complejidad tanto del proceso de simulación como de aprendizaje: las cantidades que se necesitan a lo largo del proceso de aprendizaje se estiman mediante el uso de técnicas Monte Carlo (MC), a través del algoritmo del Temple Simulado (SA). En definitiva, la MB es generalmente considerada o bien una extensión de la red de Hopfield o bien como una implementación paralela del algoritmo del SA. <br/> <br/>Pese a esta relativa falta de éxito, la comunidad científica del ámbito de las redes neuronales ha mantenido un cierto interés en el modelo. Una importante extensión es la Màquina de Boltzmann de Alto Orden (HOBM), en la que los pesos pueden conectar más de dos neuronas a la vez. Pese a que este modelo ha sido analizado en profundidad por otros autores, todavía no se ha descrito una equivalencia formal entre los pesos de una MB i las conexiones de alto orden de una HOBM. <br/> <br/>En este trabajo se ha analizado la equivalencia entre una MB i una HOBM, a través de la extensión del método conocido como decimación. La decimación es una herramienta propia de la física estadística que también puede ser aplicada a ciertos modelos de MB, obteniendo expresiones analíticas para el cálculo de las cantidades necesarias en el algoritmo de aprendizaje. Por lo tanto, la decimación evita el alto coste computacional asociado al al uso del costoso algoritmo del SA. Pese a esto, en su forma original la decimación tan solo podía ser aplicada a ciertas topologías de MB, distinguidas por ser poco densamente conectadas. La extensión definida en este trabajo permite calcular estos valores independientemente de la topología de la red neuronal: este modelo se basa en añadir suficientes pesos de alto orden a una MB estándar como para asegurar que las ecuaciones de decimación pueden solucionarse. <br/> <br/>Más adelante, se establece una equivalencia directa entre los pesos de un modelo de alto orden, la distribución de probabilidad que puede aprender y las matrices tipo Hadamard. Las propiedades de este tipo de matrices se pueden usar para calcular fácilmente los pesos del sistema. Finalmente, se define una BM estándar con una topología específica que permite entender mejor la equivalencia exacta entre neuronas ocultas en la MB y los pesos de alto orden de la HOBM.</mods:abstract>
<mods:abstract>The Boltzmann Machine (BM) is a stochastic neural network with the ability of both learning and extrapolating probability distributions. However, it has never been as widely used as other neural networks such as the perceptron, due to the complexity of both the learning and recalling algorithms, and to the high computational cost required in the learning process: the quantities that are needed at the learning stage are usually estimated by Monte Carlo (MC) through the Simulated Annealing (SA) algorithm. This has led to a situation where the BM is rather considered as an evolution of the Hopfield Neural Network or as a parallel implementation of the Simulated Annealing algorithm. <br/> <br/>Despite this relative lack of success, the neural network community has continued to progress in the analysis of the dynamics of the model. One remarkable extension is the High Order Boltzmann Machine (HOBM), where weights can connect more than two neurons at a time. Although the learning capabilities of this model have already been discussed by other authors, a formal equivalence between the weights in a standard BM and the high order weights in a HOBM has not yet been established. <br/> <br/>We analyze this latter equivalence between a second order BM and a HOBM by proposing an extension of the method known as decimation. Decimation is a common tool in statistical physics that may be applied to some kind of BMs, that can be used to obtain analytical expressions for the n-unit correlation elements required in the learning process. In this way, decimation avoids using the time consuming Simulated Annealing algorithm. However, as it was first conceived, it could only deal with sparsely connected neural networks. The extension that we define in this thesis allows computing the same quantities irrespective of the topology of the network. This method is based on adding enough high order weights to a standard BM to guarantee that the system can be solved. <br/> <br/>Next, we establish a direct equivalence between the weights of a HOBM model, the probability distribution to be learnt and Hadamard matrices. The properties of these matrices can be used to easily calculate the value of the weights of the system. Finally, we define a standard BM with a very specific topology that helps us better understand the exact equivalence between hidden units in a BM and high order weights in a HOBM.</mods:abstract>
<mods:language>
<mods:languageTerm authority="rfc3066">eng</mods:languageTerm>
</mods:language>
<mods:subject>
<mods:topic>Artificial Neural Networks</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Decimation</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Boltzmann Machines</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Artificial Intelligence</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Redes Neuronales Artificiales</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Decimación</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Máquinas de Boltzmann</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Inteligencia artificial</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Xarxes Neuronals Artificials</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Decimació</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Màquines de Boltzmann</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Intel·ligència artificial</mods:topic>
</mods:subject>
<mods:titleInfo>
<mods:title>A new approach to Decimation in High Order Boltzmann Machines</mods:title>
</mods:titleInfo>
<mods:genre>info:eu-repo/semantics/doctoralThesis info:eu-repo/semantics/publishedVersion</mods:genre>
</mods:mods>
</xmlData>
</mdWrap>
</dmdSec>
<amdSec ID="FO_10803_9155_1">
<techMD ID="TECH_O_10803_9155_1">
<mdWrap MDTYPE="PREMIS">
<xmlData schemaLocation="http://www.loc.gov/standards/premis http://www.loc.gov/standards/premis/PREMIS-v1-0.xsd">
<premis:premis>
<premis:object>
<premis:objectIdentifier>
<premis:objectIdentifierType>URL</premis:objectIdentifierType>
<premis:objectIdentifierValue>https://www.tdx.cat/bitstream/10803/9155/1/EFarguellPhD_MemoriaTDX.pdf</premis:objectIdentifierValue>
</premis:objectIdentifier>
<premis:objectCategory>File</premis:objectCategory>
<premis:objectCharacteristics>
<premis:fixity>
<premis:messageDigestAlgorithm>MD5</premis:messageDigestAlgorithm>
<premis:messageDigest>efacff8844310d7f57947e3465c6b642</premis:messageDigest>
</premis:fixity>
<premis:size>1526033</premis:size>
<premis:format>
<premis:formatDesignation>
<premis:formatName>application/pdf</premis:formatName>
</premis:formatDesignation>
</premis:format>
</premis:objectCharacteristics>
<premis:originalName>EFarguellPhD_MemoriaTDX.pdf</premis:originalName>
</premis:object>
</premis:premis>
</xmlData>
</mdWrap>
</techMD>
</amdSec>
<amdSec ID="FT_10803_9155_2">
<techMD ID="TECH_T_10803_9155_2">
<mdWrap MDTYPE="PREMIS">
<xmlData schemaLocation="http://www.loc.gov/standards/premis http://www.loc.gov/standards/premis/PREMIS-v1-0.xsd">
<premis:premis>
<premis:object>
<premis:objectIdentifier>
<premis:objectIdentifierType>URL</premis:objectIdentifierType>
<premis:objectIdentifierValue>https://www.tdx.cat/bitstream/10803/9155/2/EFarguellPhD_MemoriaTDX.pdf.txt</premis:objectIdentifierValue>
</premis:objectIdentifier>
<premis:objectCategory>File</premis:objectCategory>
<premis:objectCharacteristics>
<premis:fixity>
<premis:messageDigestAlgorithm>MD5</premis:messageDigestAlgorithm>
<premis:messageDigest>5986555900bc914c8e802dfce1c93d69</premis:messageDigest>
</premis:fixity>
<premis:size>341412</premis:size>
<premis:format>
<premis:formatDesignation>
<premis:formatName>text/plain</premis:formatName>
</premis:formatDesignation>
</premis:format>
</premis:objectCharacteristics>
<premis:originalName>EFarguellPhD_MemoriaTDX.pdf.txt</premis:originalName>
</premis:object>
</premis:premis>
</xmlData>
</mdWrap>
</techMD>
</amdSec>
<fileSec>
<fileGrp USE="ORIGINAL">
<file ADMID="FO_10803_9155_1" CHECKSUM="efacff8844310d7f57947e3465c6b642" CHECKSUMTYPE="MD5" GROUPID="GROUP_BITSTREAM_10803_9155_1" ID="BITSTREAM_ORIGINAL_10803_9155_1" MIMETYPE="application/pdf" SEQ="1" SIZE="1526033">
</file>
</fileGrp>
<fileGrp USE="TEXT">
<file ADMID="FT_10803_9155_2" CHECKSUM="5986555900bc914c8e802dfce1c93d69" CHECKSUMTYPE="MD5" GROUPID="GROUP_BITSTREAM_10803_9155_2" ID="BITSTREAM_TEXT_10803_9155_2" MIMETYPE="text/plain" SEQ="2" SIZE="341412">
</file>
</fileGrp>
</fileSec>
<structMap LABEL="DSpace Object" TYPE="LOGICAL">
<div ADMID="DMD_10803_9155" TYPE="DSpace Object Contents">
<div TYPE="DSpace BITSTREAM">
</div>
</div>
</structMap>
</mets>
<?xml version="1.0" encoding="UTF-8" ?>
<mods:mods schemaLocation="http://www.loc.gov/mods/v3 http://www.loc.gov/standards/mods/v3/mods-3-1.xsd">
<mods:name>
<mods:namePart>Farguell Matesanz, Enric</mods:namePart>
</mods:name>
<mods:extension>
<mods:dateAvailable encoding="iso8601">2011-04-12T18:37:12Z</mods:dateAvailable>
</mods:extension>
<mods:extension>
<mods:dateAccessioned encoding="iso8601">2011-01-24</mods:dateAccessioned>
</mods:extension>
<mods:originInfo>
<mods:dateIssued encoding="iso8601">2011-01-20</mods:dateIssued>
</mods:originInfo>
<mods:identifier type="uri">http://www.tdx.cat/TDX-0124111-175646</mods:identifier>
<mods:identifier type="uri">http://hdl.handle.net/10803/9155</mods:identifier>
<mods:identifier type="dl">B.5718-2011</mods:identifier>
<mods:abstract>La Màquina de Boltzmann (MB) és una xarxa neuronal estocàstica amb l'habilitat tant d'aprendre com d'extrapolar distribucions de probabilitat. Malgrat això, mai ha arribat a ser tant emprada com d'altres models de xarxa neuronal, com ara el perceptró, degut a la complexitat tan del procés de simulació com d'aprenentatge: les quantitats que es necessiten al llarg del procés d'aprenentatge són normalment estimades mitjançant tècniques Monte Carlo (MC), a través de l'algorisme del Temprat Simulat (SA). Això ha portat a una situació on la MB és més ben aviat considerada o bé com una extensió de la xarxa de Hopfield o bé com una implementació paral·lela del SA. <br/> <br/>Malgrat aquesta relativa manca d'èxit, la comunitat científica de l'àmbit de les xarxes neuronals ha mantingut un cert interès amb el model. Una de les extensions més rellevants a la MB és la Màquina de Boltzmann d'Alt Ordre (HOBM), on els pesos poden connectar més de dues neurones simultàniament. Encara que les capacitats d'aprenentatge d'aquest model han estat analitzades per d'altres autors, no s'ha pogut establir una equivalència formal entre els pesos d'una MB i els pesos d'alt ordre de la HOBM. <br/> <br/>En aquest treball s'analitza l'equivalència entre una MB i una HOBM a través de l'extensió del mètode conegut com a decimació. Decimació és una eina emprada a física estadística que es pot també aplicar a cert tipus de MB, obtenint expressions analítiques per a calcular les correlacions necessàries per a dur a terme el procés d'aprenentatge. Per tant, la decimació evita l'ús del costós algorisme del SA. Malgrat això, en la seva forma original, la decimació podia tan sols ser aplicada a cert tipus de topologies molt poc densament connectades. La extensió que es defineix en aquest treball permet calcular aquests valors independentment de la topologia de la xarxa neuronal; aquest model es basa en afegir prou pesos d'alt ordre a una MB estàndard com per a assegurar que les equacions de la decimació es poden solucionar. <br/> <br/>Després, s'estableix una equivalència directa entre els pesos d'un model d'alt ordre, la distribució de probabilitat que pot aprendre i les matrius de Hadamard: les propietats d'aquestes matrius es poden emprar per a calcular fàcilment els pesos del sistema. Finalment, es defineix una MB estàndard amb una topologia específica que permet entendre millor la equivalència exacta entre unitats ocultes de la MB i els pesos d'alt ordre de la HOBM.</mods:abstract>
<mods:abstract>La Máquina de Boltzmann (MB) es una red neuronal estocástica con la habilidad de aprender y extrapolar distribuciones de probabilidad. Sin embargo, nunca ha llegado a ser tan popular como otros modelos de redes neuronals como, por ejemplo, el perceptrón. Esto es debido a la complejidad tanto del proceso de simulación como de aprendizaje: las cantidades que se necesitan a lo largo del proceso de aprendizaje se estiman mediante el uso de técnicas Monte Carlo (MC), a través del algoritmo del Temple Simulado (SA). En definitiva, la MB es generalmente considerada o bien una extensión de la red de Hopfield o bien como una implementación paralela del algoritmo del SA. <br/> <br/>Pese a esta relativa falta de éxito, la comunidad científica del ámbito de las redes neuronales ha mantenido un cierto interés en el modelo. Una importante extensión es la Màquina de Boltzmann de Alto Orden (HOBM), en la que los pesos pueden conectar más de dos neuronas a la vez. Pese a que este modelo ha sido analizado en profundidad por otros autores, todavía no se ha descrito una equivalencia formal entre los pesos de una MB i las conexiones de alto orden de una HOBM. <br/> <br/>En este trabajo se ha analizado la equivalencia entre una MB i una HOBM, a través de la extensión del método conocido como decimación. La decimación es una herramienta propia de la física estadística que también puede ser aplicada a ciertos modelos de MB, obteniendo expresiones analíticas para el cálculo de las cantidades necesarias en el algoritmo de aprendizaje. Por lo tanto, la decimación evita el alto coste computacional asociado al al uso del costoso algoritmo del SA. Pese a esto, en su forma original la decimación tan solo podía ser aplicada a ciertas topologías de MB, distinguidas por ser poco densamente conectadas. La extensión definida en este trabajo permite calcular estos valores independientemente de la topología de la red neuronal: este modelo se basa en añadir suficientes pesos de alto orden a una MB estándar como para asegurar que las ecuaciones de decimación pueden solucionarse. <br/> <br/>Más adelante, se establece una equivalencia directa entre los pesos de un modelo de alto orden, la distribución de probabilidad que puede aprender y las matrices tipo Hadamard. Las propiedades de este tipo de matrices se pueden usar para calcular fácilmente los pesos del sistema. Finalmente, se define una BM estándar con una topología específica que permite entender mejor la equivalencia exacta entre neuronas ocultas en la MB y los pesos de alto orden de la HOBM.</mods:abstract>
<mods:abstract>The Boltzmann Machine (BM) is a stochastic neural network with the ability of both learning and extrapolating probability distributions. However, it has never been as widely used as other neural networks such as the perceptron, due to the complexity of both the learning and recalling algorithms, and to the high computational cost required in the learning process: the quantities that are needed at the learning stage are usually estimated by Monte Carlo (MC) through the Simulated Annealing (SA) algorithm. This has led to a situation where the BM is rather considered as an evolution of the Hopfield Neural Network or as a parallel implementation of the Simulated Annealing algorithm. <br/> <br/>Despite this relative lack of success, the neural network community has continued to progress in the analysis of the dynamics of the model. One remarkable extension is the High Order Boltzmann Machine (HOBM), where weights can connect more than two neurons at a time. Although the learning capabilities of this model have already been discussed by other authors, a formal equivalence between the weights in a standard BM and the high order weights in a HOBM has not yet been established. <br/> <br/>We analyze this latter equivalence between a second order BM and a HOBM by proposing an extension of the method known as decimation. Decimation is a common tool in statistical physics that may be applied to some kind of BMs, that can be used to obtain analytical expressions for the n-unit correlation elements required in the learning process. In this way, decimation avoids using the time consuming Simulated Annealing algorithm. However, as it was first conceived, it could only deal with sparsely connected neural networks. The extension that we define in this thesis allows computing the same quantities irrespective of the topology of the network. This method is based on adding enough high order weights to a standard BM to guarantee that the system can be solved. <br/> <br/>Next, we establish a direct equivalence between the weights of a HOBM model, the probability distribution to be learnt and Hadamard matrices. The properties of these matrices can be used to easily calculate the value of the weights of the system. Finally, we define a standard BM with a very specific topology that helps us better understand the exact equivalence between hidden units in a BM and high order weights in a HOBM.</mods:abstract>
<mods:language>
<mods:languageTerm>eng</mods:languageTerm>
</mods:language>
<mods:accessCondition type="useAndReproduction">ADVERTIMENT. L'accés als continguts d'aquesta tesi doctoral i la seva utilització ha de respectar els drets de la persona autora. Pot ser utilitzada per a consulta o estudi personal, així com en activitats o materials d'investigació i docència en els termes establerts a l'art. 32 del Text Refós de la Llei de Propietat Intel·lectual (RDL 1/1996). Per altres utilitzacions es requereix l'autorització prèvia i expressa de la persona autora. En qualsevol cas, en la utilització dels seus continguts caldrà indicar de forma clara el nom i cognoms de la persona autora i el títol de la tesi doctoral. No s'autoritza la seva reproducció o altres formes d'explotació efectuades amb finalitats de lucre ni la seva comunicació pública des d'un lloc aliè al servei TDX. Tampoc s'autoritza la presentació del seu contingut en una finestra o marc aliè a TDX (framing). Aquesta reserva de drets afecta tant als continguts de la tesi com als seus resums i índexs.</mods:accessCondition>
<mods:accessCondition type="useAndReproduction">info:eu-repo/semantics/openAccess</mods:accessCondition>
<mods:subject>
<mods:topic>Artificial Neural Networks</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Decimation</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Boltzmann Machines</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Artificial Intelligence</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Redes Neuronales Artificiales</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Decimación</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Máquinas de Boltzmann</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Inteligencia artificial</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Xarxes Neuronals Artificials</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Decimació</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Màquines de Boltzmann</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Intel·ligència artificial</mods:topic>
</mods:subject>
<mods:titleInfo>
<mods:title>A new approach to Decimation in High Order Boltzmann Machines</mods:title>
</mods:titleInfo>
<mods:genre>info:eu-repo/semantics/doctoralThesis</mods:genre>
<mods:genre>info:eu-repo/semantics/publishedVersion</mods:genre>
</mods:mods>
<?xml version="1.0" encoding="UTF-8" ?>
<oaire:record schemaLocation="http://namespaceopenaire.eu/schema/oaire/">
<dc:title>A new approach to Decimation in High Order Boltzmann Machines</dc:title>
<datacite:creator>
<datacite:creatorName>Farguell Matesanz, Enric</datacite:creatorName>
</datacite:creator>
<datacite:contributor>efarguell@hotmail.com</datacite:contributor>
<datacite:contributor>true</datacite:contributor>
<datacite:contributor>Mazzanti Castrillejo, Ferran</datacite:contributor>
<datacite:contributor>Garriga Berga, Carles</datacite:contributor>
<datacite:contributor>Universitat Ramon Llull. La Salle</datacite:contributor>
<dc:subject>Artificial Neural Networks</dc:subject>
<dc:subject>Decimation</dc:subject>
<dc:subject>Boltzmann Machines</dc:subject>
<dc:subject>Artificial Intelligence</dc:subject>
<dc:subject>Redes Neuronales Artificiales</dc:subject>
<dc:subject>Decimación</dc:subject>
<dc:subject>Máquinas de Boltzmann</dc:subject>
<dc:subject>Inteligencia artificial</dc:subject>
<dc:subject>Xarxes Neuronals Artificials</dc:subject>
<dc:subject>Decimació</dc:subject>
<dc:subject>Màquines de Boltzmann</dc:subject>
<dc:subject>Intel·ligència artificial</dc:subject>
<dc:subject>Les TIC i la seva gestió</dc:subject>
<dc:subject>51</dc:subject>
<dc:subject>62</dc:subject>
<dc:description>La Màquina de Boltzmann (MB) és una xarxa neuronal estocàstica amb l'habilitat tant d'aprendre com d'extrapolar distribucions de probabilitat. Malgrat això, mai ha arribat a ser tant emprada com d'altres models de xarxa neuronal, com ara el perceptró, degut a la complexitat tan del procés de simulació com d'aprenentatge: les quantitats que es necessiten al llarg del procés d'aprenentatge són normalment estimades mitjançant tècniques Monte Carlo (MC), a través de l'algorisme del Temprat Simulat (SA). Això ha portat a una situació on la MB és més ben aviat considerada o bé com una extensió de la xarxa de Hopfield o bé com una implementació paral·lela del SA. <br/> <br/>Malgrat aquesta relativa manca d'èxit, la comunitat científica de l'àmbit de les xarxes neuronals ha mantingut un cert interès amb el model. Una de les extensions més rellevants a la MB és la Màquina de Boltzmann d'Alt Ordre (HOBM), on els pesos poden connectar més de dues neurones simultàniament. Encara que les capacitats d'aprenentatge d'aquest model han estat analitzades per d'altres autors, no s'ha pogut establir una equivalència formal entre els pesos d'una MB i els pesos d'alt ordre de la HOBM. <br/> <br/>En aquest treball s'analitza l'equivalència entre una MB i una HOBM a través de l'extensió del mètode conegut com a decimació. Decimació és una eina emprada a física estadística que es pot també aplicar a cert tipus de MB, obtenint expressions analítiques per a calcular les correlacions necessàries per a dur a terme el procés d'aprenentatge. Per tant, la decimació evita l'ús del costós algorisme del SA. Malgrat això, en la seva forma original, la decimació podia tan sols ser aplicada a cert tipus de topologies molt poc densament connectades. La extensió que es defineix en aquest treball permet calcular aquests valors independentment de la topologia de la xarxa neuronal; aquest model es basa en afegir prou pesos d'alt ordre a una MB estàndard com per a assegurar que les equacions de la decimació es poden solucionar. <br/> <br/>Després, s'estableix una equivalència directa entre els pesos d'un model d'alt ordre, la distribució de probabilitat que pot aprendre i les matrius de Hadamard: les propietats d'aquestes matrius es poden emprar per a calcular fàcilment els pesos del sistema. Finalment, es defineix una MB estàndard amb una topologia específica que permet entendre millor la equivalència exacta entre unitats ocultes de la MB i els pesos d'alt ordre de la HOBM.</dc:description>
<dc:description>La Máquina de Boltzmann (MB) es una red neuronal estocástica con la habilidad de aprender y extrapolar distribuciones de probabilidad. Sin embargo, nunca ha llegado a ser tan popular como otros modelos de redes neuronals como, por ejemplo, el perceptrón. Esto es debido a la complejidad tanto del proceso de simulación como de aprendizaje: las cantidades que se necesitan a lo largo del proceso de aprendizaje se estiman mediante el uso de técnicas Monte Carlo (MC), a través del algoritmo del Temple Simulado (SA). En definitiva, la MB es generalmente considerada o bien una extensión de la red de Hopfield o bien como una implementación paralela del algoritmo del SA. <br/> <br/>Pese a esta relativa falta de éxito, la comunidad científica del ámbito de las redes neuronales ha mantenido un cierto interés en el modelo. Una importante extensión es la Màquina de Boltzmann de Alto Orden (HOBM), en la que los pesos pueden conectar más de dos neuronas a la vez. Pese a que este modelo ha sido analizado en profundidad por otros autores, todavía no se ha descrito una equivalencia formal entre los pesos de una MB i las conexiones de alto orden de una HOBM. <br/> <br/>En este trabajo se ha analizado la equivalencia entre una MB i una HOBM, a través de la extensión del método conocido como decimación. La decimación es una herramienta propia de la física estadística que también puede ser aplicada a ciertos modelos de MB, obteniendo expresiones analíticas para el cálculo de las cantidades necesarias en el algoritmo de aprendizaje. Por lo tanto, la decimación evita el alto coste computacional asociado al al uso del costoso algoritmo del SA. Pese a esto, en su forma original la decimación tan solo podía ser aplicada a ciertas topologías de MB, distinguidas por ser poco densamente conectadas. La extensión definida en este trabajo permite calcular estos valores independientemente de la topología de la red neuronal: este modelo se basa en añadir suficientes pesos de alto orden a una MB estándar como para asegurar que las ecuaciones de decimación pueden solucionarse. <br/> <br/>Más adelante, se establece una equivalencia directa entre los pesos de un modelo de alto orden, la distribución de probabilidad que puede aprender y las matrices tipo Hadamard. Las propiedades de este tipo de matrices se pueden usar para calcular fácilmente los pesos del sistema. Finalmente, se define una BM estándar con una topología específica que permite entender mejor la equivalencia exacta entre neuronas ocultas en la MB y los pesos de alto orden de la HOBM.</dc:description>
<dc:description>The Boltzmann Machine (BM) is a stochastic neural network with the ability of both learning and extrapolating probability distributions. However, it has never been as widely used as other neural networks such as the perceptron, due to the complexity of both the learning and recalling algorithms, and to the high computational cost required in the learning process: the quantities that are needed at the learning stage are usually estimated by Monte Carlo (MC) through the Simulated Annealing (SA) algorithm. This has led to a situation where the BM is rather considered as an evolution of the Hopfield Neural Network or as a parallel implementation of the Simulated Annealing algorithm. <br/> <br/>Despite this relative lack of success, the neural network community has continued to progress in the analysis of the dynamics of the model. One remarkable extension is the High Order Boltzmann Machine (HOBM), where weights can connect more than two neurons at a time. Although the learning capabilities of this model have already been discussed by other authors, a formal equivalence between the weights in a standard BM and the high order weights in a HOBM has not yet been established. <br/> <br/>We analyze this latter equivalence between a second order BM and a HOBM by proposing an extension of the method known as decimation. Decimation is a common tool in statistical physics that may be applied to some kind of BMs, that can be used to obtain analytical expressions for the n-unit correlation elements required in the learning process. In this way, decimation avoids using the time consuming Simulated Annealing algorithm. However, as it was first conceived, it could only deal with sparsely connected neural networks. The extension that we define in this thesis allows computing the same quantities irrespective of the topology of the network. This method is based on adding enough high order weights to a standard BM to guarantee that the system can be solved. <br/> <br/>Next, we establish a direct equivalence between the weights of a HOBM model, the probability distribution to be learnt and Hadamard matrices. The properties of these matrices can be used to easily calculate the value of the weights of the system. Finally, we define a standard BM with a very specific topology that helps us better understand the exact equivalence between hidden units in a BM and high order weights in a HOBM.</dc:description>
<dc:date>2011-04-12T18:37:12Z</dc:date>
<dc:date>2011-01-24</dc:date>
<dc:date>2011-01-20</dc:date>
<dc:date>2011-01-24</dc:date>
<dc:type>info:eu-repo/semantics/doctoralThesis</dc:type>
<dc:type>info:eu-repo/semantics/publishedVersion</dc:type>
<datacite:alternateIdentifier>http://www.tdx.cat/TDX-0124111-175646</datacite:alternateIdentifier>
<datacite:alternateIdentifier>http://hdl.handle.net/10803/9155</datacite:alternateIdentifier>
<datacite:alternateIdentifier>B.5718-2011</datacite:alternateIdentifier>
<dc:language>eng</dc:language>
<dc:rights>ADVERTIMENT. L'accés als continguts d'aquesta tesi doctoral i la seva utilització ha de respectar els drets de la persona autora. Pot ser utilitzada per a consulta o estudi personal, així com en activitats o materials d'investigació i docència en els termes establerts a l'art. 32 del Text Refós de la Llei de Propietat Intel·lectual (RDL 1/1996). Per altres utilitzacions es requereix l'autorització prèvia i expressa de la persona autora. En qualsevol cas, en la utilització dels seus continguts caldrà indicar de forma clara el nom i cognoms de la persona autora i el títol de la tesi doctoral. No s'autoritza la seva reproducció o altres formes d'explotació efectuades amb finalitats de lucre ni la seva comunicació pública des d'un lloc aliè al servei TDX. Tampoc s'autoritza la presentació del seu contingut en una finestra o marc aliè a TDX (framing). Aquesta reserva de drets afecta tant als continguts de la tesi com als seus resums i índexs.</dc:rights>
<dc:rights>info:eu-repo/semantics/openAccess</dc:rights>
<dc:format>application/pdf</dc:format>
<dc:format>application/pdf</dc:format>
<dc:publisher>Universitat Ramon Llull</dc:publisher>
<dc:source>TDX (Tesis Doctorals en Xarxa)</dc:source>
<oaire:file>https://www.tdx.cat/bitstream/10803/9155/1/EFarguellPhD_MemoriaTDX.pdf</oaire:file>
</oaire:record>
<?xml version="1.0" encoding="UTF-8" ?>
<atom:entry schemaLocation="http://www.w3.org/2005/Atom http://www.kbcafe.com/rss/atom.xsd.xml">
<atom:id>http://www.tdx.cat/TDX-0124111-175646/ore.xml</atom:id>
<atom:published>2011-01-24</atom:published>
<atom:updated>2011-04-12T18:37:12Z</atom:updated>
<atom:source>
<atom:generator>TDX (Tesis Doctorals en Xarxa)</atom:generator>
</atom:source>
<atom:title>A new approach to Decimation in High Order Boltzmann Machines</atom:title>
<atom:author>
<atom:name>Farguell Matesanz, Enric</atom:name>
</atom:author>
<oreatom:triples>
<rdf:Description about="http://www.tdx.cat/TDX-0124111-175646/ore.xml#atom">
<dcterms:modified>2011-04-12T18:37:12Z</dcterms:modified>
</rdf:Description>
<rdf:Description about="https://www.tdx.cat/bitstream/10803/9155/1/EFarguellPhD_MemoriaTDX.pdf">
<dcterms:description>ORIGINAL</dcterms:description>
</rdf:Description>
<rdf:Description about="https://www.tdx.cat/bitstream/10803/9155/2/EFarguellPhD_MemoriaTDX.pdf.txt">
<dcterms:description>TEXT</dcterms:description>
</rdf:Description>
<rdf:Description about="https://www.tdx.cat/bitstream/10803/9155/3/EFarguellPhD_MemoriaTDX.pdf.xml">
<dcterms:description>MEDIA_DOCUMENT</dcterms:description>
</rdf:Description>
</oreatom:triples>
</atom:entry>
<?xml version="1.0" encoding="UTF-8" ?>
<qdc:qualifieddc schemaLocation="http://purl.org/dc/elements/1.1/ http://dublincore.org/schemas/xmls/qdc/2006/01/06/dc.xsd http://purl.org/dc/terms/ http://dublincore.org/schemas/xmls/qdc/2006/01/06/dcterms.xsd http://dspace.org/qualifieddc/ http://www.ukoln.ac.uk/metadata/dcmi/xmlschema/qualifieddc.xsd">
<dc:title>A new approach to Decimation in High Order Boltzmann Machines</dc:title>
<dc:creator>Farguell Matesanz, Enric</dc:creator>
<dc:contributor>Mazzanti Castrillejo, Ferran</dc:contributor>
<dc:contributor>Garriga Berga, Carles</dc:contributor>
<dc:subject>Artificial Neural Networks</dc:subject>
<dc:subject>Decimation</dc:subject>
<dc:subject>Boltzmann Machines</dc:subject>
<dc:subject>Artificial Intelligence</dc:subject>
<dc:subject>Redes Neuronales Artificiales</dc:subject>
<dc:subject>Decimación</dc:subject>
<dc:subject>Máquinas de Boltzmann</dc:subject>
<dc:subject>Inteligencia artificial</dc:subject>
<dc:subject>Xarxes Neuronals Artificials</dc:subject>
<dc:subject>Decimació</dc:subject>
<dc:subject>Màquines de Boltzmann</dc:subject>
<dc:subject>Intel·ligència artificial</dc:subject>
<dcterms:abstract>La Màquina de Boltzmann (MB) és una xarxa neuronal estocàstica amb l'habilitat tant d'aprendre com d'extrapolar distribucions de probabilitat. Malgrat això, mai ha arribat a ser tant emprada com d'altres models de xarxa neuronal, com ara el perceptró, degut a la complexitat tan del procés de simulació com d'aprenentatge: les quantitats que es necessiten al llarg del procés d'aprenentatge són normalment estimades mitjançant tècniques Monte Carlo (MC), a través de l'algorisme del Temprat Simulat (SA). Això ha portat a una situació on la MB és més ben aviat considerada o bé com una extensió de la xarxa de Hopfield o bé com una implementació paral·lela del SA. <br/> <br/>Malgrat aquesta relativa manca d'èxit, la comunitat científica de l'àmbit de les xarxes neuronals ha mantingut un cert interès amb el model. Una de les extensions més rellevants a la MB és la Màquina de Boltzmann d'Alt Ordre (HOBM), on els pesos poden connectar més de dues neurones simultàniament. Encara que les capacitats d'aprenentatge d'aquest model han estat analitzades per d'altres autors, no s'ha pogut establir una equivalència formal entre els pesos d'una MB i els pesos d'alt ordre de la HOBM. <br/> <br/>En aquest treball s'analitza l'equivalència entre una MB i una HOBM a través de l'extensió del mètode conegut com a decimació. Decimació és una eina emprada a física estadística que es pot també aplicar a cert tipus de MB, obtenint expressions analítiques per a calcular les correlacions necessàries per a dur a terme el procés d'aprenentatge. Per tant, la decimació evita l'ús del costós algorisme del SA. Malgrat això, en la seva forma original, la decimació podia tan sols ser aplicada a cert tipus de topologies molt poc densament connectades. La extensió que es defineix en aquest treball permet calcular aquests valors independentment de la topologia de la xarxa neuronal; aquest model es basa en afegir prou pesos d'alt ordre a una MB estàndard com per a assegurar que les equacions de la decimació es poden solucionar. <br/> <br/>Després, s'estableix una equivalència directa entre els pesos d'un model d'alt ordre, la distribució de probabilitat que pot aprendre i les matrius de Hadamard: les propietats d'aquestes matrius es poden emprar per a calcular fàcilment els pesos del sistema. Finalment, es defineix una MB estàndard amb una topologia específica que permet entendre millor la equivalència exacta entre unitats ocultes de la MB i els pesos d'alt ordre de la HOBM.</dcterms:abstract>
<dcterms:abstract>La Máquina de Boltzmann (MB) es una red neuronal estocástica con la habilidad de aprender y extrapolar distribuciones de probabilidad. Sin embargo, nunca ha llegado a ser tan popular como otros modelos de redes neuronals como, por ejemplo, el perceptrón. Esto es debido a la complejidad tanto del proceso de simulación como de aprendizaje: las cantidades que se necesitan a lo largo del proceso de aprendizaje se estiman mediante el uso de técnicas Monte Carlo (MC), a través del algoritmo del Temple Simulado (SA). En definitiva, la MB es generalmente considerada o bien una extensión de la red de Hopfield o bien como una implementación paralela del algoritmo del SA. <br/> <br/>Pese a esta relativa falta de éxito, la comunidad científica del ámbito de las redes neuronales ha mantenido un cierto interés en el modelo. Una importante extensión es la Màquina de Boltzmann de Alto Orden (HOBM), en la que los pesos pueden conectar más de dos neuronas a la vez. Pese a que este modelo ha sido analizado en profundidad por otros autores, todavía no se ha descrito una equivalencia formal entre los pesos de una MB i las conexiones de alto orden de una HOBM. <br/> <br/>En este trabajo se ha analizado la equivalencia entre una MB i una HOBM, a través de la extensión del método conocido como decimación. La decimación es una herramienta propia de la física estadística que también puede ser aplicada a ciertos modelos de MB, obteniendo expresiones analíticas para el cálculo de las cantidades necesarias en el algoritmo de aprendizaje. Por lo tanto, la decimación evita el alto coste computacional asociado al al uso del costoso algoritmo del SA. Pese a esto, en su forma original la decimación tan solo podía ser aplicada a ciertas topologías de MB, distinguidas por ser poco densamente conectadas. La extensión definida en este trabajo permite calcular estos valores independientemente de la topología de la red neuronal: este modelo se basa en añadir suficientes pesos de alto orden a una MB estándar como para asegurar que las ecuaciones de decimación pueden solucionarse. <br/> <br/>Más adelante, se establece una equivalencia directa entre los pesos de un modelo de alto orden, la distribución de probabilidad que puede aprender y las matrices tipo Hadamard. Las propiedades de este tipo de matrices se pueden usar para calcular fácilmente los pesos del sistema. Finalmente, se define una BM estándar con una topología específica que permite entender mejor la equivalencia exacta entre neuronas ocultas en la MB y los pesos de alto orden de la HOBM.</dcterms:abstract>
<dcterms:abstract>The Boltzmann Machine (BM) is a stochastic neural network with the ability of both learning and extrapolating probability distributions. However, it has never been as widely used as other neural networks such as the perceptron, due to the complexity of both the learning and recalling algorithms, and to the high computational cost required in the learning process: the quantities that are needed at the learning stage are usually estimated by Monte Carlo (MC) through the Simulated Annealing (SA) algorithm. This has led to a situation where the BM is rather considered as an evolution of the Hopfield Neural Network or as a parallel implementation of the Simulated Annealing algorithm. <br/> <br/>Despite this relative lack of success, the neural network community has continued to progress in the analysis of the dynamics of the model. One remarkable extension is the High Order Boltzmann Machine (HOBM), where weights can connect more than two neurons at a time. Although the learning capabilities of this model have already been discussed by other authors, a formal equivalence between the weights in a standard BM and the high order weights in a HOBM has not yet been established. <br/> <br/>We analyze this latter equivalence between a second order BM and a HOBM by proposing an extension of the method known as decimation. Decimation is a common tool in statistical physics that may be applied to some kind of BMs, that can be used to obtain analytical expressions for the n-unit correlation elements required in the learning process. In this way, decimation avoids using the time consuming Simulated Annealing algorithm. However, as it was first conceived, it could only deal with sparsely connected neural networks. The extension that we define in this thesis allows computing the same quantities irrespective of the topology of the network. This method is based on adding enough high order weights to a standard BM to guarantee that the system can be solved. <br/> <br/>Next, we establish a direct equivalence between the weights of a HOBM model, the probability distribution to be learnt and Hadamard matrices. The properties of these matrices can be used to easily calculate the value of the weights of the system. Finally, we define a standard BM with a very specific topology that helps us better understand the exact equivalence between hidden units in a BM and high order weights in a HOBM.</dcterms:abstract>
<dcterms:dateAccepted>2011-01-24</dcterms:dateAccepted>
<dcterms:available>2011-01-24</dcterms:available>
<dcterms:created>2011-01-24</dcterms:created>
<dcterms:issued>2011-01-20</dcterms:issued>
<dc:type>info:eu-repo/semantics/doctoralThesis</dc:type>
<dc:type>info:eu-repo/semantics/publishedVersion</dc:type>
<dc:identifier>http://www.tdx.cat/TDX-0124111-175646</dc:identifier>
<dc:identifier>http://hdl.handle.net/10803/9155</dc:identifier>
<dc:identifier>B.5718-2011</dc:identifier>
<dc:language>eng</dc:language>
<dc:rights>ADVERTIMENT. L'accés als continguts d'aquesta tesi doctoral i la seva utilització ha de respectar els drets de la persona autora. Pot ser utilitzada per a consulta o estudi personal, així com en activitats o materials d'investigació i docència en els termes establerts a l'art. 32 del Text Refós de la Llei de Propietat Intel·lectual (RDL 1/1996). Per altres utilitzacions es requereix l'autorització prèvia i expressa de la persona autora. En qualsevol cas, en la utilització dels seus continguts caldrà indicar de forma clara el nom i cognoms de la persona autora i el títol de la tesi doctoral. No s'autoritza la seva reproducció o altres formes d'explotació efectuades amb finalitats de lucre ni la seva comunicació pública des d'un lloc aliè al servei TDX. Tampoc s'autoritza la presentació del seu contingut en una finestra o marc aliè a TDX (framing). Aquesta reserva de drets afecta tant als continguts de la tesi com als seus resums i índexs.</dc:rights>
<dc:rights>info:eu-repo/semantics/openAccess</dc:rights>
<dc:publisher>Universitat Ramon Llull</dc:publisher>
<dc:source>TDX (Tesis Doctorals en Xarxa)</dc:source>
</qdc:qualifieddc>
<?xml version="1.0" encoding="UTF-8" ?>
<rdf:RDF schemaLocation="http://www.openarchives.org/OAI/2.0/rdf/ http://www.openarchives.org/OAI/2.0/rdf.xsd">
<ow:Publication about="oai:www.tdx.cat:10803/9155">
<dc:title>A new approach to Decimation in High Order Boltzmann Machines</dc:title>
<dc:creator>Farguell Matesanz, Enric</dc:creator>
<dc:contributor>efarguell@hotmail.com</dc:contributor>
<dc:contributor>true</dc:contributor>
<dc:contributor>Mazzanti Castrillejo, Ferran</dc:contributor>
<dc:contributor>Garriga Berga, Carles</dc:contributor>
<dc:subject>Artificial Neural Networks</dc:subject>
<dc:subject>Decimation</dc:subject>
<dc:subject>Boltzmann Machines</dc:subject>
<dc:subject>Artificial Intelligence</dc:subject>
<dc:subject>Redes Neuronales Artificiales</dc:subject>
<dc:subject>Decimación</dc:subject>
<dc:subject>Máquinas de Boltzmann</dc:subject>
<dc:subject>Inteligencia artificial</dc:subject>
<dc:subject>Xarxes Neuronals Artificials</dc:subject>
<dc:subject>Decimació</dc:subject>
<dc:subject>Màquines de Boltzmann</dc:subject>
<dc:subject>Intel·ligència artificial</dc:subject>
<dc:description>La Màquina de Boltzmann (MB) és una xarxa neuronal estocàstica amb l'habilitat tant d'aprendre com d'extrapolar distribucions de probabilitat. Malgrat això, mai ha arribat a ser tant emprada com d'altres models de xarxa neuronal, com ara el perceptró, degut a la complexitat tan del procés de simulació com d'aprenentatge: les quantitats que es necessiten al llarg del procés d'aprenentatge són normalment estimades mitjançant tècniques Monte Carlo (MC), a través de l'algorisme del Temprat Simulat (SA). Això ha portat a una situació on la MB és més ben aviat considerada o bé com una extensió de la xarxa de Hopfield o bé com una implementació paral·lela del SA. <br/> <br/>Malgrat aquesta relativa manca d'èxit, la comunitat científica de l'àmbit de les xarxes neuronals ha mantingut un cert interès amb el model. Una de les extensions més rellevants a la MB és la Màquina de Boltzmann d'Alt Ordre (HOBM), on els pesos poden connectar més de dues neurones simultàniament. Encara que les capacitats d'aprenentatge d'aquest model han estat analitzades per d'altres autors, no s'ha pogut establir una equivalència formal entre els pesos d'una MB i els pesos d'alt ordre de la HOBM. <br/> <br/>En aquest treball s'analitza l'equivalència entre una MB i una HOBM a través de l'extensió del mètode conegut com a decimació. Decimació és una eina emprada a física estadística que es pot també aplicar a cert tipus de MB, obtenint expressions analítiques per a calcular les correlacions necessàries per a dur a terme el procés d'aprenentatge. Per tant, la decimació evita l'ús del costós algorisme del SA. Malgrat això, en la seva forma original, la decimació podia tan sols ser aplicada a cert tipus de topologies molt poc densament connectades. La extensió que es defineix en aquest treball permet calcular aquests valors independentment de la topologia de la xarxa neuronal; aquest model es basa en afegir prou pesos d'alt ordre a una MB estàndard com per a assegurar que les equacions de la decimació es poden solucionar. <br/> <br/>Després, s'estableix una equivalència directa entre els pesos d'un model d'alt ordre, la distribució de probabilitat que pot aprendre i les matrius de Hadamard: les propietats d'aquestes matrius es poden emprar per a calcular fàcilment els pesos del sistema. Finalment, es defineix una MB estàndard amb una topologia específica que permet entendre millor la equivalència exacta entre unitats ocultes de la MB i els pesos d'alt ordre de la HOBM.</dc:description>
<dc:description>La Máquina de Boltzmann (MB) es una red neuronal estocástica con la habilidad de aprender y extrapolar distribuciones de probabilidad. Sin embargo, nunca ha llegado a ser tan popular como otros modelos de redes neuronals como, por ejemplo, el perceptrón. Esto es debido a la complejidad tanto del proceso de simulación como de aprendizaje: las cantidades que se necesitan a lo largo del proceso de aprendizaje se estiman mediante el uso de técnicas Monte Carlo (MC), a través del algoritmo del Temple Simulado (SA). En definitiva, la MB es generalmente considerada o bien una extensión de la red de Hopfield o bien como una implementación paralela del algoritmo del SA. <br/> <br/>Pese a esta relativa falta de éxito, la comunidad científica del ámbito de las redes neuronales ha mantenido un cierto interés en el modelo. Una importante extensión es la Màquina de Boltzmann de Alto Orden (HOBM), en la que los pesos pueden conectar más de dos neuronas a la vez. Pese a que este modelo ha sido analizado en profundidad por otros autores, todavía no se ha descrito una equivalencia formal entre los pesos de una MB i las conexiones de alto orden de una HOBM. <br/> <br/>En este trabajo se ha analizado la equivalencia entre una MB i una HOBM, a través de la extensión del método conocido como decimación. La decimación es una herramienta propia de la física estadística que también puede ser aplicada a ciertos modelos de MB, obteniendo expresiones analíticas para el cálculo de las cantidades necesarias en el algoritmo de aprendizaje. Por lo tanto, la decimación evita el alto coste computacional asociado al al uso del costoso algoritmo del SA. Pese a esto, en su forma original la decimación tan solo podía ser aplicada a ciertas topologías de MB, distinguidas por ser poco densamente conectadas. La extensión definida en este trabajo permite calcular estos valores independientemente de la topología de la red neuronal: este modelo se basa en añadir suficientes pesos de alto orden a una MB estándar como para asegurar que las ecuaciones de decimación pueden solucionarse. <br/> <br/>Más adelante, se establece una equivalencia directa entre los pesos de un modelo de alto orden, la distribución de probabilidad que puede aprender y las matrices tipo Hadamard. Las propiedades de este tipo de matrices se pueden usar para calcular fácilmente los pesos del sistema. Finalmente, se define una BM estándar con una topología específica que permite entender mejor la equivalencia exacta entre neuronas ocultas en la MB y los pesos de alto orden de la HOBM.</dc:description>
<dc:description>The Boltzmann Machine (BM) is a stochastic neural network with the ability of both learning and extrapolating probability distributions. However, it has never been as widely used as other neural networks such as the perceptron, due to the complexity of both the learning and recalling algorithms, and to the high computational cost required in the learning process: the quantities that are needed at the learning stage are usually estimated by Monte Carlo (MC) through the Simulated Annealing (SA) algorithm. This has led to a situation where the BM is rather considered as an evolution of the Hopfield Neural Network or as a parallel implementation of the Simulated Annealing algorithm. <br/> <br/>Despite this relative lack of success, the neural network community has continued to progress in the analysis of the dynamics of the model. One remarkable extension is the High Order Boltzmann Machine (HOBM), where weights can connect more than two neurons at a time. Although the learning capabilities of this model have already been discussed by other authors, a formal equivalence between the weights in a standard BM and the high order weights in a HOBM has not yet been established. <br/> <br/>We analyze this latter equivalence between a second order BM and a HOBM by proposing an extension of the method known as decimation. Decimation is a common tool in statistical physics that may be applied to some kind of BMs, that can be used to obtain analytical expressions for the n-unit correlation elements required in the learning process. In this way, decimation avoids using the time consuming Simulated Annealing algorithm. However, as it was first conceived, it could only deal with sparsely connected neural networks. The extension that we define in this thesis allows computing the same quantities irrespective of the topology of the network. This method is based on adding enough high order weights to a standard BM to guarantee that the system can be solved. <br/> <br/>Next, we establish a direct equivalence between the weights of a HOBM model, the probability distribution to be learnt and Hadamard matrices. The properties of these matrices can be used to easily calculate the value of the weights of the system. Finally, we define a standard BM with a very specific topology that helps us better understand the exact equivalence between hidden units in a BM and high order weights in a HOBM.</dc:description>
<dc:date>2011-04-12T18:37:12Z</dc:date>
<dc:date>2011-01-24</dc:date>
<dc:date>2011-01-20</dc:date>
<dc:date>2011-01-24</dc:date>
<dc:type>info:eu-repo/semantics/doctoralThesis</dc:type>
<dc:type>info:eu-repo/semantics/publishedVersion</dc:type>
<dc:identifier>http://www.tdx.cat/TDX-0124111-175646</dc:identifier>
<dc:identifier>http://hdl.handle.net/10803/9155</dc:identifier>
<dc:identifier>B.5718-2011</dc:identifier>
<dc:language>eng</dc:language>
<dc:rights>ADVERTIMENT. L'accés als continguts d'aquesta tesi doctoral i la seva utilització ha de respectar els drets de la persona autora. Pot ser utilitzada per a consulta o estudi personal, així com en activitats o materials d'investigació i docència en els termes establerts a l'art. 32 del Text Refós de la Llei de Propietat Intel·lectual (RDL 1/1996). Per altres utilitzacions es requereix l'autorització prèvia i expressa de la persona autora. En qualsevol cas, en la utilització dels seus continguts caldrà indicar de forma clara el nom i cognoms de la persona autora i el títol de la tesi doctoral. No s'autoritza la seva reproducció o altres formes d'explotació efectuades amb finalitats de lucre ni la seva comunicació pública des d'un lloc aliè al servei TDX. Tampoc s'autoritza la presentació del seu contingut en una finestra o marc aliè a TDX (framing). Aquesta reserva de drets afecta tant als continguts de la tesi com als seus resums i índexs.</dc:rights>
<dc:rights>info:eu-repo/semantics/openAccess</dc:rights>
<dc:publisher>Universitat Ramon Llull</dc:publisher>
<dc:source>TDX (Tesis Doctorals en Xarxa)</dc:source>
</ow:Publication>
</rdf:RDF>
<?xml version="1.0" encoding="UTF-8" ?>
<uketd_dc:uketddc schemaLocation="http://naca.central.cranfield.ac.uk/ethos-oai/2.0/ http://naca.central.cranfield.ac.uk/ethos-oai/2.0/uketd_dc.xsd">
<dc:title>A new approach to Decimation in High Order Boltzmann Machines</dc:title>
<dc:creator>Farguell Matesanz, Enric</dc:creator>
<dcterms:abstract>La Màquina de Boltzmann (MB) és una xarxa neuronal estocàstica amb l'habilitat tant d'aprendre com d'extrapolar distribucions de probabilitat. Malgrat això, mai ha arribat a ser tant emprada com d'altres models de xarxa neuronal, com ara el perceptró, degut a la complexitat tan del procés de simulació com d'aprenentatge: les quantitats que es necessiten al llarg del procés d'aprenentatge són normalment estimades mitjançant tècniques Monte Carlo (MC), a través de l'algorisme del Temprat Simulat (SA). Això ha portat a una situació on la MB és més ben aviat considerada o bé com una extensió de la xarxa de Hopfield o bé com una implementació paral·lela del SA. <br/> <br/>Malgrat aquesta relativa manca d'èxit, la comunitat científica de l'àmbit de les xarxes neuronals ha mantingut un cert interès amb el model. Una de les extensions més rellevants a la MB és la Màquina de Boltzmann d'Alt Ordre (HOBM), on els pesos poden connectar més de dues neurones simultàniament. Encara que les capacitats d'aprenentatge d'aquest model han estat analitzades per d'altres autors, no s'ha pogut establir una equivalència formal entre els pesos d'una MB i els pesos d'alt ordre de la HOBM. <br/> <br/>En aquest treball s'analitza l'equivalència entre una MB i una HOBM a través de l'extensió del mètode conegut com a decimació. Decimació és una eina emprada a física estadística que es pot també aplicar a cert tipus de MB, obtenint expressions analítiques per a calcular les correlacions necessàries per a dur a terme el procés d'aprenentatge. Per tant, la decimació evita l'ús del costós algorisme del SA. Malgrat això, en la seva forma original, la decimació podia tan sols ser aplicada a cert tipus de topologies molt poc densament connectades. La extensió que es defineix en aquest treball permet calcular aquests valors independentment de la topologia de la xarxa neuronal; aquest model es basa en afegir prou pesos d'alt ordre a una MB estàndard com per a assegurar que les equacions de la decimació es poden solucionar. <br/> <br/>Després, s'estableix una equivalència directa entre els pesos d'un model d'alt ordre, la distribució de probabilitat que pot aprendre i les matrius de Hadamard: les propietats d'aquestes matrius es poden emprar per a calcular fàcilment els pesos del sistema. Finalment, es defineix una MB estàndard amb una topologia específica que permet entendre millor la equivalència exacta entre unitats ocultes de la MB i els pesos d'alt ordre de la HOBM.</dcterms:abstract>
<dcterms:abstract>La Máquina de Boltzmann (MB) es una red neuronal estocástica con la habilidad de aprender y extrapolar distribuciones de probabilidad. Sin embargo, nunca ha llegado a ser tan popular como otros modelos de redes neuronals como, por ejemplo, el perceptrón. Esto es debido a la complejidad tanto del proceso de simulación como de aprendizaje: las cantidades que se necesitan a lo largo del proceso de aprendizaje se estiman mediante el uso de técnicas Monte Carlo (MC), a través del algoritmo del Temple Simulado (SA). En definitiva, la MB es generalmente considerada o bien una extensión de la red de Hopfield o bien como una implementación paralela del algoritmo del SA. <br/> <br/>Pese a esta relativa falta de éxito, la comunidad científica del ámbito de las redes neuronales ha mantenido un cierto interés en el modelo. Una importante extensión es la Màquina de Boltzmann de Alto Orden (HOBM), en la que los pesos pueden conectar más de dos neuronas a la vez. Pese a que este modelo ha sido analizado en profundidad por otros autores, todavía no se ha descrito una equivalencia formal entre los pesos de una MB i las conexiones de alto orden de una HOBM. <br/> <br/>En este trabajo se ha analizado la equivalencia entre una MB i una HOBM, a través de la extensión del método conocido como decimación. La decimación es una herramienta propia de la física estadística que también puede ser aplicada a ciertos modelos de MB, obteniendo expresiones analíticas para el cálculo de las cantidades necesarias en el algoritmo de aprendizaje. Por lo tanto, la decimación evita el alto coste computacional asociado al al uso del costoso algoritmo del SA. Pese a esto, en su forma original la decimación tan solo podía ser aplicada a ciertas topologías de MB, distinguidas por ser poco densamente conectadas. La extensión definida en este trabajo permite calcular estos valores independientemente de la topología de la red neuronal: este modelo se basa en añadir suficientes pesos de alto orden a una MB estándar como para asegurar que las ecuaciones de decimación pueden solucionarse. <br/> <br/>Más adelante, se establece una equivalencia directa entre los pesos de un modelo de alto orden, la distribución de probabilidad que puede aprender y las matrices tipo Hadamard. Las propiedades de este tipo de matrices se pueden usar para calcular fácilmente los pesos del sistema. Finalmente, se define una BM estándar con una topología específica que permite entender mejor la equivalencia exacta entre neuronas ocultas en la MB y los pesos de alto orden de la HOBM.</dcterms:abstract>
<dcterms:abstract>The Boltzmann Machine (BM) is a stochastic neural network with the ability of both learning and extrapolating probability distributions. However, it has never been as widely used as other neural networks such as the perceptron, due to the complexity of both the learning and recalling algorithms, and to the high computational cost required in the learning process: the quantities that are needed at the learning stage are usually estimated by Monte Carlo (MC) through the Simulated Annealing (SA) algorithm. This has led to a situation where the BM is rather considered as an evolution of the Hopfield Neural Network or as a parallel implementation of the Simulated Annealing algorithm. <br/> <br/>Despite this relative lack of success, the neural network community has continued to progress in the analysis of the dynamics of the model. One remarkable extension is the High Order Boltzmann Machine (HOBM), where weights can connect more than two neurons at a time. Although the learning capabilities of this model have already been discussed by other authors, a formal equivalence between the weights in a standard BM and the high order weights in a HOBM has not yet been established. <br/> <br/>We analyze this latter equivalence between a second order BM and a HOBM by proposing an extension of the method known as decimation. Decimation is a common tool in statistical physics that may be applied to some kind of BMs, that can be used to obtain analytical expressions for the n-unit correlation elements required in the learning process. In this way, decimation avoids using the time consuming Simulated Annealing algorithm. However, as it was first conceived, it could only deal with sparsely connected neural networks. The extension that we define in this thesis allows computing the same quantities irrespective of the topology of the network. This method is based on adding enough high order weights to a standard BM to guarantee that the system can be solved. <br/> <br/>Next, we establish a direct equivalence between the weights of a HOBM model, the probability distribution to be learnt and Hadamard matrices. The properties of these matrices can be used to easily calculate the value of the weights of the system. Finally, we define a standard BM with a very specific topology that helps us better understand the exact equivalence between hidden units in a BM and high order weights in a HOBM.</dcterms:abstract>
<uketdterms:institution>Universitat Ramon Llull</uketdterms:institution>
<dcterms:issued>2011-01-20</dcterms:issued>
<dc:type>info:eu-repo/semantics/doctoralThesis</dc:type>
<dc:type>info:eu-repo/semantics/publishedVersion</dc:type>
<dc:language type="dcterms:ISO639-2">eng</dc:language>
<dcterms:isReferencedBy>http://www.tdx.cat/TDX-0124111-175646</dcterms:isReferencedBy>
<dcterms:isReferencedBy>http://hdl.handle.net/10803/9155</dcterms:isReferencedBy>
<dc:identifier type="dcterms:URI">https://www.tdx.cat/bitstream/10803/9155/1/EFarguellPhD_MemoriaTDX.pdf</dc:identifier>
<uketdterms:checksum type="uketdterms:MD5">efacff8844310d7f57947e3465c6b642</uketdterms:checksum>
<dcterms:hasFormat>https://www.tdx.cat/bitstream/10803/9155/2/EFarguellPhD_MemoriaTDX.pdf.txt</dcterms:hasFormat>
<uketdterms:checksum type="uketdterms:MD5">5986555900bc914c8e802dfce1c93d69</uketdterms:checksum>
<dc:subject>Artificial Neural Networks</dc:subject>
<dc:subject>Decimation</dc:subject>
<dc:subject>Boltzmann Machines</dc:subject>
<dc:subject>Artificial Intelligence</dc:subject>
<dc:subject>Redes Neuronales Artificiales</dc:subject>
<dc:subject>Decimación</dc:subject>
<dc:subject>Máquinas de Boltzmann</dc:subject>
<dc:subject>Inteligencia artificial</dc:subject>
<dc:subject>Xarxes Neuronals Artificials</dc:subject>
<dc:subject>Decimació</dc:subject>
<dc:subject>Màquines de Boltzmann</dc:subject>
<dc:subject>Intel·ligència artificial</dc:subject>
<dc:subject>Les TIC i la seva gestió</dc:subject>
</uketd_dc:uketddc>
Se ha omitido la presentación del registro por ser demasiado largo. Si lo desea, puede descargárselo en el enlace anterior.