icon-cookie
The website uses cookies to optimize your user experience. Using this website grants us the permission to collect certain information essential to the provision of our services to you, but you may change the cookie settings within your browser any time you wish. Learn more
I agree
Jeaneth Machicao J.
7 articles
My Web Markups - Jeaneth Machicao J.
  • regra de aprendizado local do tipo perceptron ou uma baseada em plasticidade sináptica é usada para os neurônios de leitura no LSM- tipo RC
  • feedforward
  • feedforward
  • Uma visão abrangente desses estudos está além do escopo desta revisão.
  • A computação em reservatório (RC) é originalmente uma estrutura baseada em RNN e, portanto, é adequada para processamento de informações temporais / seqüenciais
  • unidades reservatórias são tipicamente dadas por neurônios de pico excitatórios e inibitórios
  • No início dos anos 2000, ESNs ( Jaeger, 2001 , Jaeger e Haas, 2004 ) e LSMs ( Maass, 2011 , Maass et al., 2002 ) foram propostos independentemente como modelos RC seminais. Eles são diferentes dos RNNs convencionais, pois os pesos nas conexões recorrentes no reservatório não são treinados, mas apenas os pesos na leitura são treinados
  • Onde y(n)<math><mi mathvariant="bold" is="true">y</mi><mrow is="true"><mo is="true">(</mo><mi is="true">n</mi><mo is="true">)</mo></mrow></math> é o vetor de saída e WFora<math><msup is="true"><mrow is="true"><mi is="true">W</mi></mrow><mrow is="true"><mi mathvariant="normal" is="true">out</mi></mrow></msup></math>é a matriz de peso na leitura.
  • (i) A alta dimensionalidade
  • são discutid
  • um reservatório deve ser insensível a pequenas flutuações não essenciais, como ruído, para que entradas semelhantes sejam classificadas na mesma classe.
  • os RNNs são capazes de representarsistemas dinâmicos acionados por entradas seqüenciais devido às suas conexões de feedback.
  • Onde n<math><mi is="true">n</mi></math> denota tempo discreto, x(n)<math><mi mathvariant="bold" is="true">x</mi><mrow is="true"><mo is="true">(</mo><mi is="true">n</mi><mo is="true">)</mo></mrow></math>é o vetor de estado das unidades do reservatório,você(n)<math><mi mathvariant="bold" is="true">u</mi><mrow is="true"><mo is="true">(</mo><mi is="true">n</mi><mo is="true">)</mo></mrow></math> é o vetor de entrada, Wno<math><msup is="true"><mrow is="true"><mi is="true">W</mi></mrow><mrow is="true"><mi mathvariant="normal" is="true">in</mi></mrow></msup></math>é a matriz de peso para as conexões do reservatório de entrada eW<math><mi is="true">W</mi></math>é a matriz de peso para as conexões recorrentes no reservatório. A funçãof<math><mi mathvariant="bold" is="true">f</mi></math>representa uma função de ativação de elemento a elemento das unidades do reservatório, que geralmente é uma função de ativação do tipo sigmóide
  • Previsão de séries temporaisPrevisão caótica de séries temporais ( Jaeger, 2001 )
  • Embora o RC seja adequado para o reconhecimento de padrões temporais, ele pode ser aplicado ao reconhecimento de imagens , transformando uma imagem em uma sequência de valores de pixels
  • Esses métodos clássicos para o treinamento de RNNs são discutidos em um tutorial sobre RC ( Jaeger, 2002b ).
  • A simplicidade do método de treinamento no RC é atraente para desenvolvedores não especialistas.
  • O papel do reservatório no RC é transformar não linearmente as entradas seqüenciais em um espaço de alta dimensão
  • Google Scholar
  • enquanto apenas os pesos de leitura (WFora<math><msup is="true"><mrow is="true"><mi is="true">W</mi></mrow><mrow is="true"><mi mathvariant="normal" is="true">out</mi></mrow></msup></math>) são treinados com um algoritmo de aprendizado simples , como regressão linear
  • Além disso, estudos teóricos forneceram uma compreensão mais profunda da relação entre o desempenho computacional da RC e a dinâmica dos reservatórios, em termos de teoria de sistemas dinâmicos não lineares, teoria da informação e teoria estatística
  • Nosso objetivo é fornecer um ponto de vista abrangente em relação aos estudos interdisciplinares sobre RC físicos, classificando-os de acordo com o tipo de fenômeno físico utilizado para o reservatório.
  • O LSM foi proposto por Maass et al.
  • , os dados de entrada são transformados em padrões espaço-temporais em um espaço de alta dimensão por um RNN no reservatóri
  • Desde os anos 80, os RNNs têm sido utilizados para o reconhecimento de padrões temporais / seqüenciai
  • O modelo ESN foi proposto por Jaeger ( Jaeger, 2001 , Jaeger, 2007 , Jaeger e Haas, 2004 ).
  • A principal característica do RC é que os pesos de entrada (Wno<math><msup is="true"><mrow is="true"><mi is="true">W</mi></mrow><mrow is="true"><mi mathvariant="normal" is="true">in</mi></mrow></msup></math>) e os pesos das conexões recorrentes dentro do reservatório (W<math><mi is="true">W</mi></math>) não são treinado
  • (iii) Memória de desvanecimento (ou memória de curto prazo)
  • A regressão linear ou outro algoritmo simples de aprendizado de máquina é usado na leitura do RCN do tipo ESN ( Lukoševičius & Jaeger, 2009 )
  • . ii) Não linearidade
  • o retropropagação ao longo do tempo (BPTT) ( Rumelhart et al., 1985 ,Werbos, 1990 ) e aprendizagem recorrente em tempo real (RTRL) ( Doya, 1998 , Williams e Zipser, 1989 )
  • . (iv) A propriedade de separação
  • e redes recorrentes
  • arquiteturas de rede das RNAs são tipicamente classificada
  • A topologia e conectividade do RNN no LSM seguem as restrições das redes neurais biológicas. Especificamente, a probabilidade de que dois neurônios estejam conectados depende da distância entre suas posições. Esse reservatório é freqüentemente chamado de líquido e a operação LSM é chamada de computação líquida, porque é semelhante a meios excitáveis ​​que exibem ondulações em resposta a estímulos externos .
35 annotations
 technology and computing 564