Sunday 14 May 2017

Neural Network Moving Average



Rede Neural 2 Médias Móveis Uma rede neural Expert Advisor baseado em duas médias móveis com o modo de treinamento. Treinar o especialista em exemplos selecionados e fazer um lucro na vida real. A EA pode trabalhar em qualquer instrumento e em qualquer período de tempo. Algoritmo de Negociação da EA Duas médias móveis são analisadas pelo núcleo da rede neural, que produz comandos para comprar ou vender. São fornecidos à primeira camada os valores de duas médias móveis, rápidas (FMA) e lentas (SMA), na segunda camada calcula-se dois neurônios responsáveis ​​pela compra (N compra) e Venda (N vendem), a decisão de comprar Ou vender é feita no terceiro nível. O diagrama de blocos da rede neural é mostrado na figura. Treinamento do Conselheiro Especialista No modo de treinamento, a EA lembra os valores das médias móveis marcadas pelo usuário no gráfico do instrumento de moeda. No futuro, durante o funcionamento normal, reconhece os valores das médias móveis. Para treinar a marca EA, pelo menos, um longo e um comércio curto no gráfico. Para indicar um comércio longo use a seta Comprar, e para o comércio de curto use a seta Venda. Você pode colocar mais setas no gráfico. Quanto mais flechas, mais longo será o processo de treinamento. A presença de quaisquer outros objetos na tabela, além das setas, não é desejável. Após o treinamento, a pasta NN 2MA será criada na pasta comum do terminal. Ele conterá o arquivo HHHHHHNN2MA. bin com as configurações da rede neural treinada. XXXXXX no nome do arquivo é o nome do instrumento financeiro. Em operação normal, o EA carrega os dados do arquivo. Se o arquivo não for encontrado, ele usará as configurações padrão. Por padrão, a EA é treinada em USDJPY e um período de uma hora, os comércios são selecionados em 2012. Os seguintes parâmetros de entrada são responsáveis ​​pela formação EA: O número de pesos por neurônio. Igual ao comprimento do MA. Padrão - 48. O número de ciclos de treinamento - padrão 100. Quanto maior o valor, mais longo será o processo de treinamento. Na versão de teste é 10. Factor b - o valor afeta a velocidade da correção de pesos de neurônios, é usado para treinar a rede. O valor padrão é 0.7, não precisa ser alterado. Modo de aprendizagem EA - permite o modo de treino da EA. Exemplos de negociações especificadas para treinar o EA estão disponíveis na figura. Configurações do Modo Normal Configurações das Médias Móveis Você pode ajustar as configurações de cada média móvel: o período, o preço, o modo de cálculo. Volume da ordem - padrão é 0,1. Valor de deslizamentos em pontos - padrão é 30. Número de tentativas para abrir uma posição - padrão é 5. Nível StopLoss em pontos - padrão é 0. Nível TakeProfit em pontos - padrão é 0. Nível TrailingStop em pontos - padrão é 650. Permitir Gestão de dinheiro - controlar o tamanho da ordem para entrar no mercado, habilitado pelo defeito. Se o modo estiver desativado, o tamanho da ordem será retirado do parâmetro Volume de ordem. O volume de encomendas como uma percentagem do depósito - utilizado para controlar o tamanho da encomenda, o padrão é de 5 por cento. Adicionando à posição aberta - ativado por padrão. Se houver um sinal para entrar no mercado na direção de uma posição aberta, a EA entra no mercado. Configurações da Rede Neural O número de pesos por neurônio. Igual ao comprimento do MA. Quanto maior o valor, mais preciso será o estado atual do mercado ser reconhecido, mas reduz o número de comércios. Quanto menor o valor, menos preciso será o estado atual do mercado ser reconhecido, mas o número de negócios aumenta. O valor da ativação neuronal. O valor é aproximadamente 0,75 do valor de O número de pesos por neurônio. Quanto maior o valor, mais estrita é a seleção de neurônios para tomar uma decisão. Na versão de teste é 40. O número de ciclos de treinamento - padrão é 100. Fator b a velocidade de correção de peso, o padrão é 0.7. Modo de aprendizagem EA o modo de treinamento EA. Durante o treinamento, os valores máximos dos neurônios serão mostrados nos comentários no gráfico. Estes valores podem ser utilizados como um valor de activação do neurónio. Um exemplo é mostrado na figura. Ativar comentários - permite comentários no gráfico. Número mágico de conselheiro. Pausar após a negociação em milissegundos. Por padrão, o EA é treinado em USDJPY H1 em dois comércios em 2012. O resultado do Expert Advisor testes em 2013 é mostrado na figura. Neural rede 2 Moving Averages Uma rede neural Expert Advisor com base em duas médias móveis com o modo de treino . Treinar o especialista em exemplos selecionados e fazer um lucro na vida real. A EA pode trabalhar em qualquer instrumento e em qualquer período de tempo. Algoritmo de Negociação da EA Duas médias móveis são analisadas pelo núcleo da rede neural, que produz comandos para comprar ou vender. São fornecidos à primeira camada os valores de duas médias móveis, rápidas (FMA) e lentas (SMA), na segunda camada calcula-se dois neurônios responsáveis ​​pela compra (N compra) e Venda (N vendem), a decisão de comprar Ou vender é feita no terceiro nível. O diagrama de blocos da rede neural é mostrado na figura. Treinamento do Conselheiro Especialista No modo de treinamento, a EA lembra os valores das médias móveis marcadas pelo usuário no gráfico do instrumento de moeda. No futuro, durante o funcionamento normal, reconhece os valores das médias móveis. Para treinar a marca EA, pelo menos, um longo e um comércio curto no gráfico. Para indicar um comércio longo use a seta Comprar, e para o comércio de curto use a seta Venda. Você pode colocar mais setas no gráfico. Quanto mais flechas, mais longo será o processo de treinamento. A presença de quaisquer outros objetos na tabela, além das setas, não é desejável. Após o treinamento, a pasta NN 2MA será criada na pasta comum do terminal. Ele conterá o arquivo HHHHHHNN2MA. bin com as configurações da rede neural treinada. XXXXXX no nome do arquivo é o nome do instrumento financeiro. Em operação normal, o EA carrega os dados do arquivo. Se o arquivo não for encontrado, ele usará as configurações padrão. Por padrão, a EA é treinada em USDJPY e um período de uma hora, os comércios são selecionados em 2012. Os seguintes parâmetros de entrada são responsáveis ​​pela formação EA: O número de pesos por neurônio. Igual ao comprimento do MA. Padrão - 48. O número de ciclos de treinamento - padrão 100. Quanto maior o valor, mais longo será o processo de treinamento. Na versão de teste é 10. Factor b - o valor afeta a velocidade da correção de pesos de neurônios, é usado para treinar a rede. O valor padrão é 0.7, não precisa ser alterado. Modo de aprendizagem EA - permite o modo de treino da EA. Exemplos de negociações especificadas para treinar o EA estão disponíveis na figura. Configurações do Modo Normal Configurações das Médias Móveis Você pode ajustar as configurações de cada média móvel: o período, o preço, o modo de cálculo. Volume da ordem - padrão é 0,1. Valor de deslizamentos em pontos - padrão é 30. Número de tentativas para abrir uma posição - padrão é 5. Nível StopLoss em pontos - padrão é 0. Nível TakeProfit em pontos - padrão é 0. Nível TrailingStop em pontos - padrão é 650. Permitir Gestão de dinheiro - controlar o tamanho da ordem para entrar no mercado, habilitado pelo defeito. Se o modo estiver desativado, o tamanho da ordem será retirado do parâmetro Volume de ordem. O volume de pedidos como uma porcentagem do depósito - usado para controlar o tamanho da ordem, padrão é de 5 por cento. Adicionando à posição aberta - ativado por padrão. Se houver um sinal para entrar no mercado na direção de uma posição aberta, a EA entra no mercado. Configurações da Rede Neural O número de pesos por neurônio. Igual ao comprimento do MA. Quanto maior o valor, mais preciso será o estado atual do mercado ser reconhecido, mas reduz o número de comércios. Quanto menor o valor, menos preciso será o estado atual do mercado ser reconhecido, mas o número de negócios aumenta. O valor da ativação neuronal. O valor é aproximadamente 0,75 do valor de O número de pesos por neurônio. Quanto maior o valor, mais estrita é a seleção de neurônios para tomar uma decisão. Na versão de teste é 40. O número de ciclos de treinamento - padrão é 100. Fator b a velocidade de correção de peso, o padrão é 0.7. Modo de aprendizagem EA o modo de treinamento EA. Durante o treinamento, os valores máximos dos neurônios serão mostrados nos comentários no gráfico. Estes valores podem ser utilizados como um valor de activação do neurónio. Um exemplo é mostrado na figura. Ativar comentários - permite comentários no gráfico. Número mágico de conselheiro. Pausar após a negociação em milissegundos. Por padrão, a EA é treinada em USDJPY H1 em duas operações em 2012. O resultado do teste Expert Advisor em 2013 é mostrado na figura. Sistemas de Cognição Inspirados (BICS 2006) Entre Computação Natural e Artificial (IWINAC 2007) Melhoria De modelos automotivos regressivos de média móvel usando a lógica Fuzzy e redes neurais artificiais (RNAs) Mehdi Khashei. Mehdi Bijari Gholam Ali Raissi Ardali Departamento de Engenharia Industrial, Isfahan Universidade de Tecnologia, Isfahan, Irã Recebido 15 de julho de 2007. Revisado em 22 de abril de 2008. Aceito em 29 de abril de 2008. Disponível em linha em 20 de maio de 2008. Comunicado por G. P. Zhang série de tempo de previsão é uma área de pesquisa ativa que chamou a atenção considerável para aplicações em uma variedade de áreas. Os modelos ARIMA (Auto-Regressive Integrated Moved Average) são um dos modelos de séries cronológicas mais importantes utilizados na previsão do mercado financeiro nas últimas três décadas. As recentes atividades de pesquisa em previsões de séries temporais indicam que duas limitações básicas diminuem sua popularidade para a previsão de séries temporais financeiras: (a) Os modelos ARIMA assumem que os valores futuros de uma série temporal têm uma relação linear com valores atuais e passados, bem como com ruído branco , De modo que as aproximações por modelos ARIMA podem não ser adequadas para problemas não lineares complexos e (b) os modelos ARIMA requerem uma grande quantidade de dados históricos para produzir resultados precisos. Ambos os achados teóricos e empíricos sugeriram que a integração de diferentes modelos pode ser um método eficaz para melhorar seu desempenho preditivo, especialmente quando os modelos no conjunto são bastante diferentes. Neste artigo, os modelos ARIMA são integrados às Redes Neurais Artificiais (RNAs) e à lógica Fuzzy, para superar as limitações lineares e de dados dos modelos ARIMA, obtendo resultados mais precisos. Os resultados empíricos da previsão dos mercados financeiros indicam que os modelos híbridos exibem uma precisão de previsão efetivamente melhorada para que o modelo proposto possa ser usado como uma alternativa às ferramentas de previsão do mercado financeiro. Auto-Regressivo Média Móvel Integrada (ARIMA) Previsão de séries temporais Redes Neurais Artificiais (RNAs) Lógica fuzzy Mercados Financeiros Taxa de câmbio Fig. 1. A fig. 2. A fig. 3. Tabela 2. Fig. 4. Tabela 4. Fig. 5. A fig. 6. Tabela 6. Fig. 7. A fig. 8. Mehdi Khashei nasceu em 1979 em Esfahan, no Irã. Ele estudou engenharia industrial na Universidade de Tecnologia de Isfahan (IUT) e recebeu o mestrado em engenharia industrial em 2005. Ele é autor ou co-autor de cerca de 13 artigos científicos em revistas internacionais ou comunicações para conferências com comitê de revisão. Sua pesquisa atual combina os modelos Auto-Regressive Integrated Moving Average (ARIMA) com Redes Neurais Artificiais (RNAs) e lógica fuzzy com as previsões de séries temporais. Seus interesses de pesquisa incluem modelos computacionais do cérebro, lógica fuzzy, soft computing, aproximadores não lineares e previsão de séries temporais. Mehdi Bijari recebeu seu BSc em engenharia industrial, 1987, Mestrado em planejamento de sistemas, 1990, ambos da Universidade de Tecnologia de Isfahan (IUT), e PhD em engenharia industrial 2002, Sharif University of Technology. É docente no Departamento de Engenharia Industrial do IUT desde 1991. Sua pesquisa está na área de gerenciamento de projetos, simulação, planejamento de produção, métodos meta heurísticos, otimização, previsão de séries temporais e sistemas de informação. Ele publicou vários artigos em planejamento de produção, previsão de séries temporais e otimização. Gholam Ali Raissi Ardali é professor assistente de engenharia industrial na Isfahan University of Technology (IUT). Recebeu Bsc em estatística e informática em 1975, do Instituto de Estatística e Informática, Teerã, Irã, Mestrado em estatística aplicada, 1977, da Universidade de Brunel, Inglaterra, e PhD em tecnologia industrial, 1980, da Universidade de Bradford, Inglaterra. Seus interesses de pesquisa são gerenciamento de qualidade total, controle de qualidade estatístico, previsão de séries temporais, redes neurais e gerenciamento da cadeia de suprimentos. Autor correspondente. Tel. 98 311 3912550 1 fax: 98 311 3915526. Copyright 2008 Elsevier B. V. Todos os direitos reservados. Citing articles () Desenvolvimento de redes neurais para previsões financeiras Por: Lou Mendelsohn Extensa pesquisa tem sido conduzida sobre a aplicação de redes neurais para a previsão financeira no atual ambiente de negociação globalizado. O que torna este uso particular da inteligência artificial tão atraente para analistas financeiros e comerciantes Aqui, Lou Mendelsohn da Market Technologies destaca algumas dessas questões e estabelece metas para o treinamento de redes neurais. Com os avanços que estão sendo feitos nas tecnologias de computador e de telecomunicações hoje, as economias e os mercados financeiros principais dos mundos estão tornando-se cada vez mais globalized. À medida que esta tendência se acelera, os mercados financeiros estão a tornar-se cada vez mais inter-relacionados e factores fundamentais tornar-se-ão cada vez mais críticos para a análise do mercado financeiro. No mercado global, o método predominante de análise técnica - no qual um mercado único é modelado através da simulação histórica e dos testes de seus próprios comportamentos de preços - está rapidamente perdendo sua vantagem competitiva como instituições e comerciantes individuais estão cada vez mais aplicando artificial Inteligência (AI) para a previsão financeira. Pesquisas recentes mostram que esse domínio não-linear pode ser modelado com mais precisão com essas tecnologias do que com os métodos estatísticos lineares e de mercado único que têm sido o pilar da análise técnica ao longo da última década. É por causa desses fatores que o campo de IA merece um olhar mais atento. O resultado dessas novas demandas é o surgimento de um novo método analítico que funde a análise técnica e fundamental com a ênfase mais recente na análise de intermercados. Este método analítico combinado é conhecido como análise de mercado sinérgica ou análise sinérgica. Este novo método de análise, utilizando ferramentas de inteligência artificial, sintetiza os dados técnicos, intermercados e fundamentais dentro de uma estrutura analítica, resultando em melhores capacidades de previsão e identificação mais precoce das mudanças de tendência e permitindo que os comerciantes lucram com as ineficiências do mercado nos anos 90. Ferramentas como redes neurais, sistemas especializados e baseados no conhecimento, aprendizado de máquinas, lógica fuzzy, wavelets, teoria do caos e algoritmos genéticos estão sendo aplicados em todas as indústrias. Na mesma linha, as redes neurais podem ser aplicadas à previsão financeira porque as redes neurais têm mostrado ser tecnologicamente poderosas e flexíveis, idealmente adequadas para realizar análises sinérgicas. REDES NEURAIS ARTIFICIAIS As redes neurais artificiais são modelos baseados no funcionamento do cérebro humano, utilizando uma abordagem de processamento distribuído para a computação. As redes neurais são capazes de resolver uma ampla gama de problemas, aprendendo um modelo matemático para o problema: o modelo pode então ser usado para mapear dados de entrada para dados de saída. Qualquer coisa que possa ser representada como um número pode ser alimentada em uma rede neural. Indicadores técnicos e dados de preços fundamentais relacionados a um único mercado-alvo, bem como dados intermercados que afetam o mercado-alvo, podem ser alimentados em uma única rede neural e usados ​​para prever as direções de preços e tendências para o mercado-alvo. As redes neurais artificiais são compostas de elementos de processamento interconectados individuais (PEs). Essas Pes são análogas aos neurônios do cérebro e também são conhecidas como neurônios. Cada PE envia recebe dados de outras PEs. Matematicamente falando, o modelo padrão é relativamente simples. Para cada PE individual, os dados de entrada (I0-In) são multiplicados pelo peso (W0-Wn) associado à ligação ao PE. Esses produtos, por sua vez, são somados e passados ​​através de uma função de transferência, que converte a soma em um valor em um intervalo especificado - por exemplo, entre zero e um. A saída de um PE dado é então multiplicada por outro peso separado e alimentada no elemento de processamento seguinte. Se o elemento de processamento estiver na camada de saída, como seria o caso na FIGURA 1, então a saída do elemento de processamento não é multiplicada por um peso e em vez disso é uma saída da própria rede. A arquitetura selecionada da rede neural especifica o número de elementos de processamento presentes em uma rede ea maneira pela qual eles se conectam. É importante reconhecer que um único elemento de processamento é de pouca ou nenhuma utilidade. É a maneira pela qual as PEs individuais são organizadas para modelar sistemas não lineares complexos que é importante na aplicação de redes neurais à modelagem e previsão financeiras. VARIAÇÕES PARADIGMÁTICAS As redes neurais podem ser aplicadas a muitas áreas problemáticas gerais, incluindo classificação, filtragem, associação de padrões, otimização, conceitualização e previsão. O primeiro passo para criar uma aplicação de rede neural artificial envolve a identificação da categoria em que o problema em questão pertence - não necessariamente tão fácil quanto parece, porque muitos sistemas de redes neurais distintos são mais apropriados do que outros para uma determinada aplicação. Como nosso principal objetivo aqui é prever os preços ea direção das tendências, no entanto, esse problema pode ser classificado como preditivo. Muitos paradigmas diferentes podem ser usados ​​para propósitos de previsão. Cada um tem um número quase ilimitado de variações, dependendo de como você seleciona os parâmetros. Não é tão importante que você escolhe o paradigma perfeito para o seu problema - se existe tal coisa - como é simplesmente escolher um que é mais ou menos apropriado. Agora examine dois paradigmas bem conhecidos: feed-forward e redes recorrentes de retro-propagação. REDES DE PROPAGAÇÃO DE RETORNO PARA AVANÇAR Uma rede de camadas múltiplas de feed-forward, normalmente referida como uma rede de back-propagation ou back prop, é provavelmente o paradigma de rede mais comumente usado. Uma arquitectura representativa para uma rede de suporte posterior é mostrada na FIGURA 2. Estas redes são compostas por uma camada de entrada de neurónios, algumas camadas ocultas e uma camada de saída. As camadas entre a entrada e a saída são chamadas de camadas ocultas porque elas são essencialmente ocultas da visão dos desenvolvedores e usuários da rede. Embora uma rede back-prop pode ter qualquer número de camadas ocultas, uma é suficiente para realizar qualquer mapeamento de entrada para saída. Isso não significa que uma única camada oculta é sempre o número mais desejável, mas é definitivamente um bom lugar para começar. O funcionamento da rede é relativamente simples. Os dados de entrada - por exemplo, mudanças nos dados de preços e médias móveis de preços, volume e interesse aberto - são apresentados à rede na camada de entrada. Os valores associados a cada neurônio de entrada individual são alimentados na primeira camada oculta. Cada neurônio oculto recebe esses valores, multiplicado pelo peso apropriado, os soma, os executa através de uma função de transferência e produz uma saída. As saídas da camada oculta então avançam para a próxima camada oculta ou para a camada de saída. Esta apresentação (FIGURA 2) pressupõe que as camadas estão totalmente conectadas, em que cada neurônio na camada de entrada tem uma conexão com cada neurônio na camada oculta. O mesmo é verdadeiro para as conexões entre a camada oculta ea camada de saída. Isso não tem de ser o caso, mas é mais uma decisão a ser tomada quando projetar uma rede. Os valores iniciais dos pesos são seleccionados aleatoriamente nos estádios de treino da rede neural, pelo que o primeiro conjunto de valores de entrada (frequentemente referido como um vector de entrada) provavelmente não produzirá o vector de saída apropriado. Por exemplo, suponha que você tenha projetado uma rede para prever o preço médio de um estoque um dia no futuro, com base na diferença nos máximos e baixos dos últimos dois dias e uma média móvel dos fechamentos para os últimos cinco dias. Você apresentaria a rede com um único fato, composto de um vetor de entrada de três valores, onde cada valor corresponde a uma das entradas mencionadas, e um vetor de saída de valor único que representa o preço mediano dos próximos dias. Como resultado, o primeiro fato apresentado e alimentado através da rede é susceptível de produzir uma saída muito diferente da saída desejada. O que queremos que a rede aprenda é que o vetor de entrada que foi dado deve conter os fatores que eventualmente produziriam o vetor de saída fornecido. Em sua primeira tentativa de fazer isso, no entanto, a rede determina uma medida do erro entre a sua saída gerada ea saída desejada. Isso é feito para cada saída na camada de saída, que neste caso simples é apenas um. Os erros são então alimentados de volta através da rede, camada por camada, e são usados ​​para ajustar os pesos das conexões entre os neurônios para minimizar o erro total associado ao vetor de saída. Posteriormente, diferentes fatos relevantes são apresentados à rede repetidamente durante o treinamento para tentar reduzir o erro para níveis aceitáveis. Em problemas simples, o nível de erro pode ser reduzido a zero, mas esta não é uma expectativa realista na maioria das aplicações do mundo real. Recurrent Back-Propagation Networks Este tipo de rede consiste em uma única camada funcional de elementos de processamento. A FIGURA 3 mostra uma representação de duas camadas para tornar a arquitectura mais fácil de visualizar. Observe que os neurônios na primeira camada estão totalmente conectados aos neurônios na segunda camada. Os neurônios na segunda camada retornam à primeira camada com um mapeamento um-para-um. A segunda camada representa um atraso de tempo para a passagem de dados através da rede. Este tipo de arquitetura permite que a rede aprenda relações temporais. Em uma rede feed-forward back-prop, se você deseja apresentar fatos que contêm as diferenças na alta nos últimos cinco dias, você deve primeiro criar o que é referido como um instantâneo de seus dados através da construção de um fato com uma entrada Vetor contendo cinco valores (um para cada diferença) e uma saída para amanhã. Você teria que fazer isso para cada dia de fato apresentado à rede. Em certo sentido, você está codificando as informações temporais que deseja que a rede use (dados dos últimos cinco dias) nos próprios dados de entrada. No caso de uma rede recorrente, por outro lado, você apresentaria sequencialmente cada dia de fato como uma única diferença. Como a rede pode se alimentar de si mesma, ela pode aprender as informações temporais como resultado da ordem em que os fatos são apresentados. Nesse caso, você não precisa codificar a relação temporal nos dados de entrada. Nós fizemos pesquisas consideráveis ​​com redes recorrentes e de feed forward: mas a maioria dos pacotes de desenvolvimento de redes neurais comercialmente disponíveis não inclui um modelo recorrente, e por isso vamos nos concentrar principalmente em modelos de back-prop. Para cada rede recorrente existe uma rede de feed forward correspondente que pode ser projetada com comportamento idêntico, de modo que uma rede recorrente pode ser modelada com uma rede feed-forward. ARQUITECTURA DE REDE A arquitetura de rede compreende a função de transferência, o número eo layout dos elementos de processamento e a maneira como eles são interligados. Os requisitos gerais para a função de transferência em uma rede back-prop é que seja uma função não-linear, continuamente diferenciável - que é uma função cuja derivada existe em cada ponto e cuja função derivativa permite que a rede realize modelagem estatística não-linear. As funções de transferência mais comuns utilizadas são a sigmóide e a tangente hiperbólica: podem ser usadas efetivamente em uma rede back-prop, embora tenhamos muitas vezes percebido melhores resultados com a função tangente hiperbólica. Em termos de layout e conectividade, vamos nos concentrar em uma arquitetura de três camadas, totalmente conectado, como mostrado na FIGURA 2. Além da função de transferência e número de camadas, devemos selecionar o número de neurônios por camada, com a entrada E as camadas de saída, isso é direto. Suponha que você está tentando prever a mudança no fechamento de um determinado estoque e você quer fazer isso com base em uma média móvel de cinco dias do fechamento, uma média móvel de cinco dias da alta e uma média móvel de cinco dias Do baixo. Sua rede exigiria três neurônios de entrada e um neurônio de saída. Para qualquer problema não-linear, como o de prever os preços de um estoque ou mercadoria, a rede precisaria de pelo menos uma camada oculta. Escolher o número de neurônios na (s) camada (s) escondida (s) de uma rede de retro-propagação é apenas uma das decisões arquitetônicas a serem tomadas. Não há regras rígidas e rápidas disponíveis para determinar o número correto, portanto devemos nos basear em regras brutas ou experimentação ou em ambas. Freqüentemente, problemas mais complexos requerem um maior número de neurônios ocultos, mas descobrimos que muitos neurônios ocultos podem resultar em uma rede que é sobre-ajustada para os dados de treinamento e é improvável que funcionem bem em novos fatos invisíveis usados ​​para testes. Como podemos escolher um lugar para começar Você pode considerar várias diretrizes da indústria: Comece com um número de neurônios escondidos entre a metade do número de neurônios de entrada e duas vezes o número de neurônios de entrada. Comece com uma média do número de entradas mais o número de saídas ou simplesmente tome o máximo dos dois. Soma o número de neurônios de entrada e saída e, em seguida, multiplique esse valor por uma constante de ruído que varia dependendo da quantidade relativa de ruído nos dados. Quanto mais ruidosos forem os dados, maior será a constante. O resultado é então dividido no número total de dias úteis utilizados para treinamento. Escolher um ponto de partida inicial para o número de neurônios ocultos pode ser subjetivo. Depois de fazer isso, você vai querer treinar um número de redes, variando o número eo tamanho das camadas ocultas. Fazê-lo manualmente pode ser aconselhável para os comerciantes apenas começando a projetar suas próprias redes neurais, como ele vai ajudar a tornar-se mais familiarizado com os tradeoffs associados com valores variáveis ​​de parâmetros de treinamento, incluindo o número de unidades ocultas. À medida que você ganha mais experiente, você vai querer automatizar esse processo, uma vez que encontrar o número ideal de neurônios ocultos necessita de uma busca sistemática demorada. Ao desenvolver redes neurais, nenhum fator único, como o número de unidades ocultas, finalmente controla o desempenho da rede. Seleção e qualidade de dados, técnicas de pré-processamento de dados, otimização de parâmetros de treinamento e procedimentos de teste afetam o desempenho da rede. Essas questões serão examinadas com mais detalhes em artigos posteriores, bem como muitos problemas que podem surgir em cada estágio no desenvolvimento de uma rede neural. Em seguida, delinearei questões importantes envolvendo os dados técnicos, fundamentais e intermercados usados ​​em redes neurais, e também examinarei métodos de seleção de entrada bruta e como pré-processar essas entradas antes de entrarem na rede. Lou Mendelsohn é presidente da Market Technologies, Wesley Chapel, Fl. Uma empresa de pesquisa, desenvolvimento e consultoria envolvida na aplicação da inteligência artificial à análise de mercado sinérgica. Ele pode ser alcançado em 813-973-0496. REFERÊNCIAS Hecht-Nielsen, R. 1990. Neurocomputing, Addison-Wesley Publishing Company, Inc. Mendelsohn, Lou 1991. As Noções Básicas de Desenvolver um Sistema de Negociação Neural, Análise Técnica de STOCKS amp COMMODITIES, Volume 9: JUNHO Murphy, John J. 1991 Análise Técnica Intermarket, John Wiley amp Sons. Rumelhart, D. E. amp J. L. McClelland 1986. Processamento Distribuído Paralelo, Volumes 1 e 2, The Massachusetts Institute of Technology. Reimpresso da Análise Técnica da revista Stocks amp Commodities. (C) 1993 Technical Analysis, Inc., 4757 Califórnia Avenue S. W. Seattle, WA 98116-4499, (800) 832-4642.

No comments:

Post a Comment