Monday 31 July 2017

Forex Trading Online Indicators


O objetivo é escolher o melhor conjunto de indicadores. O desafio é combinar indicadores de forma inteligente. Isso significa que os indicadores devem fornecer diferentes tipos de informações sobre o mercado e confirmar uns aos outros em vez de sinais duplicados. Quando dois ou mais indicadores fornecem informações idênticas sobre os preços, isso quase não ajuda a negociar melhor e, enquanto os comerciantes de Forex chamam de confirmação de sinal, na realidade pode ser o mesmo tipo de dados, e deve ser chamado de duplicação em vez de confirmação. Quando o dinheiro está em jogo, o problema torna-se sério. A variedade de indicadores de Forex disponíveis nas plataformas de negociação Forex avançadas às vezes pode criar um desafio mesmo para um comerciante de Forex com experiência. Para controlar a situação, os comerciantes precisam escolher apenas ferramentas primárias úteis para evitar o excesso de informações. Especialmente se você é um comerciante novato, gostaria de sugerir-lhe dois indicadores mais populares e amplamente utilizados para começar a planejar suas negociações. Estas são: Médias móveis e indicador estocástico. O terceiro lugar é para MACD. As ondas de Elliott são um dos poucos estudos que podem dizer onde o mercado está agora, onde é provável que vá em seguida e, claro, quais são as oportunidades para os comerciantes. No entanto, não é um segredo que, para muitos comerciantes, a teoria das ondas de Elliott é um dos estudos mais difíceis, quer se trate de compreensão, uso ou seguindo a previsão de alguém. Bem, descubra o porquê. Para baixar um indicador de Forex-indicators. net 1. Clique com o botão direito do mouse no link do indicador 2. Selecione Salvar como ou Salvar link para baixar o indicador. Para instalar o seu indicador recém-baixado para MT4, use as seguintes etapas: 1. Feche o Metatrader4. 2. Coloque seu novo indicador na pasta MetaTrader ExpertsIndicators. 3. Execute as contas Metatrader4.Demo são uma oportunidade completamente gratuita de tentar negociar no RoboForex antes de abrir uma conta real. As contas de demonstração ajudam você a: Adquirir sua primeira experiência comercial sem investir dinheiro. Ajuste seus consultores especializados sem quaisquer despesas adicionais. Compare os tipos de execuções (Instantâneo, Mercado) e spreads (flutuante, fixo). As condições de negociação para contas de demonstração são completamente as mesmas que as reais para todas as plataformas de negociação. Os tipos de conta padrão do Pro são a melhor escolha para comerciantes experientes. Uma combinação de todos os programas de bônus e execução de alta qualidade: sem comissões. Minimização de custos devido a spreads flutuantes. Citações de 5 dígitos. O tipo de conta Fix-Standard é uma solução para comerciantes experientes, que preferem: spread fixo, que não aumenta quando estatísticas econômicas ou notícias comerciais são publicadas. As ordens do marcador são seguras para serem executadas ao preço exigido. Citações de 4 dígitos. O tipo de conta Pro-Cent é uma excelente oportunidade para iniciantes e comerciantes experientes começarem a negociar com um depósito inicial relativamente pequeno sem investimentos significativos: o volume mínimo de pedidos é de 0,001 lotes (lotes de 0,1 cêntimos). Minimização de custos devido a spreads flutuantes estreitos. O marcador e as ordens pendentes certamente serão executadas, incluindo períodos em que as notícias comerciais são publicadas. O tipo de conta Fix-Cent é uma forma rápida de iniciar a negociação, que ajuda a negociar sem investimentos significativos: o volume mínimo de pedidos é de 0.0001 lotes (lotes de 0,01 centavos). O spread reparado não aumenta após a publicação de notícias comerciais. As ordens do marcador são seguras para serem executadas ao preço exigido. Os tipos de conta NDD da ECN-Pro destinam-se a comerciantes profissionais, que escolhem: Melhor execução entre todos os tipos de contas disponíveis no RoboForex. Melhor velocidade de execução da ordem. Os spreads mais baixos. Os tipos de conta NDD da ECN-FixSpread destinam-se a comerciantes qualificados. Os recursos distintivos dessas contas são: spread fixo. As ordens do marcador são seguras para serem executadas ao preço postado. Perfeito para os comerciantes, que preferem a negociação e negociação de posições quando as publicações comerciais são publicadas. Bônus e serviços Condições especiais para clientes VIP Análise gratuita do VPS-server Free. Webinars e tutoriais em vídeo RAMM - um sistema de gerenciamento de investimentos CopyFX - transações copiando para Traders and Investors ContestFX - concursos gratuitos com prêmios reais Soluções de negociação RoboFX e liquidez para corretores Terminais RoboForex MetaTrader4. Uma plataforma popular compatível com Windows, Mac OS, Linux, Android e iOS, fornece acesso a todos os tipos de contas RoboForex, incluindo ECN NDD. Plataforma atualizada MetaTrader5, suportando contas de hedge, que permitem abrir ordens opostas no mesmo instrumento. Nova plataforma cTrader com contas de tipos NDD Pro e ECN. Umstel web-platform para negociação de ações dos EUA com acesso a idéias de investimento e recomendações de comerciantes experientes. Usando o WebTerminal RoboForex. Você pode trocar até mesmo pelo navegador. Best Retail Forex Broker 2015 O melhor corretor ECN 2015 Fastest Growing Forex Marca Ásia 2014 Melhor corretor padrão Forex 2014 O melhor corretor ECN 2013 Melhor fornecedor de análise de Forex 2013 Melhor marca Forex de varejo Rússia CIS 2013 Melhor corretor Forex de varejo 2013 Best Execution Broker, Eastern Europe 2013 O melhor corretor forex para negociação automatizada 2012 Fastest Growing ECN Broker Europa Oriental 2012 O melhor corretor para trabalhar com robôs e conselheiros forex 2011 Aviso de risco Há um alto nível de risco envolvido ao negociar produtos alavancados, como ForexCFDs. Você não deve arriscar mais do que você pode perder, é possível que você perca mais do que o seu investimento inteiro. Você não deve negociar ou investir, a menos que você compreenda completamente a verdadeira extensão da sua exposição ao risco de perda. Ao negociar ou investir, você deve sempre levar em consideração o nível de sua experiência. Os serviços de troca de cópias implicam riscos adicionais para o seu investimento devido à natureza desses produtos. Se os riscos envolvidos não estiverem claros para você, solicite um especialista externo para um conselho independente. Este site contém informações gerais, que se referem às seguintes empresas do grupo RoboForex: RoboForex (CY) Ltd é regulada pelo CySEC, o número de licença é 19113.RoboForex Ltd é regulado pelo IFSC, licença IFSC60271TS16. O site é propriedade da RoboForex (CY) Ltd. RoboForex (CY) Ltd e RoboForex Ltd não fornecem serviços financeiros a residentes da Bélgica, Canadá, EUA e Japão. Copie RoboForex, 2009-2017. Todos os direitos reservados.

Numpy Moving Average Example


Deep Reinforcement Learning: Pong from Pixels Esta é uma postagem de blog há muito atrasada sobre Reforço de Aprendizagem (RL). RL é quente Você pode ter notado que os computadores agora podem aprender a jogar jogos ATARI automaticamente (a partir de pixels do jogo bruto), eles estão batendo campeões do mundo em Go. Quadrúpedes simulados estão aprendendo a correr e a pular. E os robôs estão aprendendo a realizar tarefas de manipulação complexas que desafiam a programação explícita. Acontece que todos esses avanços estão sob o guarda-chuva da pesquisa RL. Também me interessei pelo RL no último ano: trabalhei no livro de Richard Suttons. Leia o curso David Silvers. Assistiu as palestras de John Schulmanns. Escreveu uma biblioteca RL em Javascript. Durante o verão internado na DeepMind trabalhando no grupo DeepRL e, mais recentemente, lançou um pouco sobre o design do desenvolvimento do OpenAI Gym. Um novo kit de ferramentas de benchmarking RL. Então, eu certamente estive neste movimento há pelo menos um ano, mas até agora não consegui escrever uma breve publicação sobre o motivo da RL é um grande negócio, sobre o que aconteceu, como tudo se desenvolveu e para onde poderia estar acontecendo. Exemplos de RL na natureza. Da esquerda para a direita . Deep Q Learning Network jogando ATARI, AlphaGo, Berkeley, empilhando robôs Legos, fisicamente simulado em quadrúpedes saltando sobre o terreno. É interessante refletir sobre a natureza do progresso recente na RL. Eu geralmente gostaria de pensar em quatro fatores separados que impedem AI: Compute (o óbvio: Lei Moores, GPUs, ASICs), Dados (em uma forma legal, não apenas em algum lugar na internet - por exemplo, ImageNet), Algoritmos ( Pesquisa e idéias, por exemplo, backprop, CNN, LSTM) e infra-estrutura (software sob você - Linux, TCPIP, Git, ROS, PR2, AWS, AMT, TensorFlow, etc.). Semelhante ao que aconteceu no Computer Vision, o progresso na RL não é conduzido tanto quanto você pode razoavelmente assumir por novas ideias incríveis. Em Computer Vision, o AlexNet de 2012 foi principalmente uma versão ampliada (maior e mais ampla) dos ConvNets dos anos 90. Da mesma forma, o trabalho ATARI Deep Q Learning a partir de 2013 é uma implementação de um algoritmo padrão (Q Aprendendo com aproximação de função, que você pode encontrar no livro RL padrão de Sutton, 1998), onde o calculador de função passou a ser um ConvNet. AlphaGo usa gradientes de políticas com Monte Carlo Tree Search (MCTS) - estes também são componentes padrão. Claro, é preciso muita habilidade e paciência para que ele funcione, e vários ajustes inteligentes sobre os algoritmos antigos foram desenvolvidos, mas para uma aproximação de primeira ordem, o principal driver do progresso recente não é os algoritmos, mas (semelhante Para Computer Vision) computedatainfrastructure. Agora volte para RL. Sempre que há uma desconexão entre o que parece mágico e o quão simples é sob o capô eu tenho todo o antsy e realmente quero escrever uma postagem de blog. Neste caso, eu vi muitas pessoas que não acreditam que podemos aprender automaticamente a jogar a maioria dos jogos da ATARI no nível humano, com um algoritmo, a partir de pixels e a partir do zero - e é incrível, e eu já estive lá. A abordagem que usamos também é muito profundamente idiota (embora eu ache que é fácil fazer essas afirmações em retrospectiva). De qualquer forma, eu gosto de orientá-lo através de Gradientes de políticas (PG), nossa opção padrão preferida por atacar problemas de RL no momento. Se você estiver fora de RL, você pode estar curioso porque não estou apresentando o DQN em vez disso, o que é um algoritmo de RL alternativo e mais conhecido, amplamente divulgado pelo jogo ATARI. Acontece que o Q-Learning não é um ótimo algoritmo (você poderia dizer que o DQN é tão 2013 (ok, Im 50 brincando)). Na verdade, a maioria das pessoas prefere usar os Gradientes de Políticas, incluindo os autores do documento DQN original que mostraram que os Gradientes de Políticas funcionam melhor que o Q Learning quando ajustados. PG é preferido porque é de ponta a ponta: há uma política explícita e uma abordagem baseada em princípios que otimiza diretamente a recompensa esperada. De qualquer forma, como um exemplo de corrida, aprenda a jogar um jogo ATARI (Pong) com PG, desde o ponto de vista, a partir de pixels, com uma rede neural profunda e o conjunto é 130 linhas de Python usando apenas numpy como uma dependência (link Gist) . Vamos lá. Pong de pixels à esquerda: o jogo de Pong. Direito: Pong é um caso especial de um Processo de Decisão Markov (MDP). Um gráfico onde cada nó é um determinado estado do jogo e cada vantagem é uma transição possível (em geral probabilística). Cada vantagem também dá uma recompensa, e o objetivo é calcular a maneira ideal de atuar em qualquer estado para maximizar as recompensas. O jogo de Pong é um excelente exemplo de uma simples tarefa RL. Na versão ATARI 2600, use-o como uma das pás (o outro é controlado por uma IA decente) e você tem que saltar a bola além do outro jogador (eu na verdade não preciso explicar Pong, certo). No nível baixo, o jogo funciona da seguinte forma: recebemos uma moldura de imagem (uma matriz de 210x160x3 bytes (inteiros de 0 a 255 que dão valores de pixel)) e nós decidimos se queremos mover a paddle UP ou DOWN (ou seja, um binário escolha). Depois de cada única escolha, o simulador de jogo executa a ação e nos dá uma recompensa: ou uma recompensa 1 se a bola passou pelo adversário, uma recompensa -1 se perdi a bola ou 0 de outra forma. E é claro, nosso objetivo é mover a padela para que recebamos muita recompensa. Ao passar pela solução, lembre-se de que, bem, tente fazer muito poucos pressupostos sobre Pong, porque secretamente não nos importamos muito com Pong. Nós nos preocupamos com problemas complexos e de alta dimensão, como manipulação de robôs, montagem e navegação. Pong é apenas um caso de teste de brinquedo divertido, algo com o qual jogamos enquanto descobrimos como escrever sistemas de AI muito gerais que podem um dia fazer tarefas úteis arbitrárias. Rede de políticas. Primeiro, deveríamos definir uma rede de políticas que implemente o nosso jogador (ou agente). Esta rede tomará o estado do jogo e decidirá o que devemos fazer (mover para cima ou para baixo). Como nosso bloco simples de cálculo simples, use uma rede neural de 2 camadas que leva os pixels da imagem bruta (100.800 números totais (2101603)) e produz um único número indicando a probabilidade de subir. Note-se que é padrão usar uma política estocástica, o que significa que nós apenas produzimos uma probabilidade de avançar. Toda iteração que amostrasmos dessa distribuição (ou seja, jogue uma moeda tendenciosa) para obter o movimento real. A razão para isso se tornará mais clara uma vez que falamos sobre treinamento. Nossa rede de políticas é uma rede completamente conectada de 2 camadas. E para tornar as coisas concretas aqui é como você pode implementar esta rede de políticas em Pythonnumpy. Suponhamos ter um vetor x que contém as informações de pixels (pré-processadas). Nós calcularíamos: onde neste snippet W1 e W2 há duas matrizes que inicializamos aleatoriamente. Não estava usando vícios porque eu. Observe que usamos a não linearidade sigmoide no final, que esmaga a probabilidade de saída para o intervalo 0,1. Intuitivamente, os neurônios na camada oculta (que tem os pesos dispostos ao longo das linhas de W1) podem detectar vários cenários de jogo (por exemplo, a bola está no topo e a nossa paddle está no meio), e os pesos em W2 podem então Decida se, em cada caso, devemos estar indo PARA CIMA ou ABAIXO. Agora, o aleatório inicial W1 e W2, naturalmente, faz com que o jogador espagueie no local. Então, o único problema agora é encontrar W1 e W2 que levem ao jogo especializado da impressão Pong Fine: pré-processamento. Idealmente, você deseja alimentar pelo menos 2 quadros na rede de políticas para que ele possa detectar o movimento. Para tornar as coisas um pouco mais simples (fiz essas experiências no meu Macbook), faço um pequeno trecho de pré-processamento, p. Ex. Bem, na verdade, alimente quadros de diferença para a rede (ou seja, subtração do atual e último quadro). Parece meio impossível. Neste ponto, gostaria que você apreciasse o quão difícil era o problema de RL. Recebemos 100.800 números (2101603) e encaminhemos nossa rede de políticas (que facilmente envolve na ordem de um milhão de parâmetros em W1 e W2). Suponha que decidimos ir para cima. O jogo pode responder que obtemos 0 recompensas neste momento e nos dá outros 100.800 números para a próxima moldura. Poderíamos repetir esse processo por cem timestaps antes de obtermos uma recompensa não-zero, E. g. Suponha que finalmente conseguimos um 1. Isso é ótimo, mas como podemos dizer o que fez isso acontecer. Era algo que fazíamos agora ou talvez 76 quadros atrás. Ou talvez tivesse algo a ver com o quadro 10 e depois com o quadro 90 E como nós achamos Qual dos milhões de botões a mudar e como, para fazer melhor no futuro, chamamos isso de problema de atribuição de crédito. No caso específico de Pong, sabemos que conseguimos um 1 se a bola passar pelo oponente. A verdadeira causa é que nós passamos a saltar a bola em uma boa trajetória, mas na verdade fizemos tantos quadros há - por exemplo, Talvez cerca de 20 no caso de Pong, e cada ação que fizemos depois teve efeito zero sobre se acabamos recebendo a recompensa ou não. Em outras palavras, enfrentaram um problema muito difícil e as coisas parecem bastante sombrias. Aprendizagem supervisionada. Antes de mergulhar na solução Policy Gradients Id, gostaria de lembrá-lo brevemente sobre a aprendizagem supervisionada, pois, também, veja, RL é muito semelhante. Consulte o diagrama abaixo. Na aprendizagem supervisionada ordinária, alimentaríamos uma imagem para a rede e obteríamos algumas probabilidades, p. ex. Para duas classes para cima e para baixo. Estou mostrando probabilidades de log (-1.2, -0.36) para UP e DOWN em vez das probabilidades brutas (30 e 70 neste caso) porque sempre otimizamos a probabilidade logarítmica do rótulo correto (isso torna as matemáticas mais bonitas e é equivalente a otimizar A probabilidade bruta porque o log é monotônico). Agora, na aprendizagem supervisionada, teríamos acesso a um rótulo. Por exemplo, pode-se dizer que a coisa correta a fazer agora é ir para cima (etiqueta 0). Em uma implementação, entraríamos gradiente de 1.0 na probabilidade de log de UP e executar backprop para calcular o vetor de gradiente (nabla log p (yUP mid x)). Este gradiente nos diria como devemos mudar cada um dos nossos milhões de parâmetros para tornar a rede um pouco mais propensa a prever UP. Por exemplo, um dos milhões de parâmetros na rede pode ter um gradiente de -2,1, o que significa que, se ampliássemos esse parâmetro por uma pequena quantidade positiva (por exemplo, 0,001), a probabilidade logarítmica de UP diminuirá em 2,1,001 ( Diminuição devido ao sinal negativo). Se, então, fizesse uma atualização de parâmetro, então, nossa rede agora seria um pouco mais propensa a prever UP quando ver uma imagem muito semelhante no futuro. Gradientes de políticas. Ok, mas o que fazemos se não possuímos o rótulo correto na configuração de Reforço de Aprendizado. Aqui está a solução de Gradientes de Política (consulte novamente o diagrama abaixo). Nossa rede de políticas calculou a probabilidade de subir UP como 30 (logprob -1.2) e DOWN como 70 (logprob -0.36). Agora amostraremos uma ação dessa distribuição. Suponha que amostraso DOWN, e vamos executá-lo no jogo. Neste ponto, note um fato interessante: podemos preencher imediatamente um gradiente de 1.0 para ABAIXO como fizemos em aprendizado supervisionado e encontrar o vetor de gradiente que incentivaria a rede a ser um pouco mais propensos a fazer a ação DOWN no ​​futuro. Então, podemos avaliar imediatamente esse gradiente e isso é ótimo, mas o problema é que, pelo menos por enquanto, ainda não sabemos se ir para baixo é bom. Mas o ponto crítico é que está tudo bem, porque podemos simplesmente esperar um pouco e ver Por exemplo, em Pong, poderíamos aguardar até o final do jogo, então pegue a recompensa que obtemos (ou seja, se ganhássemos ou -1 se perdêssemos ), E entre nesse escalar como o gradiente para a ação que tomamos (ABAIXO neste caso). No exemplo abaixo, ir para baixo acabou com a gente perdendo o jogo (-1 recompensa). Então, se preenchermos -1 para a probabilidade de log de DOWN e fazer backprop, encontraremos um gradiente que desencoraja a rede de tomar a ação DOWN para essa entrada no futuro (e com razão, uma vez que levar essa ação nos levou a perder o jogo ). E é isso: temos uma política estocástica que amostras de ações e, em seguida, as ações que acabam levando a bons resultados são encorajadas no futuro, e as ações tomadas que levam a resultados ruins são desencorajadas. Além disso, a recompensa nem precisa ser 1 ou -1 se ganharmos o jogo eventualmente. Pode ser uma medida arbitrária de algum tipo de eventual qualidade. Por exemplo, se as coisas acontecerem muito bem, poderia ser 10,0, o que, então, entraríamos como gradiente em vez de -1 para iniciar o backprop. Essa é a beleza das redes neurais. Usá-las pode sentir como trapaça: você pode ter 1 milhão de parâmetros incorporados em 1 teraflop de computação e você pode fazer coisas arbitrárias com o SGD. Não deve funcionar, mas divertidamente nós vivemos em um universo onde ele faz. Protocolo de treinamento. Então, aqui é como o treinamento funcionará em detalhes. Inicializaremos a rede de políticas com alguns W1. W2 e jogue 100 jogos de Pong (chamamos esses lançamentos de políticas). Vamos assumir que cada jogo é composto de 200 quadros, de modo que, no total, fizemos 20.000 decisões para ir para cima ou para baixo e, para cada um desses, conhecemos o gradiente do parâmetro, o que nos diz como devemos mudar os parâmetros se quisermos encorajar isso Decisão nesse estado no futuro. Tudo o que resta agora é rotular todas as decisões tomadas como boas ou ruins. Por exemplo, suponhamos que ganhamos 12 jogos e perdemos 88. Pegue todas as 20012 2400 decisões que fizemos nos jogos vencedores e faça uma atualização positiva (preenchendo um 1.0 no gradiente para a ação amostrada, fazendo backprop e atualização de parâmetros encorajando as ações Nós escolhemos em todos esses estados). E bem, tome as outras decisões do 20088 17600 que fizemos nos jogos perdidos e fizemos uma atualização negativa (desencorajando o que fizemos). E é isso. A rede agora se tornará um pouco mais propensa a repetir as ações que funcionaram, e um pouco menos propensos a repetir as ações que não funcionaram. Agora jogamos outros 100 jogos com nossa nova política ligeiramente melhorada e enxágue e repita. Gradientes de políticas: Execute uma política por um tempo. Veja quais ações levaram a altas recompensas. Aumente sua probabilidade. Diagrama dos desenhos animados de 4 jogos. Cada círculo preto é algum estado do jogo (três estados de exemplo são visualizados na parte inferior) e cada seta é uma transição, anotada com a ação que foi amostrada. Nesse caso, ganhamos 2 jogos e perdemos 2 jogos. Com os Gradientes de Políticas, nós levamos os dois jogos que ganhamos e incentivamos um pouco cada ação que fizemos nesse episódio. Por outro lado, também levamos os dois jogos que perdemos e desencorajamos ligeiramente todas as ações que fizemos nesse episódio. Se você pensar nesse processo, você começará a encontrar algumas propriedades engraçadas. Por exemplo, se fizéssemos uma boa ação no quadro 50 (saltando a bola de volta corretamente), mas então perdi a bola no quadro 150. Se cada ação única agora é rotulada como ruim (porque perdemos), isso não desencorajaria o salto correto Quadro 50 Você está certo - sim. No entanto, quando você considera o processo ao longo de milhares de milhões de jogos, então, fazer o primeiro salto com correção faz com que você possua mais chances de ganhar a estrada, então, em média, você verá atualizações mais positivas do que negativas para o salto correto e sua política acabará fazendo a coisa certa. Atualização: 9 de dezembro de 2016 - visão alternativa. Na minha explicação acima, uso os termos, como preencher o gradiente e backprop, o que eu percebo é um tipo especial de pensamento se você estiver escrevendo seu próprio código de backprop ou usando Torch onde os gradientes são explícitos e abertos para retoques. No entanto, se você estiver acostumado com Theano ou TensorFlow, você pode estar um pouco perplexo porque o código é oranizado em torno de especificar uma função de perda e o backprop é totalmente automático e difícil de mexer. Nesse caso, a seguinte visão alternativa pode ser mais intuitiva. Na aprendizagem supervisionada de baunilha, o objetivo é maximizar (sumi log p (yi mid xi)) onde (xi, yi) são exemplos de treinamento (como imagens e seus rótulos). Os gradientes de política são exatamente o mesmo que o aprendizado supervisionado com duas diferenças menores: 1) Não temos os rótulos corretos (yi), de modo que, como uma etiqueta falsa, substituímos a ação que passamos a provar da política quando viu (xi) e 2 ) Nós modulamos a perda para cada exemplo de forma multiplicativa com base no resultado final, uma vez que queremos aumentar a probabilidade de log para ações que funcionaram e diminuí-las para aqueles que não fizeram. Então, em resumo, nossa perda agora parece (sumi Ai log p (yi mid xi)), onde (yi) é a ação que passamos a amostra e (Ai) é um número que chamamos de vantagem. No caso de Pong, por exemplo, (Ai) poderia ser 1,0 se, eventualmente, ganhássemos no episódio que continha (xi) e -1,0 se perdêssemos. Isso garantirá que maximizamos a probabilidade logarítmica de ações que levaram a um bom resultado e minimizem a probabilidade logarítmica dos que não o fizeram. Assim, o aprendizado de reforço é exatamente como o aprendizado supervisionado, mas em um conjunto de dados em constante mudança (os episódios), escalados pela vantagem, e nós só queremos fazer uma (ou muito poucas) atualizações com base em cada conjunto de dados amostrado. Funções de vantagem mais gerais. Eu também prometi um pouco mais de discussão sobre os retornos. Até agora, julgamos a bondade de cada ação individual com base em se ganhamos ou não o jogo. Em uma configuração RL mais geral, receberíamos alguma recompensa (rt) em cada etapa. Uma escolha comum é usar uma recompensa com desconto, então a eventual recompensa no diagrama acima se tornaria (Rt sum gammak r), onde (gama) é um número entre 0 e 1 chamado fator de desconto (por exemplo, 0,99). A expressão afirma que a força com a qual incentivamos uma ação amostrada é a soma ponderada de todas as recompensas depois, mas as recompensas posteriores são exponencialmente menos importantes. Na prática, também pode ser importante normalizá-los. Por exemplo, suponha que nós computem (Rt) para todas as 20.000 ações no lote de lançamentos de jogos de 100 Pong acima. Uma boa idéia é padronizar esses retornos (por exemplo, subtrair média, dividir por desvio padrão) antes de conectá-los em backprop. Desta forma, sempre foram encorajadores e desencorajando cerca de metade das ações realizadas. Matematicamente, você também pode interpretar esses truques como uma maneira de controlar a variância do estimador de gradiente de política. Uma exploração mais aprofundada pode ser encontrada aqui. Derivados de política de derivação. Eu também gostaria de dar um esboço de onde os Gradientes de Políticas provêm matematicamente. Gradientes de política são um caso especial de um estimador de gradiente de função de pontuação mais geral. O caso geral é que quando temos uma expressão da forma (E f (x)) - ou seja, a expectativa de alguma função de pontuação escalar (f (x)) em alguma distribuição de probabilidade (p (xtheta)) parametrizada por alguns ( Theta). A dica de dica, (f (x)) se tornará a nossa função de recompensa (ou a função de vantagem em geral) e (p (x)) será a nossa rede de políticas, que é realmente um modelo para (p (meia I)), dando Uma distribuição sobre ações para qualquer imagem (I). Então, estamos interessados ​​em descobrir como devemos mudar a distribuição (através de seus parâmetros (theta)) para aumentar as pontuações de suas amostras, conforme julgado por (f) (ou seja, como mudamos os parâmetros das redes para que as amostras de ação obtenham recompensas mais elevadas ). Nós temos isso: para colocar isso em inglês, temos alguma distribuição (p (xtheta)) (usei taquigrafia (p (x)) para reduzir a desordem) de que podemos experimentar (por exemplo, isso pode ser um gaussiano). Para cada amostra, também podemos avaliar a função de pontuação (f) que leva a amostra e nos dá um escore escalonado. Esta equação está nos dizendo como devemos mudar a distribuição (por meio de seus parâmetros (theta)) se quisermos que suas amostras alcancem pontuações mais altas, conforme julgado por (f). Em particular, diz que olhe: desenhe algumas amostras (x), avalie suas pontuações (f (x)), e para cada (x) também avalie o segundo termo (nabla log p (xtheta)). O que é este segundo termo É um vetor - o gradiente que está nos dando a direção no espaço de parâmetros que levaria ao aumento da probabilidade atribuída a (x). Em outras palavras, se estivéssemos empurrar (theta) na direção de (nabla log p (xtheta)) veríamos a nova probabilidade atribuída a alguns (x) aumentar ligeiramente. Se você olha para trás na fórmula, está nos dizendo que devemos seguir esta direção e multiplicar nele a pontuação escalonada (f (x)). Isso fará com que as amostras que tenham uma pontuação maior arrasarão a densidade de probabilidade mais forte do que as amostras com menor pontuação, então, se fôssemos fazer uma atualização com base em várias amostras de (p), a densidade de probabilidade mudaria em torno de A direção de pontuações mais altas, tornando as amostras altamente pontuais mais prováveis. Uma visualização do estimador de gradiente de função de pontuação. Esquerda . Uma distribuição gaussiana e algumas amostras dele (pontos azuis). Em cada ponto azul também traçamos o gradiente da probabilidade de log em relação ao parâmetro médio dos gaussianos. A seta indica a direção na qual a média da distribuição deve ser empurrada para aumentar a probabilidade dessa amostra. Médio. Sobreposição de alguma função de pontuação dando -1 em todos os lugares, exceto 1 em algumas regiões pequenas (note que esta pode ser uma função arbitrária e não necessariamente diferencial de valor escalar). As setas agora são codificadas por cores porque devido à multiplicação na atualização, vamos em média todas as setas verdes e o negativo das setas vermelhas. Certo . Após a atualização do parâmetro, as setas verdes e as setas vermelhas invertidas nos cutucam para a esquerda e para a parte inferior. As amostras dessa distribuição agora terão uma pontuação esperada mais alta, conforme desejado. Espero que a conexão com a RL seja clara. Nossa rede de políticas nos fornece exemplos de ações, e algumas funcionam melhor do que outras (conforme julgado pela função de vantagem). Esta pequena peça de matemática está nos dizendo que a maneira de mudar os parâmetros da polícia é fazer alguns lançamentos, assumir o gradiente das ações amostradas, multiplicá-la pela pontuação e adicionar tudo, o que foi feito acima. Para uma derivação e discussão mais completa, recomendo a leitura de John Schulmans. Aprendendo . Tudo bem, desenvolvemos a intuição para os gradientes de políticas e vimos um esboço de sua derivação. Eu implementei toda a abordagem em um script Python de 130 linhas. Que usa OpenAI Gym s ATARI 2600 Pong. Eu treinei uma rede de políticas de 2 camadas com 200 unidades de camada oculta usando RMSProp em lotes de 10 episódios (cada episódio é uma dúzia de jogos, porque os jogos chegam a uma pontuação de 21 para qualquer jogador). Eu não ajustei os hiperparâmetros demais e executei o experimento no Macbook (lento), mas depois de treinar por 3 noites acabei com uma política ligeiramente melhor do que o jogador AI. O número total de episódios foi de aproximadamente 8.000, de modo que o algoritmo jogou aproximadamente 200.000 jogos Pong (bastante não é) e realizou um total de 800 atualizações. Eu disse aos amigos que, se você treinar na GPU com ConvNets por alguns dias, você pode vencer o jogador da AI com mais freqüência e, se você também otimizar cuidadosamente os hiperparâmetros, você também pode dominar consistentemente o jogador da IA ​​(ou seja, vencer todos os jogos). No entanto, eu não passava muito tempo informando ou ajustando, então, ao invés disso, acabamos com um Pong AI que ilustra as idéias principais e funciona muito bem: o agente aprendido (no verde, à direita) de frente para fora com o oponente de AI codificado esquerda). Aprendeu pesos. Podemos também dar uma olhada nos pesos aprendidos. Devido ao pré-processamento, cada uma de nossas entradas é uma imagem de diferença de 80x80 (quadro atual menos último quadro). Agora podemos levar cada linha de W1. Esticá-los para 80x80 e visualizar. Abaixo está uma coleção de 40 neurônios (em 200) em uma grade. Os pixels brancos são pesos positivos e os pixels pretos são pesos negativos. Observe que vários neurônios são sintonizados em traços particulares de bola saltando, codificados com alternando preto e branco ao longo da linha. A bola só pode estar em um único ponto, então esses neurônios são multitarefa e dispararão para vários locais da bola ao longo dessa linha. A alternância de preto e branco é interessante porque, à medida que a bola viaja ao longo do traço, a atividade dos neurônios flutuará como uma onda senoidal e, devido ao ReLU, ele dispararia em posições discretas e separadas ao longo do traçado. Há um pouco de ruído nas imagens, o que eu suponho que teria sido mitigado se eu usasse a regularização de L2. O que não está acontecendo Então lá você tem isso - nós aprendemos a jogar Pong a partir de pixels em bruto com gradientes de políticas e isso funciona bastante bem. A abordagem é uma forma elegante de adivinhar e verificar, onde o adivinho refere-se a lançamentos de amostragem de nossa política atual, e o cheque refere-se a ações encorajadoras que levam a bons resultados. Modulo alguns detalhes, isso representa o estado da arte em como atualmente abordamos problemas de aprendizagem de reforço. É impressionante que possamos aprender esses comportamentos, mas se você entendeu o algoritmo intuitivamente e você sabe como funciona, você deve estar um pouco desapontado. Em particular, como isso não funciona Compare isso com a forma como um ser humano pode aprender a jogar Pong. Você mostra o jogo e diz algo ao longo das linhas de Youre no controle de uma pá e você pode movê-lo para cima e para baixo, e sua tarefa é saltar a bola além do outro jogador controlado pela AI, e você está pronto e pronto para ir . Observe algumas das diferenças: em configurações práticas geralmente comunicamos a tarefa de alguma maneira (por exemplo, inglês acima), mas em um problema de RL padrão você assume uma função de recompensa arbitrária que você precisa descobrir através de interações ambientais. Pode-se argumentar que se um humano entrou no jogo de Pong, mas sem saber nada sobre a função de recompensa (de fato, especialmente se a função de recompensa fosse alguma função estática, mas aleatória), o humano teria muita dificuldade em aprender o que fazer, mas Gradientes de política seria indiferente, e provavelmente funcionará muito melhor. Da mesma forma, se tomarmos os quadros e permutássemos os pixels de forma aleatória, então os humanos provavelmente falhariam, mas nossa solução de Gradiente de Política não poderia nem mesmo dizer a diferença (se estiver usando uma rede totalmente conectada como feita aqui). Um humano traz uma grande quantidade de conhecimento prévio, como a física intuitiva (a bola salta, é improvável que se teleporte, é improvável que pareça de repente, mantém uma velocidade constante, etc.) e psicologia intuitiva (o oponente de IA quer Ganhar, é provável que siga uma óbvia estratégia de se mover para a bola, etc.). Você também entende o conceito de estar no controle de uma pá, e que ele responde aos comandos da tecla UPDOWN. Em contraste, nossos algoritmos começam a partir do zero, que é simultaneamente impressionante (porque funciona) e deprimente (porque faltamos idéias concretas sobre como não fazer isso). Gradientes de política são uma solução de força bruta, onde as ações corretas são eventualmente descobertas e internalizadas em uma política. Os seres humanos constroem um modelo e plano rico e abstrato dentro dele. Em Pong, posso argumentar que o oponente é bastante lento, por isso pode ser uma boa estratégia para saltar a bola com alta velocidade vertical, o que faria com que o oponente não atira a tempo. No entanto, também parece que também podemos internalizar as boas soluções no que se sente mais como uma política de memória muscular reativa. Por exemplo, se você estiver aprendendo uma nova tarefa de motor (por exemplo, dirigindo um carro com mudança de palito), muitas vezes sente-se pensando muito no começo, mas eventualmente a tarefa se torna automática e sem sentido. Os Gradientes de Políticas têm que realmente experimentar uma recompensa positiva, e experimentá-lo com muita frequência, a fim de mudar eventualmente e lentamente os parâmetros da política para movimentos repetitivos que dão altas recompensas. Com o nosso modelo abstrato, os seres humanos podem descobrir o que é susceptível de dar recompensas sem nunca experimentar a transição gratificante ou sem recompensas. Eu não tenho que realmente experimentar bater meu carro em uma parede algumas centenas de vezes antes de começar lentamente a evitar fazê-lo. À esquerda: Montezumas Revenge: um jogo difícil para nossos algoritmos RL. O jogador deve pular, subir, pegar a chave e abrir a porta. Um humano entende que a aquisição de uma chave é útil. O computador analisa bilhões de movimentos aleatórios e 99 do tempo caem em sua morte ou são mortos pelo monstro. Em outras palavras, é difícil tropeçar na situação gratificante. Certo: outro jogo difícil chamado Frostbite, onde um humano entende que as coisas se movem, algumas coisas são boas para tocar, algumas coisas são ruins ao tocar, e o objetivo é construir o tijolo de iglu por tijolo. Uma boa análise deste jogo e uma discussão das diferenças entre a abordagem humana e informática podem ser encontradas nas máquinas de construção que aprendem e pensam como pessoas. Eu também gostaria de enfatizar o fato de que, inversamente, há muitos jogos em que os Gradientes de Políticas derrotaram facilmente um humano. Em particular, qualquer coisa com freqüentes sinais de recompensa que requer uma jogada precisa, reflexos rápidos e não muito planejamento a longo prazo seria ideal, uma vez que estas correlações de curto prazo entre recompensas e ações podem ser facilmente percebidas pela abordagem e a execução meticulosamente Aperfeiçoado pela política. Você pode ver dicas que já estão acontecendo no nosso agente de Pong: ele desenvolve uma estratégia em que aguarda a bola e, em seguida, rapidamente se precipita para pegá-la apenas na borda, que aciona rapidamente e com alta velocidade vertical. O agente registra vários pontos consecutivos repetindo essa estratégia. Existem muitos jogos ATARI onde Deep Q Learning destrói o desempenho da linha de base humana dessa maneira - por ex. Pinball, Breakout, etc. Em conclusão, uma vez que você entenda o truque pelo qual esses algoritmos funcionam, você pode argumentar com seus pontos fortes e fracos. Em particular, não estamos perto dos humanos na construção de representações abstratas e ricas de jogos que podemos planejar dentro e usar para aprendizado rápido. Um dia, um computador examinará uma série de pixels e notará uma chave, uma porta e pensará que é provavelmente uma boa idéia pegar a chave e chegar à porta. Por enquanto, não há nada em nada próximo disso, e tentar chegar lá é uma área de pesquisa ativa. Computação não diferenciável em Neural Networks Id gostaria de mencionar uma aplicação mais interessante de Policy Gradients não relacionada aos jogos: nos permite projetar e treinar redes neurais com componentes que executam (ou interagem com) computação não diferenciável. A idéia foi introduzida pela primeira vez em Williams 1992 e mais recentemente popularizada por Modelos Recorrentes de Atenção Visual sob o nome de atenção difícil, no contexto de um modelo que processou uma imagem com uma seqüência de olhares foveais de baixa resolução (inspirados em nossos próprios olhos humanos ). Em particular, em cada iteração, um RNN receberia um pequeno pedaço da imagem e avaliaria um local a seguir. Por exemplo, a RNN pode olhar para a posição (5,30), receber um pequeno pedaço da imagem, então decidir olhar para (24, 50), etc. O problema com essa idéia é que existe uma rede que produz uma Distribuição de onde procurar em seguida e depois amostras dele. Infelizmente, esta operação não é diferenciável porque, intuitivamente, não sabemos o que teria acontecido se amostrasse um local diferente. More generally, consider a neural network from some inputs to outputs: Notice that most arrows (in blue) are differentiable as normal, but some of the representation transformations could optionally also include a non-differentiable sampling operation (in red). We can backprop through the blue arrows just fine, but the red arrow represents a dependency that we cannot backprop through. Policy gradients to the rescue Well think about the part of the network that does the sampling as a small stochastic policy embedded in the wider network. Therefore, during training we will produce several samples (indicated by the branches below), and then well encourage samples that eventually led to good outcomes (in this case for example measured by the loss at the end). In other words we will train the parameters involved in the blue arrows with backprop as usual, but the parameters involved with the red arrow will now be updated independently of the backward pass using policy gradients, encouraging samples that led to low loss. This idea was also recently formalized nicely in Gradient Estimation Using Stochastic Computation Graphs . Trainable Memory IO . Youll also find this idea in many other papers. For example, a Neural Turing Machine has a memory tape that they it read and write from. To do a write operation one would like to execute something like mi x. where i and x are predicted by an RNN controller network. However, this operation is non-differentiable because there is no signal telling us what would have happened to the loss if we were to write to a different location j i. Therefore, the NTM has to do soft read and write operations. It predicts an attention distribution a (with elements between 0 and 1 and summing to 1, and peaky around the index wed like to write to), and then doing for all i: mi aix. This is now differentiable, but we have to pay a heavy computational price because we have to touch every single memory cell just to write to one position. Imagine if every assignment in our computers had to touch the entire RAM However, we can use policy gradients to circumvent this problem (in theory), as done in RL-NTM. We still predict an attention distribution a. but instead of doing the soft write we sample locations to write to: i sample(a) mi x. During training we would do this for a small batch of i. and in the end make whatever branch worked best more likely. The large computational advantage is that we now only have to readwrite at a single location at test time. However, as pointed out in the paper this strategy is very difficult to get working because one must accidentally stumble by working algorithms through sampling. The current consensus is that PG works well only in settings where there are a few discrete choices so that one is not hopelessly sampling through huge search spaces. However, with Policy Gradients and in cases where a lot of datacompute is available we can in principle dream big - for instance we can design neural networks that learn to interact with large, non-differentiable modules such as Latex compilers (e. g. if youd like char-rnn to generate latex that compiles), or a SLAM system, or LQR solvers, or something. Or, for example, a superintelligence might want to learn to interact with the internet over TCPIP (which is sadly non-differentiable) to access vital information needed to take over the world. Thats a great example. Conclusions We saw that Policy Gradients are a powerful, general algorithm and as an example we trained an ATARI Pong agent from raw pixels, from scratch, in 130 lines of Python. More generally the same algorithm can be used to train agents for arbitrary games and one day hopefully on many valuable real-world control problems. I wanted to add a few more notes in closing: On advancing AI . We saw that the algorithm works through a brute-force search where you jitter around randomly at first and must accidentally stumble into rewarding situations at least once, and ideally often and repeatedly before the policy distribution shifts its parameters to repeat the responsible actions. We also saw that humans approach these problems very differently, in what feels more like rapid abstract model building - something we have barely even scratched the surface of in research (although many people are trying). Since these abstract models are very difficult (if not impossible) to explicitly annotate, this is also why there is so much interest recently in (unsupervised) generative models and program induction. On use in complex robotics settings . The algorithm does not scale naively to settings where huge amounts of exploration are difficult to obtain. For instance, in robotic settings one might have a single (or few) robots, interacting with the world in real time. This prohibits naive applications of the algorithm as I presented it in this post. One related line of work intended to mitigate this problem is deterministic policy gradients - instead of requiring samples from a stochastic policy and encouraging the ones that get higher scores, the approach uses a deterministic policy and gets the gradient information directly from a second network (called a critic ) that models the score function. This approach can in principle be much more efficient in settings with very high-dimensional actions where sampling actions provides poor coverage, but so far seems empirically slightly finicky to get working. Another related approach is to scale up robotics, as were starting to see with Googles robot arm farm. or perhaps even Teslas Model S Autopilot . There is also a line of work that tries to make the search process less hopeless by adding additional supervision. In many practical cases, for instance, one can obtain expert trajectories from a human. For example AlphaGo first uses supervised learning to predict human moves from expert Go games and the resulting human mimicking policy is later finetuned with policy gradients on the real objective of winning the game. In some cases one might have fewer expert trajectories (e. g. from robot teleoperation ) and there are techniques for taking advantage of this data under the umbrella of apprenticeship learning. Finally, if no supervised data is provided by humans it can also be in some cases computed with expensive optimization techniques, e. g. by trajectory optimization in a known dynamics model (such as (Fma) in a physical simulator), or in cases where one learns an approximate local dynamics model (as seen in very promising framework of Guided Policy Search ). On using PG in practice . As a last note, Id like to do something I wish I had done in my RNN blog post. I think I may have given the impression that RNNs are magic and automatically do arbitrary sequential problems. The truth is that getting these models to work can be tricky, requires care and expertise, and in many cases could also be an overkill, where simpler methods could get you 90 of the way there. The same goes for Policy Gradients. They are not automatic: You need a lot of samples, it trains forever, it is difficult to debug when it doesnt work. One should always try a BB gun before reaching for the Bazooka. In the case of Reinforcement Learning for example, one strong baseline that should always be tried first is the cross-entropy method (CEM). a simple stochastic hill-climbing guess and check approach inspired loosely by evolution. And if you insist on trying out Policy Gradients for your problem make sure you pay close attention to the tricks section in papers, start simple first, and use a variation of PG called TRPO. which almost always works better and more consistently than vanilla PG in practice. The core idea is to avoid parameter updates that change your policy too much, as enforced by a constraint on the KL divergence between the distributions predicted by the old and the new policy on a batch of data (instead of conjugate gradients the simplest instantiation of this idea could be implemented by doing a line search and checking the KL along the way). And thats it I hope I gave you a sense of where we are with Reinforcement Learning, what the challenges are, and if youre eager to help advance RL I invite you to do so within our OpenAI Gym :) Until next timeHybrid Monte-Carlo Sampling This is an advanced tutorial, which shows how one can implemented Hybrid Monte-Carlo (HMC) sampling using Theano. We assume the reader is already familiar with Theano and energy-based models such as the RBM. The code for this section is available for download here . Maximum likelihood learning of energy-based models requires a robust algorithm to sample negative phase particles (see Eq.(4) of the Restricted Boltzmann Machines (RBM) tutorial). When training RBMs with CD or PCD, this is typically done with block Gibbs sampling, where the conditional distributions and are used as the transition operators of the Markov chain. In certain cases however, these conditional distributions might be difficult to sample from (i. e. requiring expensive matrix inversions, as in the case of the 8220mean-covariance RBM8221). Also, even if Gibbs sampling can be done efficiently, it nevertheless operates via a random walk which might not be statistically efficient for some distributions. In this context, and when sampling from continuous variables, Hybrid Monte Carlo (HMC) can prove to be a powerful tool Duane87. It avoids random walk behavior by simulating a physical system governed by Hamiltonian dynamics, potentially avoiding tricky conditional distributions in the process. In HMC, model samples are obtained by simulating a physical system, where particles move about a high-dimensional landscape, subject to potential and kinetic energies. Adapting the notation from Neal93. particles are characterized by a position vector or state and velocity vector . The combined state of a particle is denoted as . The Hamiltonian is then defined as the sum of potential energy (same energy function defined by energy-based models) and kinetic energy , as follows: The Leap-Frog Algorithm In practice, we cannot simulate Hamiltonian dynamics exactly because of the problem of time discretization. There are several ways one can do this. To maintain invariance of the Markov chain however, care must be taken to preserve the properties of volume conservation and time reversibility. The leap-frog algorithm maintains these properties and operates in 3 steps: In practice, using finite stepsizes will not preserve exactly and will introduce bias in the simulation. Also, rounding errors due to the use of floating point numbers means that the above transformation will not be perfectly reversible. In this tutorial, we obtain a new HMC sample as follows: Implementing HMC Using Theano In Theano, update dictionaries and shared variables provide a natural way to implement a sampling algorithm. The current state of the sampler can be represented as a Theano shared variable, with HMC updates being implemented by the updates list of a Theano function. We breakdown the HMC algorithm into the following sub-components:

Forex Trading Journal Spreadsheet Excel


Disclaimer The Trading Journal Spreadsheet TM (8220TJS8221) produto foi criado, preparado e emitido pela GATor Trading Corporation of Trading-Journal-Spreadsheet. Embora tenham sido feitos todos os esforços para verificar a precisão das informações contidas no Trading Journal Spreadsheet TM. Destina-se apenas a fins informativos. O autorcreador e o editor renunciam a qualquer responsabilidade por erros, negligências, omissões ou interpretações de uso das informações aqui contidas. Em nenhum caso, o autor ou editor será legalmente responsável por qualquer perda, risco, dano, uso ou uso indevido de qualquer informação criada, direta ou indiretamente, com o uso do TJS. Procure o conselho do seu consultor de investimentos antes de tomar uma decisão de investimento em relação a qualquer análise de interpretação do uso do TJS. Os resultados calculados refletem os pressupostos e as previsões do usuário da planilha eletrônica e não refletem nem constituem pareceres, previsões ou recomendações da GATor Trading Corporation. O (s) produto (s) da planilha TJS não são, e não devem ser interpretados como, uma oferta de venda ou a solicitação de uma oferta para comprar ou subscrever para qualquer investimento. Não temos conhecimento da maneira como o destinatário pretende usar o (s) produto (s) de planilha (s) TJS. Ao emitir o (s) produto (s) de planilha (s) TJS, não é possível levar em consideração os objetivos de investimento, situações financeiras ou necessidades particulares de qualquer destinatário individual. Os investidores devem obter conselhos financeiros individuais para determinar se os resultados do uso do (s) produto (s) de folha de cálculo do TJS são apropriados aos seus objetivos de investimento, situação financeira ou necessidades específicas antes de atuar de forma alguma sobre essas informações ou resultados. Trading Journal Spreadsheet TM (8220TJS8221), sua holding (GATor Trading Corporation), suas subsidiárias e todos os 8220 afiliados8221 indivíduos não assumem qualquer responsabilidade por suas decisões e resultados de negociação e investimento. Trading Journal Spreadsheet Gator Trading Corporation Greg Thurman, Proprietário Creator Las Vegas, Nevada 702-546-9945 Sobre Contato Sobre a TJS Contato TJS Links do site Páginas do produto Diário de negociação Folha de cálculo Copyright 2007-2016 GATor Trading Corporation. O TJS vem com tudo o que você vê abaixo 8230 e Tudo é facilmente acessível com o exclusivo TJS Home-Menu. Clique para a apresentação de produtos em profundidade. Ou deslize (abaixo) para imagens. Folhas principais Registro de negociação Formatado para ser amigável com uma variedade de recursos de design, incluindo: cabeçalho fixo com resultados cumulativos Curva de equidade Dicas incorporadas Detecção de erro (entrada) Formatação condicional Menus suspensos Análise abrangente Notas do jornal NEW8230 agora inclui carta de progresso do castiçal O NEW8230 agora inclui a folha de impressão Trade Summary 8211 (o Mac Excel 2011 pode ter limitações). Personalize para rastrear o que é o mais importante para 8220you8221 Resumindo todas as negociações fechadas e exibi-la 8220at-a-glance8221 para análise rápida e fácil. Todas as categorias de rastreamento de desempenho exibem o seguinte: (do total de negócios, PampL, Avg Win, perda média, ganhos, Razão de pagamento, expectativa, freqüência). Conheça as fraquezas do seu Strengths amp e veja como os padrões se desenvolvem em seus esforços comerciais. Acompanhe os erros, saiba o quanto eles estão custando você e sua freqüência. Filtre e veja todas as análises por mês (andor) Ano. Ferramentas de suporte O TJS possui uma série de ferramentas úteis para ajudá-lo a gerenciar seu negócio comercial. Calculadora de expectativa Já se perguntou como seu desempenho atual seria desempenhado em uma amostra aleatória de 100 trocas. Apenas conecte alguns números relacionados com estatísticas (obtidos a partir de sua folha de rastreamento TJS), então observe o formulador ir ao trabalho, enquanto exibe uma curva de ações visual no processo. Além disso, uma ótima ferramenta para executar cenários hipotéticos ou 8220-o-if8221. Calculadora de arrastar Calcula as chances de uma perda de perda de perda 8220, então você diz exatamente qual é o capital que você pode perder com base em seus critérios de insumos (desempenho atual ou hipotético). Determine seu potencial de retirada para qualquer estratégia ou cenário. Uma ótima ferramenta ao tentar projetar um sistema de negociação vencedor de acordo com sua abordagem de capital e gerenciamento de riscos. Folha de Milestones Esta folha foi criada para acompanhar os eventos significativos: maior (R) Comércio (Perda de vitória) Maior comércio único (perda de ganho) Negociações Consecutivas (Ganhou Perdido) Consecutivo (Perda de Lucro) Proporção média PampL Líquido, por negociação Média Risco Valor , Por Quantidade Média de Comércio, por Média Recompensa Média ao Risco, por comércio Os gráficos de barras visuais estão incluídos em cada evento. Calculadora de tamanho de posição Esta folha calcula exatamente quantas partes (contratos ou unidades) podem comprar com base em parâmetros definidos pelo usuário. É incluída uma seção de matriz do 8220chick-glance82218230 Imprima e mantenha-se próximo para uma visualização de acesso rápido, antes de colocar seu próximo comércio Ampliar imagem (Este é um exemplo da Calculadora de Tamanho de Posição no Futuro) Escala na Escala Outra (para Entrada Múltipla ou Saídas) Nem todos Os negócios são executados com apenas uma transação de venda de ampliação de compra, então, o que você faz ao tirar várias saídas de lucro (ou legging em um comércio). A folha TJS Scale In Scale Out resolve essa questão, calculando a média dos seus preços capazes de calcular até (10 ) Transações separadas para cada (EntryExit) 8211 resultados são espelhados no Trading-log. Mantenha todos os saldos da conta em um só lugar, para até cinco corretores de contas diferentes. Você pode até mesmo vincular uma conta a um mercado individual (Stocks, Options, Futures, Forex, etc.) para obter o seu valor de risco adequado em cada comércio 8211, um cálculo já incorporado a cada MarketLog sheet. Análise de relatórios Deseja saber como você está se apresentando em uma semana. Por mês. Ou base anual. Arraste e solte o TradeSheet de análise de PampL (folha de nota manual) Para aqueles que não desejam entrar em negociações durante a sessão de negociação8230. A TJS Trading Sheet foi projetada para anotar notas comerciais de pré-amplificação, o que torna uma maneira fácil de Transfira suas notas de negociação para o TJS Trading Log. Depois que a sessão do mercado terminar. Não confiar mais na memória depois de um dia inteiro ou semana de atividade de negociação. A área de impressão está pré-configurada para imprimir em branco com amplificador preto. Plano de negociação Precisa de ajuda para criar um plano de negociação Use este modelo acessível para criar o seu próprio Um link privado é fornecido para baixar um modelo do MS Word, juntamente com um exemplo preenchido. Metas ampliação Progresso Esta folha é fornecida se você deseja ter uma localização central para anotar seus Objetivos e Progresso. Um link de pirâmide de progresso está incluído para avaliar o seu progresso durante os vários estágios da sua carreira comercial. 250-Trade Random Generator Uma folha legal de 8216bonus8217 que você pode achar interessante para investigar. Uma planilha de relatório do Forex Trading baseada em Excel. Para todos os comerciantes de divisas Forex Acompanhe o seu desempenho para todos os 8220 Pares de moeda8221, mais (7) categorias de rastreamento adicionais (personalizáveis). Disposição exibida de forma exclusiva e fácil de usar 8211, mesmo para usuários básicos do Excel. Acompanhe e analise a visualização PampL e PIPS 8220At-a-Glance8221 de todas as estatísticas de desempenho. TJS Home Menu 8211 todas as folhas são bem organizadas por categoria. Invista no seu negócio de negociação Forex Comece a rastrear suas negociações hoje Pacote completo, taxa única, um preço baixo Suporte ilimitado gratuito Comprar TJS Elite gt Forex 8211 99

Theta Em Stock Opções


Operadores de opção: Dontasquot Trust Theta Blogger and Contributor, OptionPit A opção Theta grega, que mede o decadência do tempo, pode lançar aos comerciantes uma curva difícil à medida que o dia do vencimento se aproxima. Aprenda a responder de acordo para evitar dois erros críticos e onerosos. Um dos erros mais comuns que meus alunos de orientação sugerem fazer é entender mal Theta. Isso geralmente vem à tona nas últimas semanas que levam ao vencimento. No entanto, eu não culpo os alunos em primeiro lugar. Afinal, eles têm uma boa desculpa. Os modelos de preços de opções geralmente não refletem com precisão o efeito real de Theta. Isso é certo, o modelo de preços quase sempre está errado nas últimas semanas de negociação Primeiro, uma explicação rápida da opção Greek Theta: Theta, (aka ldquotime decayrdquo), é uma estimativa de quanto o valor teórico de uma opção diminui quando um dia Passa e não há movimento no preço das ações ou na volatilidade. Theta é usado para estimar o quanto um valor extrínseco de opções é eliminado pela passagem de tempo sempre constante. Theta para uma chamada e colocar no mesmo preço de exercício e o mesmo mês de vencimento não são iguais. Sem entrar em detalhes, a diferença em Theta entre chamadas e colocações depende do custo de transporte para o estoque subjacente. Quando o custo de transporte para o estoque é positivo (ou seja, o rendimento de dividendos é inferior à taxa de juros), Theta para a chamada é maior do que a colocada. Quando o custo de transporte para o estoque é negativo (ou seja, o rendimento de dividendos é maior do que a taxa de juros), Theta para a chamada é menor que a colocada. Chamadas longas e longa coloca sempre a Theta negativa. Chamadas curtas e colocações curtas sempre têm Theta positiva. O estoque tem zero Theta porque seu valor não é corroído pelo tempo. Todas as outras coisas sendo iguais, uma opção com mais dias até a expiração terá mais valor extrínseco do que uma opção com menos dias para a expiração. A diferença entre o valor extrínseco da opção com mais dias de vencimento e a opção com menos dias de vencimento é devido a Theta. Portanto, faz sentido que as opções longas tenham Theta negativa e as opções curtas tenham uma Theta positiva. Se as opções estão continuamente perdendo seu valor extrínseco, uma posição de opção longa perderá dinheiro por causa de Theta, enquanto uma posição de opção curta ganhará dinheiro por causa de Theta. Mas Theta não reduz um valor de opções em uma taxa par. Theta tem muito mais impacto em uma opção com menos dias de vencimento do que uma opção com mais dias para expirar. Mais comumente, ele superestima a deterioração em opções baratas, especialmente coloca. Isso faz com que os comerciantes façam dois grandes erros: eles possuem opções baratas por muito tempo. Quando meu Theta disse que ainda estava coletando um monte de prémios. Esta é a linha clássica que eu ouço de estudantes verdes quando os castigo por deixar uma posição aberta Que poderia explodi-los. O número ldquofakerdquo Theta é um grande culpado por trás de posições abertas, especialmente no mundo do comércio de renda. Eles não asseguram suas posições adequadamente. Theta, falso ou impreciso, leva os comerciantes a pensar que estão comprando opções que estão ldquokillingrdquo Theta quando muito provável, o seguro não está fazendo nada. Isso pode fazer com que os comerciantes compram verdadeiras opções de lixo, ao invés de um seguro que possa salvar uma posição. Aqui está um ótimo exemplo anterior de falsa Theta. Abaixo está a quebra para as 12 de abril de 1275: clique para ampliar No momento, as 1275 put valem cerca de 2,50 e têm uma Theta de .41 por dia. A essa taxa de Theta, as colocações seriam completamente inúteis com cerca de quatro dias até a expiração. Isso também acontece com a quantidade exata de tempo que as opções semanais SPX 1275 atuais possuem até que expiram. Assim, com base na Theta de 1275s regulares, o nosso SPX 1275 semanal coloca deve ser completamente inútil. Aqui está a citação de encerramento: clique para ampliar Como você pode ver, a um preço de cerca de .70, esta opção não vale a pena. Por que, simplesmente, o modelo fica errado quando as opções começam a expirar. Muitos operadores de opções de varejo não precisam simplesmente entender os gregos que o modelo produz, eles também precisam entender as limitações dos modelos. Uma dessas limitações é que a decaimento de Theta deixa de ser precisas, uma vez que a vida optionsrsquos acaba. Uma maneira pelo qual o modelo tenta compensar isso é aumentando a volatilidade implícita da opção. É por isso que você pode notar que, quando chegamos perto da expiração, chamadas e colocações baratas têm uma volatilidade implícita que aumenta lentamente. Aqui está o caminho atual da volatilidade implícita das posições regulares de abril de 1275: Clique para Ampliar Observe que a volatilidade implícita (IV) está começando a se arrastar. À medida que a semana passa, o IV irá crescer mais alto à medida que o modelo tenta compensar as opções que não correm corretamente. Aqui está um desafio: escolha um estoque ou índice e anote o preço de fechamento e Theta dessa opção. Observe, quando for, de acordo com o modelo, tornar-se inútil. Em seguida, monitore essa opção para ver quando ela realmente se torna inútil. Será uma lição de abertura dos olhos. Publique um comentário Vídeos relacionados em OPÇÕES Próximas conferências Contacte-nosOpt Grieks Excel Formulas Black-Scholes Greeks Excel Formulas Esta é a segunda parte do Black-Scholes Excel guia que cobre cálculos Excel da opção Gregos (delta, gamma, theta, vega e rho) Sob o modelo Black-Scholes. Vou continuar no exemplo da primeira parte para demonstrar as fórmulas exatas do Excel. Veja a primeira parte para obter detalhes sobre parâmetros e fórmulas do Excel para d1, d2, preço de chamada e preço de colocação. Aqui você pode encontrar explicações detalhadas de todas as fórmulas Black-Scholes. Aqui você pode ver como tudo funciona em Excel na Calculadora Black-Scholes. Delta no Delta Excel é diferente para chamadas e opções de colocação. As fórmulas para delta são relativamente simples, assim como o cálculo no Excel. Eu calculo o delta de chamada na célula V44, continuando no exemplo da primeira parte. Onde eu já calculo os dois termos individuais nas células M44 e S44: o cálculo de colocar delta é quase o mesmo, usando as mesmas células. Basta adicionar menos um e don8217t esquecer os parênteses: Gamma no Excel A fórmula para a gama é a mesma para chamadas e colocações. É um pouco mais complicado do que as fórmulas delta acima: Observe especialmente a segunda parte da fórmula: Você encontrará este termo no cálculo de theta e vega também. É a função normal de densidade de probabilidade normal para - d1. No Excel, a fórmula parece assim: 8230, onde K44 é a célula onde você calculou d1 (veja a primeira parte). Alternativamente, você pode usar a função Excel NORM. DIST, que também expliquei na primeira parte. A única diferença da primeira parte é que o último parâmetro (cumulativo) é agora FALSO. Don8217t esqueça o sinal de menos antes de K44: estas duas fórmulas devem retornar o mesmo resultado. No exemplo da calculadora Black-Scholes, uso a primeira fórmula. Toda a fórmula para gama (o mesmo para chamadas e colocações) é: Theta no Excel Theta tem as fórmulas mais longas de todos os cinco gregos de opções mais comuns. É diferente para chamadas e colocações, mas as diferenças são novamente apenas alguns sinais menos aqui e ali e você deve ter muito cuidado. Theta é muito pequeno para muitas opções, o que dificulta a detecção de um possível erro em seus cálculos. Embora pareça complicado, todos os símbolos e termos nas fórmulas já devem ser conhecidos dos cálculos dos preços das opções e delta e gama acima. Uma exceção é o T no início das fórmulas. T é o número de dias por ano. Você pode escolher os dias de calendário (T365 ou 365.25) ou os dias de negociação (T252 ou algo similar, dependendo de onde você troca). Com base na sua seleção, a interpretação da theta será então uma mudança de preço da opção em um dia de calendário ou mudança de preço da opção em um dia de negociação. Opção Opção Theta A fórmula completa para chamar theta em nosso exemplo é na célula X44. É longo e usa várias (10) outras células, mas não há matemática alta: (- (A44EXP (-1POWER (K44,2) 2) SQRT (2PI ()) C44S44 (2SQRT (G44))) - (D44R44O44 ) (E44A44M44S44)) IF (C202,8217Time Units8217D4,8217Time Units8217D3) A última linha da fórmula na captura de tela acima é o T. Cell C20 na calculadora contém uma combinação onde usuários selecionam dias de calendário ou dias de negociação. Células D3 e D4 na folha As unidades de tempo contêm a quantidade de calendário e dias de negociação por ano. Se você quiser mantê-lo simples, você pode substituir toda a última linha da fórmula por um número fixo, como 365. Você pode encontrar novamente a explicação de todas as células individuais na primeira parte ou ver todos esses cálculos do Excel diretamente em a calculadora . Put Option Theta De forma análoga para chamar theta, a fórmula para colocar theta na célula AD44 é: (- (A44EXP (-1POWER (K44,2) 2) SQRT (2PI ()) C44S44 (2SQRT (G44))) (D44R44P44) - (E44A44N44S44)) IF (C202,8217Hermes do horário local 8217D4,8217Time Units8217D3) Vega no Excel A fórmula para vega é a mesma para chamadas e colocações: Não há nada novo. Você pode novamente ver o termo familiar no final. No exemplo da calculadora eu calculo vega na célula Y44: Rho no Excel Rho é novamente diferente para chamadas e colocações. Existem dois sinais menos na fórmula put rho. No exemplo da calculadora, calculo call rho na célula Z44. É simplesmente um produto de dois parâmetros (preço de rodagem e tempo de expiração) e células que eu já calculo em etapas anteriores: eu calculo colocar rho na célula AF44, novamente como produto de 4 outras células, dividido por 100. Certifique-se de Coloque o sinal de menos para o início: Mais sobre a opção Gregos no Excel Você também pode usar o Excel e os cálculos acima (com algumas modificações e melhorias) para modelar o comportamento da opção individual Gregos e preços das opções em diferentes situações de mercado (mudanças no Black - Parâmetros do modelo de Scholes). Isso está além do escopo deste guia, mas você pode encontrá-lo na Calculadora Black-Scholes e no Guia PDF. Ao permanecer neste site e usando o conteúdo do Macroption, você confirma que leu e concorda com o Contrato de Termos de Uso, como se você o assinasse. O Acordo também inclui Política de Privacidade e Política de Cookies. Se você não concorda com nenhuma parte deste Contrato, deixe o site e pare de usar qualquer conteúdo Macroption agora. Todas as informações são apenas para fins educacionais e podem ser imprecisas, incompletas, desatualizadas ou erradas. A Macroption não é responsável por quaisquer danos resultantes da utilização do conteúdo. Nenhum conselho financeiro, de investimento ou comercial é dado a qualquer momento. Copiar 2017 Macroption ndash Todos os direitos reservados. Conheça os gregos (Pelo menos os quatro mais importantes) NOTA: Os gregos representam o consenso do mercado quanto à forma como a opção reagirá às mudanças em certas variáveis ​​associadas ao preço de um contrato de opção . Não há garantia de que essas previsões estejam corretas. Antes de ler as estratégias, é uma boa idéia conhecer esses personagens porque theyrsquoll afeta o preço de cada opção que você troca. Tenha em mente, à medida que você se familiarizar, os exemplos que usamos são exemplos mundiais de ldquoideal. E, como Platão certamente lhe dirá, no mundo real as coisas tendem a não funcionar de forma tão perfeita quanto em um ideal. Os comerciantes de opções de início às vezes assumem que quando um estoque se move 1, o preço das opções com base nesse estoque se moverá mais de 1. Thatrsquos um pouco bobo quando você realmente pensa sobre isso. A opção custa muito menos do que o estoque. Por que você poderia conseguir ainda mais benefício do que se você possuísse o estoque Itrsquos, importante ter expectativas realistas sobre o comportamento do preço das opções que você troca. Então, a verdadeira questão é, quanto o preço de uma opção se moverá se o estoque mudar 1 Thatrsquos onde ldquodeltardquo entra. Delta é o valor que um preço de opção deverá mover com base em uma 1 mudança no estoque subjacente. As chamadas têm delta positivo, entre 0 e 1. Isso significa que se o preço das ações aumentar e nenhuma outra variável de preços mudar, o preço da chamada aumentará. Herersquos um exemplo. Se uma chamada tiver um delta de .50 e o estoque subiu 1, em teoria, o preço da chamada aumentará cerca de .50. Se o estoque desce 1, em teoria, o preço da chamada diminuirá cerca de .50. Coloca um delta negativo, entre 0 e -1. Isso significa que se o estoque subir e nenhuma outra variável de preços mudar, o preço da opção diminuirá. Por exemplo, se uma peça tiver um delta de -50 e o estoque subiu 1, em teoria, o preço da colocação diminuirá .50. Se o estoque cair 1, em teoria, o preço da colocação aumentará .50. Como regra geral, as opções no dinheiro mover-se-ão mais do que opções fora do dinheiro. E as opções de curto prazo irão reagir mais do que opções de longo prazo para a mesma mudança de preço no estoque. À medida que a expiração se aproxima, o delta para chamadas em dinheiro aproxima-se de 1, refletindo uma reação individual a mudanças de preço no estoque. Delta para chamadas fora do dinheiro se aproximará de 0 e wonrsquot reagirá a todas as mudanças de preço no estoque. Thatrsquos, porque se eles são mantidos até o vencimento, as chamadas serão exercidas e ldquobecome stockrdquo ou elas expirarão sem valor e não se tornarão nada. À medida que a expiração se aproximar, o delta para as colocações no dinheiro chegará a -1 e o delta para as posições fora do dinheiro aproximará 0. Thatrsquos porque se as posições são mantidas até o vencimento, o proprietário exercerá as opções e venderá O estoque ou a colocação expirarão sem valor. Uma maneira diferente de pensar sobre o delta Até agora, wersquove lhe deu a definição do livro de texto do delta. Mas herersquos outra maneira útil de pensar sobre o delta: a probabilidade de uma opção acabar pelo menos .01 in-the-money no vencimento. Tecnicamente, esta não é uma definição válida porque a matemática real por trás do delta não é um cálculo de probabilidade avançado. No entanto, o delta é freqüentemente usado de forma sinônima com probabilidade no mundo das opções. Na conversa casual, é costume soltar o ponto decimal na figura delta, como em, ldquoMinha opção tem um 60 delta. rdquo Ou, ldquoThere é um delta 99 Eu vou ter uma cerveja quando eu terminar de escrever esta página. rdquo Normalmente, uma opção de compra em dinheiro terá um delta de cerca de .50, ou ldquo50 delta. rdquo Thatrsquos, porque deve haver uma chance de 5050 de que a opção acabe dentro ou fora do dinheiro no vencimento. Agora, vamos ver como o delta começa a mudar, uma vez que uma opção aumenta ou não dá dinheiro. Como o movimento do preço das ações afeta o delta À medida que uma opção aumenta em dinheiro, a probabilidade de que ele seja no dinheiro no vencimento também aumenta. Então o optionrsquos delta aumentará. À medida que uma opção fica mais longe do dinheiro, a probabilidade de que seja dentro do dinheiro ao expirar diminui. Então, o optionrsquos delta irá diminuir. Imagine que você possui uma opção de compra no estoque XYZ com um preço de exercício de 50 e 60 dias antes da expiração, o preço das ações é exatamente 50. Uma vez que a opção "at-the-money" é gratuita, o delta deve ser de aproximadamente .50. Por causa do exemplo, letrsquos diz que a opção vale 2. Então, em teoria, se o estoque for até 51, o preço da opção deve subir de 2 para 2,50. O que, então, se o estoque continuar subindo de 51 para 52 Agora existe uma maior probabilidade de que a opção acabe no dinheiro no vencimento. Então, o que acontecerá com o delta Se você dissesse, ldquoDelta aumentará, mesmo que o seu seja absolutamente correto. Se o preço das ações subir de 51 para 52, o preço da opção poderá subir de 2,50 para 3,10. Thatrsquos a .60 movem para um 1 movimento no estoque. Então, o delta aumentou de 0,50 a 0,60 (3,10 - 2,50, 60), já que o estoque ficou mais no dinheiro. Por outro lado, e se o estoque cair de 50 para 49 O preço da opção pode diminuir de 2 para 1,50, refletindo novamente o delta .50 de opções no dinheiro (2 - 1.50 .50). Mas se o estoque continuar indo até 48, a opção pode diminuir de 1,50 para 1,10. Então, delta neste caso teria diminuído para .40 (1.50 - 1.10 .40). Essa diminuição no delta reflete a menor probabilidade de a opção acabar no dinheiro no vencimento. Como o delta muda conforme as abordagens de expiração Como o preço das ações, o tempo até o vencimento afetará a probabilidade de que as opções finalizem dentro ou fora do dinheiro. Thatrsquos porque, à medida que a expiração se aproxima, o estoque terá menos tempo para se mover acima ou abaixo do preço de exercício para sua opção. Como as probabilidades estão mudando à medida que a expiração se aproxima, o delta reagirá de forma diferente às mudanças no preço das ações. Se as chamadas estiverem dentro do dinheiro, apenas antes da expiração, o delta abordará 1 e a opção moverá o centavo por centavo com o estoque. As posições no dinheiro irão se aproximar de -1 quando a expiração se aproximar. Se as opções estiverem fora do dinheiro, elas se aproximarão de 0 mais rapidamente do que estenderão a tempo e deixarão de reagir ao movimento no estoque. Imagine estoque XYZ é a 50, com sua opção de 50 chamadas de ataque apenas um dia após a expiração. Novamente, o delta deve ser cerca de .50, uma vez que teoricamente teoricamente uma chance de 5050 de estoque se mover em qualquer direção. Mas o que acontecerá se o estoque for até 51 Pense nisso. Se therersquos apenas um dia até a expiração e a opção é um ponto no dinheiro, whatrsquos a probabilidade de a opção ainda será pelo menos .01 in-the-money amanhã Itrsquos muito alto, certo, claro. Então, o delta aumentará em conformidade, fazendo um movimento dramático de 0,50 a cerca de 0,90. Por outro lado, se o estoque XYZ cair de 50 a 49 apenas um dia antes da expiração da opção, o delta pode mudar de .50 para .10, refletindo a probabilidade muito menor de que a opção acabará no dinheiro. Assim, à medida que a expiração se aproxima, as mudanças no valor do estoque causarão mudanças mais dramáticas no delta, devido ao aumento ou menor probabilidade de finalizar o dinheiro. Lembre-se da definição de livro-texto do delta, juntamente com o Alamo Donrsquot, esqueça: a definição do diretório ldquotextbook do delta não tem nada a ver com a probabilidade de as opções terminarem dentro ou fora do dinheiro. Novamente, o delta é simplesmente o valor que um preço da opção se moverá com base em uma 1 mudança no estoque subjacente. Mas, olhando para o delta, a probabilidade de uma opção terminar no "dinheiro" é uma maneira muito agradável de pensar sobre isso. Gamma é a taxa que o delta irá mudar com base em uma 1 mudança no preço das ações. Então, se delta é o ldquospeedrdquo em que os preços das opções mudam, você pode pensar em gamma como as opções ldquoacceleration. rdquo com a gama mais alta são as mais sensíveis às mudanças no preço do estoque subjacente. Como wersquove mencionado, o delta é um número dinâmico que muda à medida que o preço das ações muda. Mas o delta não muda na mesma taxa para cada opção com base em uma determinada ação. A Letrsquos examina nossa opção de compra no estoque XYZ, com um preço de exercício de 50, para ver como a gama reflete a mudança no delta em relação às mudanças no preço e no tempo de estoque até o vencimento (Figura 1). Figura 1: Delta e Gamma para estoque XYZ Chamada com preço de exercício 50 Observe como o valor do delta e da variação da gama como o preço das ações subiu ou baixou de 50 e a opção se move dentro ou fora do dinheiro. Como você pode ver, o preço das opções no dinheiro mudará mais significativamente do que o preço das opções de in ou out-of-the-money com o mesmo prazo de validade. Além disso, o preço das opções de curto prazo no mercado monetário mudará mais significativamente do que o preço das opções de longo prazo em dinheiro. Então, o que essa conversa sobre a gama resume é que o preço das opções de curto prazo no mercado exibirá a resposta mais explosiva às mudanças de preço no estoque. Se o seu cliente comprador de opção, a gama alta é boa desde que sua previsão esteja correta. Thatrsquos porque, à medida que sua opção se move no dinheiro, o delta abordará 1 mais rapidamente. Mas se a sua previsão está errada, pode voltar a mordê-lo, baixando rapidamente o seu delta. Se o seu vendedor de opções e sua previsão estiver incorreta, a gama alta é o inimigo. Thatrsquos porque isso pode fazer com que sua posição funcione contra você em uma taxa mais acelerada se a opção que você vende se move no dinheiro. Mas se sua previsão é correta, a gama alta é sua amiga, pois o valor da opção que você vendeu perderá valor mais rapidamente. A decadência do tempo, ou theta, é o inimigo número um para o comprador da opção. Por outro lado, itrsquos geralmente é a opção sellerrsquos melhor amigo. Theta é a quantidade que o preço das chamadas e das posições diminuirá (pelo menos em teoria) para uma mudança de um dia no tempo de expiração. Figura 2: Decadência do tempo de uma opção de compra em dinheiro Este gráfico mostra como um valor de opção de opção no dinheiro irá diminuir nos últimos três meses até o vencimento. Observe como o valor do tempo desaparece em uma taxa acelerada à medida que a expiração se aproxima. Este gráfico mostra como um valor de opção de opção no dinheiro irá diminuir nos últimos três meses até o vencimento. Observe como o valor do tempo desaparece em uma taxa acelerada à medida que a expiração se aproxima. No mercado de opções, a passagem do tempo é semelhante ao efeito do sol de verão quente em um bloco de gelo. Cada momento que passa faz com que alguns dos valores do timersquos de tempo para ldquomelt away. rdquo Além disso, não só o valor do tempo derrete, ele faz isso com uma taxa acelerada à medida que a expiração se aproxima. Confira a figura 2. Como você pode ver, uma opção de 90 dias com um prémio de 1,70 perderá 0,30 de seu valor em um mês. Uma opção de 60 dias, por outro lado, pode perder 40% do valor ao longo do mês seguinte. E a opção de 30 dias perderá todo o valor restante de 1 de tempo por vencimento. As opções em dinheiro irão experimentar perdas de dólar mais significativas ao longo do tempo do que as opções fora ou fora do dinheiro com o mesmo estoque subjacente e data de validade. Thatrsquos porque as opções em dinheiro possuem o maior valor de tempo incorporado ao prémio. E quanto maior o pedaço do valor do tempo incorporado no preço, mais há para perder. Tenha em mente que, para opções fora do dinheiro, theta será menor do que para as opções de dinheiro. Thatrsquos porque o valor do valor em dólares é menor. No entanto, a perda pode ser maior em porcentagem para opções fora do dinheiro por causa do menor valor de tempo. Ao ler as peças, observe os efeitos líquidos de theta na seção chamada ldquoAs time goes by. rdquo Figura 3: Vega para as opções no dinheiro com base em Stock XYZ Obviamente, à medida que avançamos no tempo, haverá Seja mais valor de tempo incorporado no contrato de opção. Uma vez que a volatilidade implícita só afeta o valor do tempo, as opções de longo prazo terão opções de vega mais altas que as de curto prazo. Ao ler as peças, observe o efeito da vega na seção chamada ltda. Volatilidade ldquoImplied. Você pode pensar em vega como o grego whorsquos um pouco abalado e excesso de cafeína. A Vega é a quantia chamada e os preços colocados mudarão, em teoria, para uma mudança correspondente de um ponto na volatilidade implícita. A Vega não tem nenhum efeito sobre o valor intrínseco das opções que afeta apenas o valor de ldquotime de um preço optionsrsquos. Normalmente, à medida que a volatilidade implícita aumenta, o valor das opções aumentará. Thatrsquos porque um aumento na volatilidade implícita sugere uma maior variedade de movimento potencial para o estoque. Letrsquos examina uma opção de 30 dias no estoque XYZ com um preço de ação 50 e o estoque exatamente às 50. A Vega por esta opção pode ser 0,03. Em outras palavras, o valor da opção pode subir .03 se a volatilidade implícita aumentar um ponto e o valor da opção pode diminuir .03 se a volatilidade implícita diminui um ponto. Agora, se você olhar para uma opção XYZ no dia-a-dia de 365 dias, a vega pode ser tão alta como .20. Portanto, o valor da opção pode mudar .20 quando a volatilidade implícita muda por um ponto (veja a figura 3). Se você tiver um comerciante de opções mais avançado, talvez tenha notado que a Wersquore perdeu um rho de mdash grego. Thatrsquos o montante que um valor de opção mudará em teoria com base em uma mudança de um ponto percentual nas taxas de juros. Rho apenas saiu para um giroscópio, já que não nos falamos muito sobre esse site. Aqueles de vocês que realmente tomam sério sobre as opções acabarão por conhecer este personagem melhor. Por enquanto, apenas tenha em mente que, se você estiver negociando opções de curto prazo, a mudança das taxas de juros não deve afetar demais o valor de suas opções. Mas se você estiver negociando opções de longo prazo, como LEAPS. Rho pode ter um efeito muito mais significativo devido ao maior ldquocost para transportar. rdquo Todays Trader Network Aprender dicas comerciais estratégias de amplificação de especialistas TradeKingrsquos Top Dez erros de opções Cinco dicas para chamadas bem sucedidas Opção Reproduz para qualquer condição de mercado A opção avançada desempenha o Top Five Things Stock Operadores de opções devem saber sobre as opções de volatilidade envolvem riscos e não são adequados para todos os investidores. Para obter mais informações, reveja o folheto Características e Riscos de Opções Padronizadas antes de começar as opções de negociação. Os investidores de opções podem perder o montante total do investimento em um período de tempo relativamente curto. As várias estratégias de opções de perna envolvem riscos adicionais. E pode resultar em tratamentos fiscais complexos. Consulte um profissional de impostos antes de implementar essas estratégias. A volatilidade implícita representa o consenso do mercado quanto ao nível futuro de volatilidade do preço das ações ou a probabilidade de atingir um preço específico. Os gregos representam o consenso do mercado quanto à forma como a opção reagirá às mudanças em determinadas variáveis ​​associadas ao preço de um contrato de opção. Não há garantia de que as previsões de volatilidade implícita ou os gregos sejam corretas. A resposta do sistema e os tempos de acesso podem variar de acordo com as condições do mercado, o desempenho do sistema e outros fatores. O TradeKing fornece investidores auto-orientados com serviços de corretagem de desconto e não faz recomendações ou oferece conselhos de investimento, financeiros, legais ou tributários. Você é responsável por avaliar os méritos e os riscos associados ao uso dos sistemas, serviços ou produtos da TradeKings. O conteúdo, a pesquisa, as ferramentas e os símbolos de estoque ou opção são apenas para fins educacionais e ilustrativos e não implicam uma recomendação ou solicitação para comprar ou vender uma garantia específica ou se envolver em qualquer estratégia de investimento específica. As projeções ou outras informações sobre a probabilidade de vários resultados de investimento são de natureza hipotética, não são garantidas para exatidão ou integridade, não refletem resultados reais de investimento e não são garantias de resultados futuros. Todos os investimentos envolvem risco, as perdas podem exceder o principal investido e o desempenho passado de uma segurança, indústria, setor, mercado ou produto financeiro não garante resultados ou retornos futuros. O seu uso da TradeKing Trader Network está condicionado à aceitação de todas as Divulgações TradeKing e dos Termos de Serviço da Rede Trader. Qualquer coisa mencionada é para fins educacionais e não é uma recomendação ou conselho. A opção Playbook Radio é trazida a você pelo TradeKing Group, Inc. copy 2017 TradeKing Group, Inc. Todos os direitos reservados. O TradeKing Group, Inc. é uma subsidiária integral da Ally Financial Inc. Securities oferecida pela TradeKing Securities, LLC. Todos os direitos reservados. Membro FINRA e SIPC.

Sunday 30 July 2017

Bollinger Bands Formula Metastock


Fórmulas MetaStock Indicador Bollinger B suavizado (SVEBBb) As Bandas Bollinger são de John Bollinger e são mencionadas em seu livro ldquoBollinger em Bollinger Bandsrdquo (Bollinger, 2001). As Bandas Bollinger na figura a seguir consistem em um conjunto de três curvas desenhadas em relação aos dados de preços. A banda do meio geralmente é uma média móvel simples de 20 bares, que serve de base para as bandas superior e inferior. Banda média da banda superior 2 Preços de fechamento de 20 períodos desvio padrão Banda baixa Banda média - 2 Desvio padrão de preços de encerramento de 20 períodos O uso da média móvel de desvio padrão é um método para medir a volatilidade dos preços. Com os preços de tendência, as vendas serão mais amplas como resultado da maior volatilidade no preço, afastando-se da média, enquanto que durante os períodos de consolidação, as bandas serão mais estreitas em resultado de menores movimentos de preços mais próximos da média. Essa mudança de largura de banda é usada para oportunidades de negociação baseadas em volatilidade. B é uma medida de onde o preço é em relação às bandas externas de Bollinger e, portanto, fortemente relacionado à volatilidade. B é criado como um oscilador para mostrar situações de sobrecompra e sobrevenda quando o preço está se movendo perto ou além das bandas Bollinger superiores ou inferiores. Esta é a fórmula básica b: b (fechar a banda inferior ndash) (banda inferior do ndash da banda superior) Para a fórmula básica b, multiplicamos o resultado b com 100 para obter um oscilador movendo-se entre 0 e 100 (com overshoots): Aplicando alguns Matemática, podemos simplificar a fórmula com o seguinte resultado para a fórmula básica (MetaStock) para um indicador Bollinger Bands b usando preços de fechamento e uma média móvel simples: como você pode ver no indicador acima, está liderando a maior parte do tempo, mostrando alta Níveis, níveis baixos e, eventualmente, divergências antes de virar pontos de preço. Infelizmente, é um oscilador muito agitado. Encontrar os pontos de inflexão mais importantes e tentar trocar com o indicador b por dia não é uma tarefa fácil. Oferta especial: quotCapturing Profit com análise técnica. Usando um preço de fechamento calculado com heikin ashi, uma média TEMA e a técnica de desaceleração zero, podemos criar esse indicador com pontos de viragem mais claros. Esta é a fórmula SVEBBb modificada: período: Entrada (quotb período: quot, 1.100,18) TeAv: Entrada (quotTema média: quot, 1,30,8) afwh: Entrada (quotStandard Deviation quot alto, .1,5,1.6 ): Entrada (quotDado padrão de desvio Baixo quot, .1,5,1.6) afwper: Entrada OH) 4haOpenMax (H, haOpen) Min (L, haOpen)) 4 TMA1: Tema (haC, TeAv) TMA2: Tema (TMA1, TeAv) Diff: TMA1 - TMA2 ZlHA: TMA1 Diferente percb: (Tema (ZLHA, TeAv) 2Stdev (Tema (ZLHA, TeAv), período) - Mov (Tema (ZLHA, TeAv), período, PESADO)) (4Stdev (Tema (ZLHA, TeAv), período)) 100 percb 50afwhStdev (percb, afwper) 50-afwlStdev (Percb, afwper) 50 Compare na figura a seguir o BBb original com a versão suavizada SVEBBb. Vamos dividir esse gráfico em duas partes. A primeira parte termina em 9 de março de 2009. Em novembro, houve uma grande queda de preços e alguma recuperação. O próximo preço está se movendo mais para baixo. O que o indicador SVEBBb lhe indica nesse período. Na figura acima, você pode ver no início uma queda de preço grande e uma primeira reação até o início de dezembro em um movimento convergente com as coberturas inferiores no preço e no indicador. O preço agora continua o movimento para baixo em uma fase (1) e está fazendo um preço mais baixo, mas um topo mais alto no indicador a partir de janeiro de 2009. Esta é uma divergência inversa ou oculta apontando na direção de uma continuação do anterior Tendência de queda. E, mais uma vez, o preço continua o movimento para baixo até a metade de fevereiro, quando você pode ver novamente a mesma situação com a fase (2), com as partes inferiores no preço e as partes superiores no indicador. Outra divergência escondida dizendo que esse preço continuará o movimento para baixo. O preço está fazendo fundos mais baixos, mas agora você pode ver fundos mais altos com a fase (3) no indicador. Esta é uma divergência normal dizendo que você deve esperar que um preço mude para agora. Note-se que o preço está no fundo com dojirsquos no gráfico de candelabro e o preço vem se movendo dentro de bandas estreitas de Bollinger, indicando baixa volatilidade há mais de 3 meses. Claramente, você pode abrir uma posição aqui com uma proporção muito boa de risco para recompensa, com uma compra em 2.53 e uma parada de preço de fechamento inicial em 2.38. Uma entrada ideal para abrir uma posição longa com um risco de apenas 6. Letrsquos continua com a próxima figura, a segunda parte do gráfico original. Fase (3) realmente trouxe uma inversão de tendência e iniciou um novo movimento de preço. Há um bom movimento ascendente convergente até o início de maio com a fase (4), mostrando uma divergência negativa com um maior preço, mas um topo mais baixo no indicador. Isto indica a direção de uma inversão de preços. Tempo para aproveitar os mais de 100 lucros O que se segue é uma correção para a banda inferior de Bollinger. O final desta correção está mostrando com a fase (5) uma divergência positiva com menores fundos no preço e fundos superiores no indicador. Isso está aumentando o preço novamente. Você poderia ir para uma nova posição longa aqui. Os tops no preço e no indicador no início de junho, finalizam a fase (6) com uma divergência negativa, diminuindo o preço para uma correção maior. Agora parece que o fim dessa correção é alcançado com uma nova divergência positiva na fase (7). Procure na InternetBollinger Bands Características As bandas de negociação, que são linhas traçadas dentro e ao redor da estrutura de preços para formar um envelope, são a ação dos preços próximos das bordas do envelope que nos interessa. São um dos conceitos mais poderosos disponíveis para O investidor tecnicamente baseado, mas, como comumente acredita, eles não oferecem sinais absolutos de compra e venda com base no preço que toca as bandas. O que eles fazem é responder a pergunta perene de se os preços são altos ou baixos em uma base relativa. Armado com esta informação, um investidor inteligente pode fazer decisões de compra e venda usando indicadores para confirmar a ação de preços. Mas antes de começar, precisamos de uma definição sobre o que estamos lidando. As bandas de negociação são linhas traçadas dentro e ao redor da estrutura de preços para formar um quotenvelope. quot. É a ação dos preços perto das bordas do envelope que nos interessa particularmente. A primeira referência às bandas comerciais que encontrei na literatura técnica é Em The Profit Magic of Stock Transaction O Timing autor, a abordagem JM Hursts envolveu o desenho de envelopes suavizados em torno do preço para auxiliar na identificação do ciclo. A Figura 1 mostra um exemplo desta técnica: Note, em particular, o uso de diferentes envelopes para ciclos de diferentes comprimentos. O próximo grande desenvolvimento na idéia de vendas de vendas ocorreu no meio do final da década de 1970, já que o conceito de mudar uma média móvel para cima e para baixo por um certo número de pontos ou uma porcentagem fixa para obter um envelope em torno do preço ganhou popularidade, uma abordagem Isso ainda é empregado por muitos. Um bom exemplo aparece na Figura 2, onde um envelope foi construído em torno do Dow Jones Industrial Average (DJIA). A média utilizada é uma média móvel simples de 21 dias. As bandas são deslocadas para cima e para baixo em 4. O procedimento para criar esse gráfico é direto. Primeiro, calcule e trace a média desejada. Em seguida, calcule a banda superior multiplicando a média por 1 mais a porcentagem escolhida (1 0,04 1,04). Em seguida, calcule a faixa inferior, multiplicando a média pela diferença entre 1 e a porcentagem escolhida (1 - 0,04 0,96). Finalmente, trace as duas bandas. Para o DJIA, as duas médias mais populares são as médias de 20 e 21 dias e as porcentagens mais populares estão na faixa de 3,5 a 4,0. A próxima grande inovação veio de Marc Chaikin da Bomar Securities, que, ao tentar encontrar alguma maneira de ter o mercado definir as larguras da banda em vez da abordagem intuitiva ou de escolha aleatória usada anteriormente, sugeriu que as bandas fossem construídas para conter uma porcentagem fixa Dos dados no ano passado. A Figura 3 mostra essa abordagem poderosa e ainda muito útil. Ele manteve a média de 21 dias e sugeriu que as bandas deveriam conter 85 dos dados. Assim, as bandas são deslocadas para cima 3 e para baixo por 2. Bandas Bomar foram o resultado. A largura das bandas é diferente para as bandas superior e inferior. Em um movimento de touro sustentado, a largura da banda superior se expandirá e a largura da banda menor será contratada. O contrário é verdadeiro em um mercado de urso. Não só a largura total da banda varia ao longo do tempo, mas também o deslocamento em torno da média. Perguntar ao mercado o que está acontecendo é sempre uma abordagem melhor do que dizer ao mercado o que fazer. No final da década de 1970, ao negociar warrants e opções e no início dos anos 80, quando a negociação de opções de índice começou, eu me concentrei na volatilidade como variável-chave. Para a volatilidade, então, voltei novamente para criar minha própria abordagem para as bandas de negociação. Testei qualquer número de medidas de volatilidade antes de selecionar o desvio padrão como o método pelo qual definir a largura da banda. Fiquei especialmente interessado no desvio padrão devido à sua sensibilidade a desvios extremos. Como resultado, Bollinger Bands é extremamente rápido para reagir a grandes movimentos no mercado. Na Figura 5, as Bandas de Bollinger são plotadas dois desvios padrão acima e abaixo de uma média móvel simples de 20 dias. Os dados utilizados para calcular o desvio padrão são os mesmos dados que os utilizados para a média móvel simples. Em essência, você está usando desvios padrão móveis para traçar linhas em torno de uma média móvel. O prazo para os cálculos é tal que é descritivo da tendência do termo intermediário. Observe que muitas reversões ocorrem perto das bandas e que a média fornece suporte e resistência em muitos casos. Há um grande valor ao considerar diferentes medidas de preço. O preço típico, (baixo baixo baixo) 3, é uma medida que eu achei útil. O fechamento ponderado, (fechamento baixo baixo alto) 4, é outro. Para manter a clareza, restringirei minha discussão sobre as bandas de negociação ao uso de preços de fechamento para a construção de bandas. Meu foco principal é o termo intermediário, mas os aplicativos de curto e longo prazo também funcionam. Concentrar-se na tendência intermediária dá um recurso às áreas de curto e longo prazos para referência, um conceito inestimável. Para o mercado de ações e ações individuais. Um período de 20 dias é ideal para o cálculo das Bandas Bollinger. É descritivo da tendência do termo intermediário e alcançou ampla aceitação. A tendência de curto prazo parece bem servida pelos cálculos de 10 dias e a tendência de longo prazo por cálculos de 50 dias. A média selecionada deve ser descritiva do cronograma escolhido. Este é quase sempre um comprimento médio diferente do que prova mais útil para compra e venda cruzada. A maneira mais fácil de identificar a média adequada é escolher um que forneça suporte para a correção do primeiro movimento para cima em um fundo. Se a média for penetrada pela correção, a média é muito curta. Se, por sua vez, a correção for inferior à média, a média é muito longa. Uma média que é corretamente escolhida proporcionará suporte muito mais freqüente do que está quebrado. (Veja a Figura 6.) As Bandas Bollinger podem ser aplicadas pra praticamente qualquer mercado ou segurança. Para todos os mercados e problemas, eu usaria um período de cálculo de 20 dias como ponto de partida e só me afastaria quando as circunstâncias me obrigarem a fazê-lo. À medida que você alonga o número de períodos envolvidos, você precisa aumentar o número de desvios padrão empregados. A 50 períodos, dois e dez desvios-padrão são uma boa seleção, enquanto em 10 períodos um e nove décimos fazem o trabalho bastante bem. 50 períodos com desvio padrão 2.1 10 períodos com 1.9 desvio padrão Banda superior 50 dias SMA 2.1 (s) Banda média 50 dias SMA Baixa faixa 50 dias SMA - 2.1 (s) Banda superior SMA de 10 dias SMA 1.9 (s) Meio Banda de 10 dias SMA Lower Band 10-day SMA - 1.9 (s) Na maioria dos casos, a natureza dos períodos é imaterial, todos parecem responder às Bandas Bollinger corretamente especificadas. Eu usei-os em dados mensais e trimestrais, e eu sei que muitos comerciantes os aplicam em uma base intradiária. Tags das Bandas Superior e Baixa As bandas de negociação respondem a questão de saber se os preços são altos ou baixos em uma base relativa. O assunto realmente se baseia na base relativa à quota de termos. As faixas de negociação não dão sinais de compra e venda absolutos simplesmente por terem sido mais tocadas, fornecem uma estrutura dentro da qual o preço pode estar relacionado a indicadores. Alguns trabalhos mais antigos indicaram que o desvio de uma tendência, conforme medido pelo desvio padrão de uma média móvel, foi usado para determinar os estados extremos de sobrecompra e sobrevenda. Mas eu recomendo o uso de bandas de negociação como a geração de sinais de compra, venda e continuação através da comparação de um indicador adicional com a ação de preço dentro das bandas. Se as etiquetas de preços, a banda superior e a ação indicadora o confirmam, nenhum sinal de venda é gerado. Por outro lado, se as tags de preço, a ação da faixa superior e do indicador não confirmar (ou seja, diverge). Temos um sinal de venda. A primeira situação não é um sinal de venda, é um sinal de continuação se um sinal de compra estava em vigor. Também é possível gerar sinais de ação de preço dentro das bandas sozinho. Um topo (formação de gráfico) formado fora das faixas seguido por um segundo topo dentro das faixas constitui um sinal de venda. Não há exigência para a posição do segundo tops em relação ao primeiro topo, apenas em relação às bandas. Isso muitas vezes ajuda a detectar topes onde o segundo impulso vai para uma nova alta nominal. Claro, o inverso é verdadeiro para os mínimos. Porcentagem b (b) e largura de banda Um indicador derivado de Bollinger Bands que eu chamo de b pode ser de grande ajuda, usando a mesma fórmula que George Lane usou para estocásticos. O indicador b nos diz onde estamos dentro das bandas. Ao contrário dos estocásticos, que são delimitados por 0 e 100, b pode assumir valores e valores negativos acima de 100 quando os preços estão fora das bandas. Com 100 anos, estamos na banda superior, aos 0, estamos na banda baixa. Acima de 100 estamos acima das bandas superiores e abaixo de 0 estamos abaixo da banda inferior. Banda inferior - faixa inferior - faixa inferior Indicador b nos permite comparar a ação do preço com a ação do indicador. Em um grande empurrão para baixo, suponha que possamos chegar a -20 para b e 35 para índice de força relativa (RSI). No próximo impulso para níveis de preços ligeiramente mais baixos (após um rali), b cai apenas para 10, enquanto o RSI pára às 40. Recebemos um sinal de compra causado por ação de preço dentro das bandas. (O primeiro baixo veio fora das bandas, enquanto a segunda baixa foi feita dentro das bandas). O sinal de compra é confirmado pelo RSI, pois não fez uma nova baixa, dando-nos assim um sinal de compra confirmado. Banda superior - banda baixa Bandas de negociação e indicadores são boas ferramentas, mas quando são combinadas, a abordagem resultante para os mercados se torna poderosa. Bandwidth, outro indicador derivado das Bandas Bollinger, também pode interessar comerciantes. É a largura das bandas expressa em percentagem da média móvel. Quando as bandas se estreitam drasticamente, uma forte expansão da volatilidade geralmente ocorre no futuro muito próximo. Por exemplo, uma queda na largura da banda abaixo de 2 para o amplificador padrão Poors 500 levou a movimentos espetaculares. O mercado geralmente começa na direção errada depois que as faixas se apertam antes de começar realmente, o que em janeiro de 1991 é um bom exemplo. Evitando Multicollinearidade Uma regra cardinal para o uso bem-sucedido da análise técnica requer evitar a multicolinealidade em meio a indicadores. A multicolinearidade é simplesmente a contagem múltipla da mesma informação. O uso de quatro indicadores diferentes, todos derivados da mesma série de preços de fechamento para confirmar uns aos outros, é um exemplo perfeito. Assim, um indicador derivado dos preços de fechamento, outro do volume e o último do intervalo de preços forneceria um grupo útil de indicadores. Mas combinando o RSI, a migração média média convergente (MACD) e a taxa de mudança (assumindo que todos foram derivados de preços de fechamento e uso de períodos de tempo semelhantes) não. Aqui estão, no entanto, três indicadores para usar com bandas para gerar compras e vendas sem problemas. Em meio a indicadores derivados apenas do preço, o RSI é uma boa escolha. Os preços de fechamento e o volume se combinam para produzir volume no balanço, outra boa escolha. Finalmente, a faixa de preço e o volume se combinam para produzir fluxo de dinheiro, novamente uma boa escolha. Nenhum é altamente colineal e, portanto, combina-se para um bom agrupamento de ferramentas técnicas. Muitos outros também poderiam ter sido escolhidos: MACD poderia ser substituído por RSI, por exemplo. O Commodity Channel Index (CCI) foi uma opção precoce para usar com as bandas, mas, como se mostrou, era uma situação pobre, pois tende a ser colineal com as próprias bandas em determinados prazos. A linha inferior é comparar a ação de preços dentro das bandas com a ação de um indicador que você conhece bem. Para confirmação de sinais, você pode então comparar a ação de outro indicador, desde que não seja colineal com o primeiro. Bandas Bollinger foram criadas por John Bollinger, CFA, CMT e publicadas em 1983. Eles foram desenvolvidos em um esforço para criar bandas comerciais totalmente adaptáveis. As seguintes regras que abrangem o uso de Bollinger Bands foram extraídas das perguntas que os usuários fizeram com maior freqüência e nossa experiência ao longo de 25 anos com Bollinger Bands. Bandas Bollinger fornecem uma definição relativa de alta e baixa. Por definição, o preço é alto na banda superior e baixo na faixa inferior. Essa definição relativa pode ser usada para comparar ação de preço e ação de indicador para chegar a decisões rigorosas de compra e venda. Os indicadores apropriados podem ser derivados do impulso, volume, sentimento, interesse aberto, dados inter-mercado, etc. Se forem utilizados mais de um indicador, os indicadores não devem estar diretamente relacionados uns com os outros. Por exemplo, um indicador de momentum pode complementar um indicador de volume com sucesso, mas dois indicadores de momentum são melhores que um. As Bandas Bollinger podem ser usadas no reconhecimento de padrões para definir padrões de preços puros, como os fundos M tops e W, os turnos de impulso, etc. As tags das bandas são apenas isso, as tags não são sinais. Uma marca da banda Bollinger superior não é um sinal de venda in-and-of-itself. Uma marca da Bollinger Band inferior não é um sinal de compra in-and-of-itself. Nos mercados de tendências, o preço pode, e faz, subir a banda Bollinger superior e descer a Bollinger Band inferior. Fechas fora das Bandas de Bollinger são inicialmente sinais de continuação, não sinais de inversão. (Esta tem sido a base para muitos sistemas de breakout de volatilidade bem sucedidos). Os parâmetros padrão de 20 períodos para a média móvel e cálculos de desvio padrão, e dois desvios padrão para a largura das bandas são apenas isso, padrões. Os parâmetros reais necessários para qualquer determinada tarefa de mercado podem ser diferentes. A média implantada como a Banda de Bollinger do meio não deve ser a melhor para crossovers. Em vez disso, deve ser descritivo da tendência do termo intermediário. Para uma contenção consistente de preços: se a média for alongada, o número de desvios padrão deve ser aumentado de 2 em 20 períodos, para 2,1 em 50 períodos. Do mesmo modo, se a média for encurtada, o número de desvios-padrão deve ser reduzido de 2 em 20 períodos, para 1,9 em 10 períodos. Bandas Bollinger tradicionais são baseadas em uma média móvel simples. Isso ocorre porque uma média simples é usada no cálculo do desvio padrão e desejamos ser logicamente consistentes. Bandas de Bollinger exponencial eliminam mudanças súbitas na largura das bandas causadas por grandes mudanças de preços que sai pela parte de trás da janela de cálculo. As médias exponenciais devem ser utilizadas tanto para a banda do meio como para o cálculo do desvio padrão. Não faça suposições estatísticas com base no uso do cálculo do desvio padrão na construção das bandas. A distribuição dos preços de segurança não é normal e o tamanho típico da amostra na maioria das implantações das Bandas Bollinger é muito pequeno para significância estatística. (Na prática, normalmente encontramos 90, não 95, dos dados dentro das Bandas Bollinger com os parâmetros padrão) b nos diz onde estamos em relação às Bandas Bollinger. A posição dentro das bandas é calculada usando uma adaptação da fórmula para Stochastics b tem muitos usos entre os mais importantes são a identificação de divergências, reconhecimento de padrões e a codificação de sistemas de negociação usando Bollinger Bands. Os indicadores podem ser normalizados com b, eliminando limiares fixos no processo. Para fazer esta trama 50 ou mais Bollinger Bands em um indicador e, em seguida, calcular b do indicador. BandWidth nos diz o quão amplo são as Bandas de Bollinger. A largura bruta é normalizada usando a banda do meio. Usando os parâmetros padrão, BandWidth é quatro vezes o coeficiente de variação. BandWidth tem muitos usos. Seu uso mais popular é identificar o Squeeze, mas também é útil na identificação de mudanças de tendência. As Bandas Bollinger podem ser usadas na maioria das séries temporais financeiras, incluindo ações, índices, câmbio, commodities, futuros, opções e títulos. As bandas Bollinger podem ser usadas em barras de qualquer comprimento, 5 minutos, uma hora, diariamente, semanalmente, etc. A chave é que as barras devem conter atividade suficiente para dar uma imagem robusta do mecanismo de formação de preços no trabalho. Bandas Bollinger não fornecem conselhos contínuos, em vez disso ajudam a identificar configurações em que as probabilidades possam estar a seu favor. Uma nota de John Bollinger: uma das grandes alegrias de ter inventado uma técnica analítica, como Bollinger Bands, é ver o que outras pessoas fazem com ela. Estas regras que abrangem o uso de Bollinger Bands foram reunidas em resposta a perguntas freqüentemente feitas pelos usuários e nossa experiência ao longo de 25 anos de uso das bandas. Embora existam muitas maneiras de usar as Bandas Bollinger, essas regras devem servir como um bom ponto inicial. Para saber mais sobre Bandas Bollinger: Para visualizar um webinar que cubra estas 22 regras, clique em 22 Regras para Usar Bandas Bollinger. Copiar Bollinger Capital Management. Todos os direitos reservados.