Pergunta

Alguém tem experiência com o mecanismo de cache distribuído de KODO JDO? Eu gostaria de saber:

1) Qual é a latência como entre as atualizações de cache distribuídos (por isso, se dois usuários estão batendo dois caches separados ou seja, em duas JVMs diferentes e estão usando os mesmos dados e um faz uma atualização, quando é que o outro usuário, usando o outro cache, consulte a atualização?)

2) a quantidade de dados serão transferidos entre JVMs? se uma atualização é feita para um cache, ele simplesmente dizer aos outros caches para soltar os objetos, dizendo que as chaves primárias dos objetos para limpar? (Preocupação é o tráfego de rede / sobrecarga de gerenciamento do cache distribuído)

3) quando você tem feeds externos atualizar seu banco de dados durante todo o dia (ou seja, não entrando pela sua aplicação), como é que é fácil externamente invocar um flush cache?

Nosso aplicativo é executado em um cluster Weblogic de 12 JVMS e estamos considerando permitindo que o cache distribuído para ajudar com desempenho vindo de grandes gráficos de objeto que está sendo puxado do nosso banco de dados - o que não cached-- Atualmente mas gostaria de conhecer alguns experiência do mundo real com # 1,2, e 3. Graças.

Nenhuma solução correta

Outras dicas

Esta é uma resposta parcial, mas acredito que ainda útil (De http://docs.oracle.com/cd/E13189_01/kodo/docs303/ref_guide_cache.html ):

Quando usado em conjunto com um kodo.event.RemoteCommitProvider, cometer informação é comunicada a outros JVMs via JMS ou TCP, e caches remotos são invalidadas com base nesta informação.

Não é indicado se isso significa que esta consolidação é incluído como parte da transação original (que seria de esperar) ou e / ou o que o tempo de atraso ou sobrecarga é com esta operação e como ele escalas (por exemplo, como é que executar se você está coordenando 15 JVMs e você tem vários usuários atualizando os mesmos dados)

Licenciado em: CC-BY-SA com atribuição
Não afiliado a StackOverflow
scroll top