Popis: |
O framework Apache Hadoop, usado para processar e armazenar grandes quantidades de dados, usa a técnica de Checkpoint and Recovery para auxiliar em recuperações pós-falha de seu sistema de arquivos distribuído. Porém, adaptações eficientes para período entre checkpoints do Hadoop dependem de observações apuradas do sistema. O objetivo deste trabalho é estimar o custo da realização de checkpoints e o tempo médio entre falhas do sistema a partir de um histórico de observações. Os fatores são observados e analisados com relação a diferentes variações de configuração do framework e do benchmark usado. |