Páginas filhas
  • Processo de Testes | T-TALK - versão obsoleta

Versões comparadas

Chave

  • Esta linha foi adicionada.
  • Esta linha foi removida.
  • A formatação mudou.

Índice

Objetivo

Esse documento tem o objetivo de apresentar o processo de Testes e Qualidade realizado pela equipe de Framework T-TALK. 

O processo segue as melhores práticas de cada uma das linhas de produto envolvidas, e os conceitos propostos pela engenharia corporativa (04. Processo Desenvolvimento Ágil | Execução do Sprint).
Dessa maneira, garantimos qualidade, segurança e inovação nas integrações configuradas entre duas, ou mais, linhas.

Termos e Nomenclaturas

Os termos devenão deve, requeridopodenão poderecomendadoopcional devem ser interpretados como descritos no padrão RFC-2119.

...

Aviso

Não confundir Teste Integrado com Teste de Integração!

Apesar da nomenclatura parecida, o que a TOTVS entende como Teste Integrado é voltado à integração entre duas partes do mesmo sistema. Os testes escritos para a classe A, por exemplo, que busca informações do banco de dados, ou utiliza uma chamada de método de outra classe, é um teste integrado. Por outro lado, o Teste de Integração é algo específico da nossa área de T-TALK, que envolve realizar a comunicação entre dois, ou mais, sistemas com a finalidade de analisar o comportamento dos mesmos e da integração entre eles.

Funcionamento

Foram definidos fluxos de tarefas que deverão ser realizadas dentro de um ciclo de 6 sprints:

...

  • Sprints 1, 2 e 3:
    • Desenvolvimento / Inovação
    • Correção de Defeitos do Backlog
    • Automação Teste de Interface
  • Sprint 4:
    • Desenvolvimento / Inovação
    • Correção de Defeitos do Backlog
    • Automação Teste de Interface
    • Montagem de ambiente para Teste de Integração
  • Sprint 5:
    • Desenvolvimento / Inovação
    • Correção de Defeitos do Backlog
    • Automação Teste de Interface
    • Qualidade
  • Sprint 6
    • Estabilização

Detalhamento dos fluxos

Desenvolvimento / Inovação

Esse fluxo é voltado ao desenvolvimento de novas funcionalidades (inovação).

...

  • Desenvolvimento de testes unitários:
    • Responsável: Desenvolvedor.
    • Os casos de testes são especificados na própria ferramenta/Framework utilizado (Mais detalhes em Especificidades das Linhas).
    • Deve ser codificado de maneira a ser um teste automatizado, seguindo o Framework de testes mais adequado para o cenário. Ou seja, todo teste unitário deve ser automatizado.
    • Deve ser feito para novas funcionalidades.
    • Pode seguir as práticas do TDD (Recomendável).
    • Pode ser feito para funcionalidades antigas que forem revisitadas (Recomendável).
  • Execução de testes unitários:
    • Responsável: Desenvolvedor.
    • A execução desses testes deve gerar um relatório, que deve ser anexado na subtarefa de Teste Unitário ao ser concluída.
  • Execução de Teste de Qualidade de Código:
    • Responsável: Desenvolvedor.
    • É executado através de ferramenta que atenda a linguagem e estrutura do sistema (Mais detalhes em Especificidades das Linhas).
    • A execução desses testes deve gerar um relatório, que deve ser anexado na subtarefa de Teste de Qualidade de Código ao ser concluída.
  • Code Review:
    • Responsável: Tester/QA.
    • É um momento de análise de possíveis problemas ou melhorias, envolvendo uma comunicação mais próxima entre o tester e desenvolvedor.
  • Correção de Defeitos críticos no Backlog:
    • Responsável: Desenvolvedor.
    • Deve ser evitado trazer correção de defeitos para sprints de inovação, apenas casos críticos.
  • Escrever Casos de Teste no Kanoah:
    • Responsável: Tester/QA.
    • Passo a passo do teste que será realizado.
  • Execução de Testes Integrados:
    • Responsável: Tester/QA.
    • Deve ser feito de maneira manual. 
      • Deve gerar evidência:
      • Essa evidência pode ser documento padrão com sprints.
  • Planejamento de Teste de Integração para Sprints Posteriores
    • Definir quais são os requisitos aceitáveis para que um ambiente de sistemas integrados reflita, o mais próximo possível, um ambiente utilizado pelo cliente.
    • Além disso, devem ser definidos todos os requisitos dos testes que serão executados.  
  • Execução de Testes de Integração
    • Responsável: Tester/QA.
    • Deve ter o ambiente previamente configurado.
  • Correção de Bugs: 
    • Responsável: Desenvolvedor.
    • Corrigir os bugs que foram encontrados durante testes integrado.

Correção de Defeitos do Backlog

Corrigir problemas críticos e não críticos que se encontram no backlog.

...

  • Correção de defeitos críticos do backlog:
    • Responsável: Desenvolvedor.
    • Esse é o melhor momento para resolver esses defeitos.
    • Essas correções devem ser aplicadas diretamente no ambiente do cliente
  • Correção de defeitos não críticos do backlog:
    • Responsável: Desenvolvedor.
    • A intenção é limpar, o máximo possível, os defeitos que foram abertos no backlog, mesmo que não apontados como algo crítico.

Automação Teste de Interface

  • Desenvolvimento de Testes de Interface
    • Responsável: Tester/QA.
    • É realizado apenas se for identificada viabilidade, e se fizer sentido.
  • Escrever Casos de Teste no Kanoah
    • Responsável: Tester/QA.
    • Passo a passo do teste que será realizado.
  • Code Review:
    • Responsável: Tester/QA.
    • É um momento de análise de possíveis problemas ou melhorias, envolvendo uma comunicação mais próxima entre o tester e desenvolvedor.

Montagem de ambiente para Teste de Integração

  • Planejar requisitos para ambiente deste e documentar no Kanoah
    • Identificar quais são as principais características necessarias nesse ambiente, para que seja possível testar a nova funcionalidade, e deixá-lo mais próximo o possível da realidade do cliente.
    • Documentar os requisitos encontrados.
  • Preparar ambiente para Teste de Integração
    • Preparar o ambiente de acordo com os requisitos definidos previamente.

Qualidade

  • Definir Suíte de Testes para Teste de Regressão em página do Kanoah com referências para esses testes
    • Responsável: Tester/QA.
    • Identificar quais os casos de testes passados devem ser realizados na sprint de estabilização, para teste de regressão.
    • Priorizar Testes de Integração
      • Principalmente aqueles que foram apenas planejados e não executados (Devemos tentar evitar essa situação!)
    • Criar página do Kanoh referenciando os testes escolhidos
    • Criar tarefas no JIRA, referentes aos testes que serão executados 
  • Atualizar Casos de Teste:
    • Após leitura do caso de teste no Kanoah, entender se o mesmo exige atualização. 
    • Caso esteja desatualizado, esse é o momento de alterar o documento
  • Definir Casos de Teste e as métricas esperadas para o teste de performance/carga no Kanoah
    • Responsável: Tester/QA
    • Criar página no Kanoah 
    • Criar tarefas no JIRA, referentes aos testes que serão executado
  • Desenvolvimento de Testes de Performance/Carga
    • Responsável: Tester/QA.
    • É realizado apenas se for identificada viabilidade.

Estabilização

Esse fluxo é focado em encontrar e solucionar problemas.

...

  • Execução de Testes de Regressão:
    • Responsável: Tester/QA.
    • Pode ser feito de maneira automatizada (Recomendável).
      • Deve gerar evidência:
        • Essa evidência pode ser um relatório gerado pela própria ferramenta/framework de teste, como o documento padrão com prints de tela ou vídeos.
    • Pode ser feito de maneira não automatizada (Não Recomendável):
      • Deve gerar evidência:
        • Essa evidência deve ser o documento padrão com prints de tela.
  • Execução de Testes de Performance/Carga:
    • Responsável: Tester/QA.
    • Pode ser feito de maneira automatizada (Recomendável):
      • Deve gerar evidência:
        • Essa evidência pode ser um relatório gerado pela própria ferramenta/framework de teste, como o documento padrão com prints de tela ou vídeos.
      • Pode ser feito de maneira não automatizada (Não Recomendável):
        • Deve gerar evidência:
          • Essa evidência deve ser o documento padrão com prints de tela.
  • Correção de Bugs:
    • Responsável: Desenvolvedor.
    • Corrigir os bugs que foram encontrados durante testes de Regressão e Performance/Carga.

Regras Gerais

Nos processos desenhados acima, foi possível encontrar algumas regras gerais, como:

  • Todo teste unitário deve ser automatizado.
  • Todos os outros testes devem priorizar a automação, porém podem ser feitos de maneira manual dependendo de viabilidade/complexidade
  • Todo teste, com exceção dos testes unitários, deve ter seu passo a passo explicado no Kanoah, e esse documento deve ser atualizado toda vez que for identificada uma suíte de testes de regressão que não corresponda a realidade atual.
  • Todo teste deve gerar evidência, e essa sempre deve ser anexada na tarefa ao marcá-la como concluída. É válido: Documento padrão de evidências com prints de tela ou relatório gerado automaticamente pelo framework de teste.
  • É possível paralelizar diferentes tarefas de teste, elas não são dependentes das demais.

Âncora
linhas
linhas
Especificidades das Linhas

Configurador / Monitor / Diagnóstico (FrontEnd)

  • Durante as sprints de estabilização, devem ser executados testes apontando para APIs de, no mínimo, duas linhas.
  • Ferramentas de Testes:
    • Teste unitário: Jasmine e Karma
    • Qualidade de código: SonarCube / JSLint
    • Teste Integrado: Protractor
    • Teste de Carga/Performance: Protractor

RM

  • Novas funcionalidades que podem gerar impacto nas existentes podem ser feitas em branches "requisitos" separadas
    • Após testes integrados, de integração e regressão, deve ser feito o merge dessa funcionalidade para a branch "atual"
  • Com exceção do teste unitário, todos os demais testes devem ser feitos em um ambiente montado a partir de RESTORE, visando ter o mesmo ambiente que o cliente irá receber
  • Ferramentas de Testes:
    • Teste unitário: NUnit
    • Qualidade de código: SonarCube
    • Teste de Carga/Performance: Postman

Protheus

  • Toda codificação é uma nova branch no GIT, que possui o mesmo nome que a tarefa do JIRA(ex. ISSUE/SPRINT99/DEAI1-9999)
    • Após testes integrados, de integração e regressão, deve ser feito o merge das novas funcionalidades para a branch "master"
  • Os testes devem ser realizados utilizando o binário específico para testes
  • Os testes devem ser realizados com a lib (framework) inteira e atualizada.
  • Ferramentas de Testes:
    • Teste unitário: Unit Test Automation
    • Qualidade de código: SonarCube 
    • Teste de Carga/Performance: Postman
    • Teste Integrado: PWA (Protheus Web Automation)

Informações

O Plugin Advpl para SonarCube encontra-se em desenvolvimento

Datasul

  • Os testes devem ser realizados com a instalação do produto atualizada.
  • Ferramentas de Testes:
    • Teste unitário: Jasmine e JUnit.
    • Teste Contínuo: Jenkins
    • Teste Integrado: Protractor
    • Teste de Carga/Performance: Postman
    • Qualidade de código: SonarCube 

Logix

A Definir

Calendário de liberações

O processo de testes deve estar sempre adequado ao calendário de liberações utilizado que está disponível no seguinte endereço para consulta interna de participantes: Conteúdo Complementar | Release

Processo de transição

Para facilitar a adaptação da equipe T-Talk o processo de testes seguirá as seguintes etapas no processo de implantação:

...