Visão Geral

Neste momento, essa mudança no processamento de marcações foi realizada através de uma mudança de arquitetura de como as

marcações são lidas e gravadas no Clockin tendo como vantagem a melhoria de performance e resiliência dos processos de geração a seguir:

Como era Antes?

No modelo atual todo o processamento segue os seguintes passos:

Passo1:    o app mobile envia um marcação para a Carol

Passo2:    dado chega na Staging Table, dado bruto sem tratamento algum.

Passo3:    por meio de regras de mapeamento esse dado é tratado e transformado em uma informação pronta a ser consumida através de consultas nos Data Models.

Exemplo:

Ao processar um registro, o dado volta para a Staging Table, passando novamente por um regra de tratamento alterada e chegando ao Data Model novamente.


Como será daqui para frente?

O novo formato utiliza conversão de de dados entre as camadas dos dados da Plataforma usando códigos SQL

em vez de regras de mapeamentos.


Apenas 3 Data Models apresentam o novo processamento: Clock In Records, Fraud Analysis e Clock In Event Type.



Os demais continuarão no modelo atual, em breve teremos novas atualizações sobre os mesmos. 

Para maiores detalhes sobre o novo processamento, consulte o link.

Como realizar a atualização desse novo modelo?

Para que as novas configurações de processamento será atualizada no ambiente faz-se necessário a realização de

uma atualização da versão do Backoffice para a  12.1.22080007 através do  processo de atualização de versão do Backoffice

Novo processo de geração de Comprovante

As tasks que sofreram alteração foram:

Para o usuário final, nada foi alterado, muito menos a funcionalidade das mesmas.

Apenas a geração de comprovantes foi separada da geração de NSR's. 

Quais as principais vantagens?

Segue algumas vantagens na utilização desse novo processos:

Problemas e Soluções

Problema 1: há mapeamento vinculados aos Data Models Clock IN Records, Clock In Event Type e Fraud Analysis ? 

Para acessar os Data Models, clicar no item no Menu lateral esquerdo.



Para avaliar é necessário visualizar a estrutura dos Data Models criados, e avaliar se há conteúdo na seção "Mapped Connectors".

Vide exemplos abaixo.

Obs.: Caso ainda existam mapeamento vinculados aos mesmos, faz-se necessário abertura de ticket.



   



Problema 2: Os registros dos Data Models citados acima devem ser oriundos do novo formato, para verificar, basta visualizar a coluna “Conector”.

A mesma deverá constar o conteúdo “Carol Explore” ou o conteúdo vir em branco. Caso não ocorra, como proceder?


No exemplo abaixo trazemos o Data Model "Fraud Analisys" (para os outros 2, o passo a passo é o mesmo).




Obs.: Caso a coluna citada possua um outro conteúdo, faz-se necessário a abertura de ticket.

Problema 3: Como acessar os registros dos data Models ?

Por enquanto não é possível visualizar os registros na camada RT, isso será liberado em breve e isso não traz impacto algum aos clientes.

O correto, a visualização se fará pelo BQ.

Atenção é necessário consolidar os dados antes de visualizá-los:







Problema 4: Com relação a esses processos citados, caso apareça algum erro, sugere-se a verificação dos logs criados das tasks, havendo necessidade é sugerido a criação de um ticket.

Para acessar os logs das tarefas na Plataforma Carol, é necessário acessar a Activity Management.

Clica-se no Sino e depois em View All.

No exemplo que trazemos, a task é a de Geração de NSR's.

Visualizamos que a mesma possui Status ''Failed'', ao clicamos na mesma um menu lateral direito será aberto.

Ao descermos pelo mesmo, é possível visualizar a mensagem de erro.

Nesse caso, faz-se necessário a abertura de ticket.


Temos ainda as task's de : AI Process: generate_receipts, e AI Process: fraud_detection.

Problema 5:. A partir de agora não é indicado realizar a alteração de registros diretamente pela Plataforma Carol, isso deve-se pois ao novo processamento não abrange os dados alterados nessa forma.

Logo o que for alterado na plataforma não será considerado.