Mito #6: As pessoas são boas em avaliar as outras

Esse capítulo começa descrevendo um processo de avaliação típico.

Geralmente, resume-se a um grupo de indivíduos (normalmente líderes) reunindo-se para discutir o futuro de outros com base em critérios arbitrários (também chamado de modelo de competências) sobre o que constituiria um bom colaborador naquela organização, naquele momento específico.

Após a discussão, todas as atribuições de notas são registradas em uma matriz de nove caixas (conhecida como Nine Box), que relaciona potencial e desempenho, classificando as pessoas em rótulos como “Insuficiente”, “Alto Potencial”, “Diamante Bruto”, “Mantenedor” e similares.

Abaixo está um exemplo dessa estrutura de classificação:

Exemplo de matriz nine box

Apesar de parecer sólido logicamente falando, o metódo gera uma rotulação das pessoas. Pois qualquer rótulo atribuído a você durante o processo de avaliação, geralmente conduzido por pessoas que não estavam intimamente envolvidas no dia a dia, terá impacto na sua carreira, de uma forma ou de outra.

Suponhamos que, na tentativa de tornar as coisas mais justas, o processo siga a lógica de uma avaliação 360 graus: somando as notas de todos que interagiram com o indivíduo, a avaliação seria muito mais abrangente do que apenas a dos líderes, certo?

A falácia fundamental desse pensamento reside no argumento da multidão sábia: muitas pessoas bem informadas tomam decisões melhores. O livro exemplifica essa situação contando um caso sobre a multidão ter acertado o peso de um boi em uma exposição na Inglaterra em 1906 (que foi de onde veio a ideia).

A questão toda desse ponto em comparação ao processo de avaliação é que as pessoas ali estavam de fato bem informadas sobre o quanto um boi pesava. O que não acontece em avaliações de desempenho. De uma maneira geral, quem você acha apto a avaliar você: seu líder ou você mesmo (que foi de fato quem fez o trabalho)?

O livro argumenta que quando as pessoas avaliam outras, a forma como avaliam diz mais sobre ELAS do que sobre o outro. As pessoas deveriam considerar o contexto e outros detalhes na avaliação, mas isso raramente ocorre, resultando em um viés que será explorado agora.

Efeito idiossincrático do avaliador
Refere-se aos preconceitos, preferências ou características pessoais individuais que uma pessoa (avaliador) traz para o processo de avaliação do desempenho, comportamento ou outras características de outra pessoa. No contexto de avaliação de desempenho, destaca a tendência de diferentes avaliadores introduzirem suas próprias perspectivas subjetivas, levando a variações na forma como avaliam o mesmo indivíduo ou conjunto de critérios.

Esse fenômeno impacta a objetividade e a consistência do processo de avaliação. Fatores como crenças pessoais, experiências anteriores e percepções individuais podem influenciar o julgamento do avaliador e contribuir para variações idiossincráticas nas avaliações.

Ou seja, mesmo que houvesse um departamento de avaliadores profissionais treinados (o que, segundo o livro, não é possível treinar pessoas para tal), o problema não seria resolvido.

O problema da avaliação é um problema de lógica fundamental errada: o processo TODO é enviesado; logo, não adianta tentar corrigir, o erro só aumenta conforme mais pessoas são inseridas no processo.

Citando direto do livro:

No mundo das avaliações, é errada e nociva a ideia de que sempre é possível se proteger do risco de que alguma fonte de dados isolada esteja errada obtendo dados de várias fontes e tirando a média. Juntar dados errados com os certos, ou vice-versa, não melhora a qualidade dos dados nem compensa suas falhas intrínsecas. (página 169)

O que nos leva até o momento, a três pontos importantes:

  1. Não é possível treinar pessoas em avaliar outras.
  2. Dados obtidos desta forma estão contaminados, pois revelam mais sobre o avaliador do que o avaliado.
  3. Essa contaminação não pode ser eliminada com o acréscimo de mais dados contaminados.

Portanto, processos de avaliação não medem o que se propõem a medir.

O que fazer, então?

A solução proposta no livro para resolver o problema é usar os dados corretos. O que ocorre hoje é que são usados muitos dados, porém, incorretos!

Mesmo com toda a tecnologia relacionada ao big data hoje disponível, nenhuma empresa conseguiu prever corretamente o desempenho até o momento. Ou seja, não é uma questão de quantidade de dados e sim, do tipo de dados usados.

O critério usado para definir “dados corretos” são os seguintes: que sejam confiáveis, variáveis e válidos.

No que diz respeito à confiabilidade, dados provenientes de avaliações de outras pessoas não são úteis devido ao viés discutido anteriormente.

Você avaliar a si mesmo é mais confiável do que ser avaliado por outros, uma vez que você é a pessoa que mais convive consigo mesma e sabe mais do que precisa ser feito. O ponto proposto pela obra não é evitar a subjetividade, mas sim, estabelecer uma linha de questionamento que gere uma subjetividade confiável!

Vale reforçar um ponto: confiável não é sinônimo de preciso.

Portanto, as pessoas são confiáveis em avaliar a si mesmas e suas próprias experiências, mas não necessariamente são precisas nessas avaliações.

A limitação mencionada é que não existe um método baseado em dados que possa medir se as pessoas possuem bom senso em suas autoavaliações (isso se aplica a líderes e liderados) e dado que dados advindos de outras pessoas também são contaminados, não é possível “sanitizar” as autoavaliações dessa forma. Porém, ainda assim, são melhores que avaliações feitas por líderes que usam um modelo de competências como critério.

No quesito variabilidade, realizar uma autoavaliação com perguntas que forcem variações radicais (usando palavras como sempre, todos os dias, nunca e similares) assegura essa variabilidade. Um exemplo disso você encontra nas 8 perguntas do primeiro texto da série.

A formulação das perguntas precisa ser extrema de propósito, somente assim as respostas geram a variabilidade necessária para atender o critério (é uma técnica estatística).

No critério da validade, a ideia é simples: dados válidos são aqueles que podem prever alguma coisa no mundo real. O que tem de mais correlacionado com a carreira da pessoa, do que o sentimento do líder em relação ao liderado?

Pareceu mais enviesado ainda né? Mas calma que eu explico.

Partindo dessa premissa, as perguntas que os líderes deveriam responder seriam algo na linha: como você se sentiria se a pessoa desenvolvesse a habilidade X?

Entenda esse X como qualquer habilidade descrita no modelo de competências que um funcionário deveria ter.

As perguntas que deveriam constar em um processo de avaliação, segundo essa lógica, são as seguintes:

Você promoveria essa pessoa?
Você recorreria a ela se precisasse de resultados extraordinários?
Você optaria por trabalhar com ela sempre que possível?
Você acha que esta pessoa tem um problema de desempenho que lhe exige tomar alguma providência imediata?

Essas perguntas visam fornecer dados confiáveis sobre o sentimento do líder em relação ao liderado. Ao invés de tentar encaixar as pessoas no modelo de competências, essas perguntas fornecem uma correlação real com o que o líder pretende para aquela pessoa, o que não deixa de ser o objetivo final de um processo de avaliação.

Honestamente? Eu achei mais direto e pragmático do que avaliações tradicionais. Com certeza é algo a se pensar. Independente dos critérios estatísticos rebuscados, eu achei que são boas perguntas para direcionar discussões sobre avaliações de uma maneiral geral.

Por fim, o livro propõe a seguinte verdade para substituir o mito: as pessoas são boas em avaliar a própria experiência (porque é tudo que temos).

Isso vai contra a percepção de boa parte dos gestores tradicionais. Ao meu ver, isso é ótimo, pois gestão se faz com ciência e critérios rigorosos e não somente com opinião.

Espero que o texto tenha sido útil para você de alguma forma.

Até!

Você gostou do conteúdo e gostaria de fazer mentoria comigo? Clique aqui e descubra como.

--

--