Avaliação

Da Wikipédia, a enciclopédia livre
Ir para a navegação Saltar para pesquisar

A avaliação é uma determinação sistemática do mérito, valor e significância de um assunto, usando critérios regidos por um conjunto de padrões . Pode auxiliar uma organização, programa, desenho, projeto ou qualquer outra intervenção ou iniciativa a avaliar qualquer objetivo, conceito/proposta realizável, ou qualquer alternativa, para auxiliar na tomada de decisões ; ou para verificar o grau de realização ou valor em relação ao objetivo e objetivos e resultados de qualquer ação que tenha sido concluída. [1] O objetivo principal da avaliação, além de obter informações sobre iniciativas anteriores ou existentes, é permitir a reflexão e auxiliar na identificação de mudanças futuras.[2] A avaliação é frequentemente usada para caracterizar e avaliar assuntos de interesse em uma ampla gama de empreendimentos humanos, incluindo artes , justiça criminal , fundações , organizações sem fins lucrativos , governo , assistência médica e outros serviços humanos. É a longo prazo e feito no final de um período de tempo.

Definição

A avaliação é a interpretação estruturada e a atribuição de significado aos impactos previstos ou reais de propostas ou resultados. Ele analisa os objetivos originais e o que está previsto ou o que foi realizado e como foi realizado. Assim, a avaliação pode ser formativa , ou seja, durante o desenvolvimento de um conceito ou proposta, projeto ou organização, com a intenção de melhorar o valor ou a eficácia da proposta, projeto ou organização. Também pode ser somativo , tirando lições de uma ação ou projeto concluído ou de uma organização em um momento ou circunstância posterior. [3]

A avaliação é inerentemente uma abordagem teoricamente informada (explícita ou não) e, consequentemente, qualquer definição particular de avaliação teria sido adaptada ao seu contexto – a teoria, necessidades, propósito e metodologia do próprio processo de avaliação. Dito isto, a avaliação foi definida como:

  • Uma aplicação sistemática, rigorosa e meticulosa de métodos científicos para avaliar o design, implementação, melhoria ou resultados de um programa. É um processo de uso intensivo de recursos, frequentemente exigindo recursos, como avaliação de conhecimentos, mão de obra, tempo e um orçamento considerável [4]
  • "A avaliação crítica, da maneira mais objetiva possível, do grau em que um serviço ou seus componentes cumprem as metas estabelecidas" (St Leger e Wordsworth-Bell). [5] [ falha na verificação ] O foco desta definição é atingir o conhecimento objetivo e medir cientificamente ou quantitativamente conceitos predeterminados e externos.
  • "Um estudo projetado para ajudar algum público a avaliar o mérito e o valor de um objeto" (Stufflebeam). [5] [ falha na verificação ] Nesta definição, o foco está nos fatos, bem como nos julgamentos carregados de valor dos resultados e do valor do programa.

Objetivo

O principal objetivo de uma avaliação de programa pode ser "determinar a qualidade de um programa formulando um julgamento" Marthe Hurteau, Sylvain Houle, Stéphanie Mongiat (2009). [6] Uma visão alternativa é que "projetos, avaliadores e outras partes interessadas (incluindo financiadores) terão ideias potencialmente diferentes sobre a melhor forma de avaliar um projeto, pois cada um pode ter uma definição diferente de 'mérito'. O cerne do problema trata-se, portanto, de definir o que tem valor." [5] Nessa perspectiva, avaliação "é um termo contestado", pois "avaliadores" usam o termo avaliação para descrever uma avaliação ou investigação de um programa, enquanto outros simplesmente entendem avaliação como sinônimo de pesquisa aplicada.

Existem duas funções considerando o propósito da avaliação As Avaliações Formativas fornecem informações sobre a melhoria de um produto ou processo As Avaliações Sumativas fornecem informações de eficácia de curto prazo ou impacto de longo prazo para decidir a adoção de um produto ou processo. [7]

Nem todas as avaliações servem ao mesmo propósito, algumas avaliações servem a uma função de monitoramento, em vez de se concentrarem apenas em resultados mensuráveis ​​do programa ou resultados da avaliação, e uma lista completa de tipos de avaliações seria difícil de compilar. [5] Isso ocorre porque a avaliação não faz parte de uma estrutura teórica unificada, [8] com base em várias disciplinas, que incluem administração e teoria organizacional , análise de políticas , educação , sociologia , antropologia social e mudança social . [9]

Discussão

No entanto, a adesão estrita a um conjunto de pressupostos metodológicos pode tornar o campo da avaliação mais aceitável para um público comum, mas essa adesão funcionará no sentido de evitar que os avaliadores desenvolvam novas estratégias para lidar com a miríade de problemas que os programas enfrentam. [9] Alega-se que apenas uma minoria dos relatórios de avaliação é utilizada pelo avaliador (cliente) (Datta, 2006). [6] Uma justificativa para isso é que "quando os resultados da avaliação são contestados ou a utilização falhou, foi porque as partes interessadas e os clientes acharam as inferências fracas ou as garantias pouco convincentes" (Fournier e Smith, 1993). [6]Algumas razões para esta situação podem ser a falha do avaliador em estabelecer um conjunto de objetivos compartilhados com o avaliado, ou criar objetivos excessivamente ambiciosos, bem como não comprometer e incorporar as diferenças culturais dos indivíduos e programas dentro dos objetivos e processo de avaliação . [5] Nenhum desses problemas se deve à falta de uma definição de avaliação, mas sim ao fato de os avaliadores tentarem impor aos clientes noções predispostas e definições de avaliação. A razão central para a má utilização das avaliações é, sem dúvida , [ por quem? ] devido à falta de adequação das avaliações às necessidades do cliente, devido a uma ideia pré-definida (ou definição) do que é uma avaliação e não das necessidades do cliente (House, 1980).[6] O desenvolvimento de uma metodologia padrão para avaliação exigirá chegar a formas aplicáveis ​​de perguntar e declarar os resultados de questões sobre ética, como agente-diretor, privacidade, definição de partes interessadas, responsabilidade limitada; e questões sobre como o dinheiro poderia ser gasto com mais sabedoria.

Padrões

Dependendo do tema de interesse, existem grupos profissionais que revisam a qualidade e o rigor dos processos de avaliação.

Avaliar programas e projetos, quanto ao seu valor e impacto no contexto em que são implementados, pode ser eticamente desafiador. Os avaliadores podem encontrar sistemas complexos e culturalmente específicos resistentes à avaliação externa. Além disso, a organização do projeto ou outras partes interessadas podem ser investidas em um resultado de avaliação específico. Finalmente, os próprios avaliadores podem encontrar problemas de " conflito de interesse (COI) " ou sofrer interferência ou pressão para apresentar descobertas que apoiem uma avaliação específica.

Os códigos de conduta profissional geral , conforme determinado pela organização empregadora, geralmente cobrem três amplos aspectos de padrões comportamentais e incluem relações intercolegiais (como respeito à diversidade e privacidade ), questões operacionais (devida competência , precisão da documentação e uso apropriado de recursos) e conflitos de interesse ( nepotismo , aceitação de presentes e outros tipos de favoritismo). [10] No entanto, são necessárias diretrizes específicas específicas para o papel do avaliador que podem ser utilizadas na gestão de desafios éticos únicos. O Comitê Conjunto de Padrões para Avaliação Educacionaldesenvolveu padrões para programa, pessoal e avaliação de alunos. Os padrões do Comitê Conjunto são divididos em quatro seções: Utilidade, Viabilidade, Propriedade e Precisão. Várias instituições europeias também prepararam as suas próprias normas, mais ou menos relacionadas com as produzidas pelo Comité Misto. Eles fornecem diretrizes sobre como basear os julgamentos de valor na investigação sistemática, competência e integridade do avaliador, respeito pelas pessoas e consideração pelo bem-estar geral e público. [11]

A American Evaluation Association criou um conjunto de Princípios Orientadores para avaliadores. [12] A ordem destes princípios não implica prioridade entre eles; a prioridade varia de acordo com a situação e o papel do avaliador. Os princípios funcionam da seguinte forma:

  • Inquérito Sistemático : os avaliadores realizam inquéritos sistemáticos e baseados em dados sobre o que está sendo avaliado. Isso requer coleta de dados de qualidade, incluindo uma escolha defensável de indicadores, o que confere credibilidade às descobertas. [13] As descobertas são confiáveis ​​quando são comprovadamente baseadas em evidências, confiáveis ​​e válidas. Isso também diz respeito à escolha da metodologia empregada, de modo que seja consistente com os objetivos da avaliação e forneça dados confiáveis. Além disso, a utilidade dos resultados é fundamental para que as informações obtidas pela avaliação sejam abrangentes e oportunas e, portanto, sirvam para fornecer o máximo benefício e uso às partes interessadas . [10]
  • Competência: os avaliadores fornecem um desempenho competente às partes interessadas . Isso exige que as equipes de avaliação incluam uma combinação apropriada de competências, de modo que haja conhecimentos variados e apropriados disponíveis para o processo de avaliação e que os avaliadores trabalhem dentro de seu escopo de capacidade. [10]
  • Integridade / Honestidade : os avaliadores garantem a honestidade e integridade de todo o processo de avaliação. Um elemento chave deste princípio é a ausência de preconceitos na avaliação e isto é sublinhado por três princípios: imparcialidade, independência e transparência.

A independência é alcançada garantindo que a independência de julgamento seja mantida, de modo que as conclusões da avaliação não sejam influenciadas ou pressionadas por outra parte, e evitando conflitos de interesse, de modo que o avaliador não tenha interesse em uma determinada conclusão. O conflito de interesses está em questão particularmente quando o financiamento das avaliações é fornecido por órgãos específicos com interesse nas conclusões da avaliação, e isso é visto como potencialmente comprometedor da independência do avaliador. Embora se reconheça que os avaliadores podem estar familiarizados com agências ou projetos que devem avaliar, a independência exige que eles não tenham se envolvido no planejamento ou implementação do projeto. Uma declaração de interesse deve ser feita onde quaisquer benefícios ou associação com o projeto são declarados.

descobertas podem verificar. [10]

A imparcialidade refere-se aos resultados sendo uma avaliação justa e completa dos pontos fortes e fracos de um projeto ou programa. Isso requer a devida contribuição de todas as partes interessadas envolvidas e os resultados apresentados sem preconceitos e com uma ligação transparente, proporcional e persuasiva entre os resultados e as recomendações. Assim, os avaliadores são obrigados a delimitar suas descobertas às evidências. Um mecanismo para garantir a imparcialidade é a revisão externa e interna. Essa revisão é exigida de avaliações significativas (determinadas em termos de custo ou sensibilidade). A revisão é baseada na qualidade do trabalho e no grau em que uma ligação demonstrável é fornecida entre as descobertas

e recomendações. [10]

A transparência exige que as partes interessadas estejam cientes do motivo da avaliação, dos critérios pelos quais a avaliação ocorre e dos propósitos aos quais as descobertas serão aplicadas. O acesso ao documento de avaliação deve ser facilitado por meio de descobertas de fácil leitura, com explicações claras das metodologias de avaliação, abordagens, fontes de informação e custos

incorridos. [10]

  • Respeito pelas Pessoas: Os avaliadores respeitam a segurança , dignidade e auto-estima dos entrevistados, participantes do programa , clientes e outras partes interessadas com quem interagem . Isso é particularmente pertinente em relação àqueles que serão impactados pelos resultados da avaliação. [13] A proteção das pessoas inclui garantir o consentimento informado dos envolvidos na avaliação, manter a confidencialidade e garantir que a identidade daqueles que podem fornecer informações confidenciais para a avaliação do programa seja protegida. [14]Os avaliadores são eticamente obrigados a respeitar os costumes e crenças daqueles que são impactados pela avaliação ou pelas atividades do programa. Exemplos de como esse respeito é demonstrado é por meio do respeito aos costumes locais, por exemplo, códigos de vestimenta, respeito à privacidade das pessoas e minimização das demandas de tempo dos outros. [10] Quando as partes interessadas desejarem fazer objeções aos resultados da avaliação, tal processo deve ser facilitado pelo escritório local da organização de avaliação, e os procedimentos para apresentação de reclamações ou consultas devem ser acessíveis e claros.
  • Responsabilidades pelo bem-estar geral e público : Os avaliadores articulam e levam em consideração a diversidade de interesses e valores que podem estar relacionados ao bem-estar geral e público. O acesso aos documentos de avaliação pelo público em geral deve ser facilitado de modo que a discussão e o feedback sejam permitidos. [10]

Além disso, as organizações internacionais como o FMI e o Banco Mundial têm funções de avaliação independentes. Os vários fundos, programas e agências das Nações Unidas têm uma mistura de funções independentes, semi-independentes e de autoavaliação, que se organizaram como um Grupo de Avaliação das Nações Unidas (UNEG) em todo o sistema, [13] que trabalha em conjunto para fortalecer a função e estabelecer normas e padrões da ONU para avaliação. Há também um grupo de avaliação dentro da OCDE-DAC, que se esforça para melhorar os padrões de avaliação do desenvolvimento. [15] As unidades de avaliação independentes dos principais bancos multinacionais de desenvolvimento (BMDs) também criaram o Grupo de Cooperação de Avaliação [16] fortalecer o uso da avaliação para maior eficácia e prestação de contas do MDB, compartilhar lições das avaliações do MDB e promover a harmonização e colaboração da avaliação.

Perspectivas

A palavra "avaliação" tem várias conotações para diferentes pessoas, levantando questões relacionadas a este processo que incluem; que tipo de avaliação deve ser realizada; por que deve haver um processo de avaliação e como a avaliação é integrada em um programa, com o objetivo de obter maior conhecimento e conscientização? Existem também vários fatores inerentes ao processo de avaliação, por exemplo; examinar criticamente as influências dentro de um programa que envolvem a coleta e análise de informações relativas sobre um programa.

Michael Quinn Patton motivou o conceito de que o procedimento de avaliação deve ser direcionado para:

  • Atividades
  • Características
  • Resultados
  • A tomada de julgamentos sobre um programa
  • Melhorando sua eficácia,
  • Decisões de programação informadas

Fundada em outra perspectiva de avaliação de Thomson e Hoffman em 2003, é possível que se encontre uma situação em que o processo não poderia ser considerado aconselhável; por exemplo, no caso de um programa ser imprevisível ou insalubre. Isso inclui a falta de uma rotina consistente; ou as partes interessadas incapazes de chegar a um acordo sobre o objetivo do programa. Além disso, um influenciador ou gerente que se recusa a incorporar questões centrais relevantes e importantes na avaliação

Abordagens

Existem várias maneiras conceitualmente distintas de pensar, projetar e conduzir os esforços de avaliação. Muitas das abordagens de avaliação em uso hoje fazem contribuições verdadeiramente únicas para resolver problemas importantes, enquanto outras refinam as abordagens existentes de alguma forma.

Classificação das abordagens

Duas classificações de abordagens de avaliação de House [17] e Stufflebeam e Webster [18] podem ser combinadas em um número gerenciável de abordagens em termos de seus princípios subjacentes únicos e importantes. [ esclarecimentos necessários ]

House considera que todas as principais abordagens de avaliação se baseiam em uma ideologia comum intitulada democracia liberal . Princípios importantes dessa ideologia incluem a liberdade de escolha, a singularidade do indivíduo e a investigação empírica fundamentada na objetividade . Ele também afirma que todos eles são baseados na ética subjetivista , em que a conduta ética é baseada na experiência subjetiva ou intuitiva de um indivíduo ou grupo. Uma forma de ética subjetivista é a utilitária , na qual “ o bem ” é determinado pelo que maximiza uma interpretação única e explícita da felicidade para a sociedade como um todo. Outra forma de ética subjetivista éintuicionista / pluralista , em que nenhuma interpretação única do “bem” é assumida e tais interpretações não precisam ser explicitamente declaradas nem justificadas.

Essas posições éticas têm epistemologias correspondentes — filosofias para obter conhecimento . A epistemologia objetivista está associada à ética utilitarista; em geral, é usado para adquirir conhecimento que pode ser verificado externamente (acordo intersubjetivo) por meio de métodos e dados expostos publicamente. A epistemologia subjetivista está associada à ética intuicionista/pluralista e é utilizada para adquirir novos conhecimentos a partir de conhecimentos pessoais existentes, bem como experiências que estão (explícitas) ou não (tácitas) disponíveis para inspeção pública. House então divide cada abordagem epistemológica em duas perspectivas políticas principais. Em primeiro lugar, as abordagens podem assumir uma perspectiva de elite, com foco nos interesses de gestores e profissionais; ou também podem adotar uma perspectiva de massa, concentrando-se nos consumidores e nas abordagens participativas .

Stufflebeam e Webster colocam as abordagens em um dos três grupos, de acordo com sua orientação para o papel dos valores e da consideração ética. A orientação política promove uma visão positiva ou negativa de um objeto, independentemente de qual seja ou possa ser seu valor – eles chamam isso de pseudo-avaliação . A orientação das perguntas inclui abordagens que podem ou não fornecer respostas especificamente relacionadas ao valor de um objeto – eles chamam isso de quase - avaliação. A orientação de valores inclui abordagens destinadas principalmente a determinar o valor de um objeto - eles chamam isso de avaliação verdadeira.

Quando os conceitos acima são considerados simultaneamente, quinze abordagens de avaliação podem ser identificadas em termos de epistemologia, perspectiva principal (de House) e orientação. [18] Duas abordagens de pseudo-avaliação, politicamente controladas e estudos de relações públicas, estão representadas. Eles são baseados em uma epistemologia objetivista de uma perspectiva de elite. Seis abordagens de quase-avaliação usam uma epistemologia objetivista. Cinco deles — pesquisa experimental , sistemas de informações gerenciais , programas de teste, estudos baseados em objetivos e análise de conteúdo — adotam uma perspectiva de elite. A responsabilidade tem uma perspectiva de massa. Sete abordagens de avaliação verdadeiras estão incluídas. Duas abordagens, orientada para a decisão e políticaestudos, são baseados em uma epistemologia objetivista de uma perspectiva de elite. Os estudos orientados ao consumidor são baseados em uma epistemologia objetivista de uma perspectiva de massa. Duas abordagens – acreditação/certificação e estudos de conhecedores – são baseadas em uma epistemologia subjetivista de uma perspectiva de elite. Finalmente, os estudos do adversário e centrados no cliente são baseados em uma epistemologia subjetivista de uma perspectiva de massa.

Resumo das abordagens

A tabela a seguir é usada para resumir cada abordagem em termos de quatro atributos — organizador, propósito, pontos fortes e fracos. O organizador representa as principais considerações ou dicas que os profissionais usam para organizar um estudo. O objetivo representa o resultado desejado para um estudo em um nível muito geral. Os pontos fortes e fracos representam outros atributos que devem ser considerados ao decidir usar a abordagem para um estudo específico. A narrativa a seguir destaca as diferenças entre as abordagens agrupadas.

Resumo das abordagens para a realização de avaliações
Aproximação Atributo
Organizador Propósito Pontos fortes Principais fraquezas
Controlado politicamente Ameaças Obtenha, mantenha ou aumente a influência, poder ou dinheiro. Garanta evidências vantajosas para o cliente em um conflito. Viola o princípio da divulgação completa e franca.
Relações públicas Necessidades de propaganda Crie uma imagem pública positiva. Evidências seguras com maior probabilidade de reforçar o apoio público. Viola os princípios de relatórios equilibrados, conclusões justificadas e objetividade.
Pesquisa experimental Relações causais Determinar relações causais entre variáveis. Paradigma mais forte para determinar relações causais. Requer configuração controlada, limita a gama de evidências, concentra-se principalmente nos resultados.
Sistemas de Gerenciamento de Informação Eficiência científica Fornecer continuamente as evidências necessárias para financiar, dirigir e controlar programas. Fornece aos gerentes evidências detalhadas sobre programas complexos. As variáveis ​​de serviço humano raramente são receptivas às definições restritas e quantitativas necessárias.
Programas de teste Diferenças individuais Compare os resultados dos testes de indivíduos e grupos com as normas selecionadas. Produz evidências válidas e confiáveis ​​em muitas áreas de atuação. Muito familiar ao público. Os dados geralmente apenas sobre o desempenho do testado, enfatizam demais as habilidades de fazer o teste, podem ser uma amostra pobre do que é ensinado ou esperado.
Baseado em objetivos Objetivos Relaciona resultados com objetivos. O apelo do senso comum, amplamente utilizado, usa objetivos comportamentais e tecnologias de teste. Leva a evidências terminais muitas vezes estreitas demais para fornecer base para julgar o valor de um programa.
Análise de conteúdo Conteúdo de uma comunicação Descreva e tire conclusões sobre uma comunicação. Permite a análise discreta de grandes volumes de materiais simbólicos não estruturados. A amostra pode não ser representativa, mas esmagadora em volume. Projeto de análise muitas vezes excessivamente simplista para a questão.
Responsabilidade Expectativas de desempenho Fornecer aos constituintes uma contabilidade precisa dos resultados. Popular entre os eleitores. Visando a melhoria da qualidade dos produtos e serviços. Cria inquietação entre praticantes e consumidores. A política muitas vezes força estudos prematuros.
Orientado para a decisão Decisões Fornecer uma base de conhecimento e valor para tomar e defender decisões. Incentiva o uso da avaliação para planejar e implementar os programas necessários. Ajuda a justificar decisões sobre planos e ações. A colaboração necessária entre o avaliador e o tomador de decisão oferece a oportunidade de influenciar os resultados.
Estudos de política Problemas amplos Identifique e avalie os custos e benefícios potenciais de políticas concorrentes. Fornecer orientação geral para ações amplamente focadas. Frequentemente corrompido ou subvertido por ações politicamente motivadas dos participantes.
Orientado para o consumidor Necessidades e valores generalizados, efeitos Julgue os méritos relativos de bens e serviços alternativos. Avaliação independente para proteger profissionais e consumidores de produtos e serviços de má qualidade. Alta credibilidade pública. Pode não ajudar os praticantes a fazer um trabalho melhor. Requer avaliadores credíveis e competentes.
Acreditação / certificação Padrões e diretrizes Determinar se instituições, programas e pessoal devem ser aprovados para desempenhar funções específicas. Ajuda o público a tomar decisões informadas sobre a qualidade das organizações e as qualificações do pessoal. Padrões e diretrizes normalmente enfatizam critérios intrínsecos para a exclusão de medidas de resultados.
Conhecedor Orientações críticas Descreva, avalie e ilumine criticamente um objeto. Explora conhecimentos altamente desenvolvidos em assuntos de interesse. Pode inspirar outros a esforços mais perspicazes. Dependente de pequeno número de especialistas, tornando a avaliação suscetível à subjetividade, viés e corrupção.
Avaliação do adversário Problemas "quentes" Apresente os prós e contras de um problema. Garante apresentações equilibradas das perspectivas representadas. Pode desencorajar a cooperação, aumentar as animosidades.
Centrado no cliente Preocupações e problemas específicos Promover a compreensão das atividades e como elas são valorizadas em um determinado ambiente e de uma variedade de perspectivas. Os profissionais são ajudados a conduzir sua própria avaliação. Baixa credibilidade externa, suscetível a viés a favor dos participantes.
Observação. Adaptado e condensado principalmente de House (1978) e Stufflebeam & Webster (1980). [18]

Pseudo-avaliação

Os estudos politicamente controlados e de relações públicas são baseados em uma epistemologia objetivista de uma perspectiva de elite . [ esclarecimento necessário ] Embora ambas as abordagens procurem deturpar as interpretações de valor sobre um objeto, elas funcionam de forma diferente uma da outra. As informações obtidas por meio de estudos politicamente controlados são divulgadas ou retidas para atender aos interesses especiais do titular, enquanto as informações de relações públicas criam uma imagem positiva de um objeto, independentemente da situação real. Apesar da aplicação de ambos os estudos em cenários reais , nenhuma dessas abordagens é uma prática de avaliação aceitável.

Objetivista, elite, quase-avaliação

Como um grupo, essas cinco abordagens representam uma coleção altamente respeitada de abordagens de investigação disciplinada. Eles são considerados abordagens de quase-avaliação porque estudos particulares legitimamente podem se concentrar apenas em questões de conhecimento sem abordar questões de valor. Tais estudos são, por definição, não avaliações. Essas abordagens podem produzir caracterizações sem produzir avaliações, embora estudos específicos possam produzir ambas. Cada uma dessas abordagens serve bem ao propósito pretendido. Eles são discutidos grosseiramente na ordem em que se aproximam do ideal objetivista.

  • A pesquisa experimental é a melhor abordagem para determinar relações causais entre variáveis . O problema potencial de usar isso como uma abordagem de avaliação é que sua metodologia altamente controlada e estilizada pode não ser suficientemente responsiva às necessidades em mudança dinâmica da maioria dos programas de serviços humanos.
  • Os sistemas de informações gerenciais (MISs) podem fornecer informações detalhadas sobre as operações dinâmicas de programas complexos. No entanto, essas informações são restritas a dados prontamente quantificáveis , geralmente disponíveis em intervalos regulares.
  • Os programas de teste são familiares para praticamente qualquer pessoa que frequentou a escola, serviu nas forças armadas ou trabalhou para uma grande empresa. Esses programas são bons para comparar indivíduos ou grupos a normas selecionadas em várias áreas temáticas ou a um conjunto de padrões de desempenho. No entanto, eles se concentram apenas no desempenho do testado e podem não provar adequadamente o que é ensinado ou esperado.
  • As abordagens baseadas em objetivos relacionam os resultados aos objetivos pré-especificados, permitindo que sejam feitos julgamentos sobre seu nível de realização. Infelizmente, os objetivos geralmente não são importantes ou se concentram em resultados muito estreitos para fornecer a base para determinar o valor de um objeto.
  • A análise de conteúdo é uma abordagem de quase avaliação porque os julgamentos de análise de conteúdo não precisam ser baseados em declarações de valor. Em vez disso, eles podem ser baseados no conhecimento. Tais análises de conteúdo não são avaliações. Por outro lado, quando os julgamentos da análise de conteúdo são baseados em valores, tais estudos são avaliações.

Objetivista, massa, quase-avaliação

Objetivista, elite, avaliação verdadeira

  • Os estudos orientados à decisão são projetados para fornecer uma base de conhecimento para a tomada e defesa de decisões. Essa abordagem geralmente requer a estreita colaboração entre um avaliador e um tomador de decisão, permitindo que ele seja suscetível à corrupção e ao preconceito .
  • Os estudos de política fornecem orientação geral e direção sobre questões amplas, identificando e avaliando os custos e benefícios potenciais de políticas concorrentes. A desvantagem é que esses estudos podem ser corrompidos ou subvertidos pelas ações politicamente motivadas dos participantes.

Objetivista, massa, avaliação verdadeira

  • Estudos orientados ao consumidor são usados ​​para julgar os méritos relativos de bens e serviços com base em necessidades e valores generalizados, juntamente com uma ampla gama de efeitos. No entanto, esta abordagem não ajuda necessariamente os profissionais a melhorar o seu trabalho e requer um avaliador muito bom e credível para o fazer bem.

Subjetivista, elite, avaliação verdadeira

  • Os programas de acreditação / certificação são baseados em auto-estudo e revisão por pares de organizações, programas e pessoal. Eles se baseiam nos insights, experiência e conhecimento de indivíduos qualificados que usam diretrizes estabelecidas para determinar se o candidato deve ser aprovado para desempenhar funções específicas. No entanto, a menos que sejam usados ​​padrões baseados em desempenho, os atributos dos candidatos e os processos que eles executam geralmente são superenfatizados em relação às medidas de resultados ou efeitos.
  • Os estudos de conhecedores usam as habilidades altamente refinadas de indivíduos intimamente familiarizados com o assunto da avaliação para caracterizá-lo e avaliá-lo criticamente. Essa abordagem pode ajudar outras pessoas a ver os programas sob uma nova luz, mas é difícil encontrar um conhecedor qualificado e imparcial.

Assunto, massa, avaliação verdadeira

  • A abordagem do adversário concentra-se em extrair os prós e os contras de questões controversas por meio de procedimentos quase- legais . Isso ajuda a garantir uma apresentação equilibrada de diferentes perspectivas sobre as questões, mas também é provável que desencoraje a cooperação posterior e aumente as animosidades entre as partes concorrentes se surgirem "vencedores" e "perdedores".

Centrado no cliente

  • Os estudos centrados no cliente abordam preocupações e questões específicas de profissionais e outros clientes do estudo em um determinado cenário. Esses estudos ajudam as pessoas a entender as atividades e os valores envolvidos a partir de uma variedade de perspectivas. No entanto, essa abordagem responsiva pode levar a uma baixa credibilidade externa e um viés favorável para aqueles que participaram do estudo.

Métodos e técnicas

A avaliação é metodologicamente diversa. Os métodos podem ser qualitativos ou quantitativos e incluem estudos de caso , pesquisas de opinião , análises estatísticas , construção de modelos e muito mais, como:

Veja também

Referências

  1. Pessoal (1995–2012). "2. O que é avaliação?" . Centro Internacional de Políticas de Álcool - Análise. Equilíbrio. Parceria . Centro Internacional de Políticas de Álcool. Arquivado a partir do original em 2012-05-04 . Recuperado em 13 de maio de 2012 .
  2. Sarah del Tufo (13 de março de 2002). "O QUE é avaliação?" . Confiança de avaliação . A Confiança de Avaliação . Recuperado em 13 de maio de 2012 .
  3. ^ Michael Scriven (1967). "A metodologia da avaliação". Em Estaca, RE (ed.). Avaliação curricular . Chicago: Rand McNally. American Educational Research Association (série de monografias sobre avaliação, nº 1.
  4. ^ Ross, PH; Elipse, MW; Freeman, HE (2004). Avaliação: Uma abordagem sistemática (7ª ed.). Mil Carvalhos: Sálvia. ISBN 978-0-7619-0894-4.
  5. ^ a b c d e Reeve, J; Paperboy, D. (2007). "Avaliando a avaliação: Compreendendo a utilidade e as limitações da avaliação como ferramenta de aprendizagem organizacional". Revista Educação em Saúde . 66 (2): 120–131. doi : 10.1177/0017896907076750 .
  6. ^ a b c d Hurteau, M.; Houle, S.; Mongiat, S. (2009). "Quão Legítimos e Justificados são os Julgamentos na Avaliação do Programa?". Avaliação . 15 (3): 307–319. doi : 10.1177/1356389009105883 .
  7. ^ Pessoal (2011). "Propósito de Avaliação" . designshop – aulas de ensino eficaz . Tecnologias de Aprendizagem na Virginia Tech. Arquivado a partir do original em 30/05/2012 . Recuperado em 13 de maio de 2012 .
  8. ^ Alkin; Ellet (1990). não dado . pág. 454.
  9. ^ a b Potter, C. (2006). "Psicologia e a arte da avaliação do programa". Revista Sul-Africana de Psicologia . 36 (1): 82HGGFGYR-102. doi : 10.1177/008124630603600106 .
  10. ^ a b c d e f g h David Todd (2007). Diretrizes Éticas do Escritório de Avaliação GEF (PDF) . Washington, DC, Estados Unidos: Escritório de Avaliação do Fundo para o Meio Ambiente Global. Arquivado a partir do original (PDF) em 24/03/2012 . Recuperado 2011-11-20 .
  11. ^ Pessoal (2012). "Notícias e Eventos" . Comitê Conjunto de Padrões para Avaliação Educacional . Comitê Conjunto de Padrões para Avaliação Educacional. Arquivado a partir do original em 15 de outubro de 2009 . Recuperado em 13 de maio de 2012 .
  12. ^ Pessoal (julho de 2004). "PRINCÍPIOS DE ORIENTAÇÃO DA ASSOCIAÇÃO DE AVALIAÇÃO AMERICANA PARA AVALIADORES" . Associação Americana de Avaliação . Associação Americana de Avaliação. Arquivado a partir do original em 29 de abril de 2012 . Recuperado em 13 de maio de 2012 .
  13. ^ a b c Pessoal (2012). "UNEG Home" . Grupo de Avaliação das Nações Unidas . Grupo de Avaliação das Nações Unidas . Recuperado em 13 de maio de 2012 .
  14. ^ Instituto do Banco Mundial (2007). "Monitoramento e Avaliação para Avaliação de Resultados Ética O que esperar de seus avaliadores" (PDF) . Instituto do Banco Mundial . O Grupo Banco Mundial . Recuperado em 13 de maio de 2012 .
  15. ^ Pessoal. "Rede DAC sobre Avaliação do Desenvolvimento" . OCDE – Políticas melhores para vidas melhores . OCDE . Recuperado em 13 de maio de 2012 .
  16. ^ Pessoal. "Grupo de Cooperação em Avaliação" . Site do Grupo de Cooperação em Avaliação . ECG . Recuperado em 31 de maio de 2013 .
  17. ^ Casa, ER (1978). Premissas subjacentes aos modelos de avaliação. Pesquisador Educacional . 7(3), 4-12.
  18. ^ a b c Stufflebeam, DL, & Webster, WJ (1980). "Uma análise de abordagens alternativas para avaliação" . Avaliação Educacional e Análise de Políticas . 2(3), 5-19. OCLC 482457112 

Links externos