Nome: Euclídio Mário Nhampossa
Resumo da semana 09 a 14 de Setembro
Medidas de traços latentes
Geralmente em pesquisa conduzidas pelo método qualitativo e/ou quantitativo é
preciso analisar bem a adequação das variáveis, e no caso da pesquisa mista é preciso ter o
cuidado de verificar se os indicadores observáveis (que se relacionam, por meio de uma
teoria, ao constructo latente) podem ser representados em uma escala intervalar. Acreditamos
que lidamos, em primeira instância, com análises qualitativas, pois como coloca Gorard
(2002), “todos os métodos na pesquisa educacional lidam com qualidades, mesmo que sejam
contadas.
Tipos de medidas e traços latentes
Medidas fundamentais: são aquelas cujo fisicamente pode ser possível concatenar ou
harmonizar e que não dependem de outras para serem definidas, caso por exemplo do tempo,
da altura, do peso, dentro outras.
Medidas derivadas: são aquelas que dependem das relações entre as medidas
fundamentais, tais como por exemplo densidade=massa/volume, dentre outras.
Modelos de medidas de traços latentes
Modelo Luce e Tukey (1964): o modelo considerado mais adequado para medições
psicométricas, proposta que abre caminho para detenção de estruturas de mediação em
âmbitos nãofísicos, portanto, com esta estrutura já é possível analisar as variáveis podendo as
organizar por exemplo do menos ao mais importante, do menos ao mais fácil, com o
propósito de buscar padrões de relações entre as células de uma matriz de dados.
Modelo Racsh (1969): este modelo diz que uma pessoa com maior capacidade do que
outra pessoa deve ter maior probabilidade de resolver qualquer item do tipo em questão e, da
mesma forma, sendo um item mais difícil do que outro significa que, para qualquer pessoa, a
probabilidade de resolver o segundo item é maior. A principal característica deste modelo A
probabilidade de sucesso depende da diferença entre a capacidade da pessoa e a dificuldade
do item.
Teoria de resposta ao item (TRI): responsável dos traços latentes, e adopta dois
axiomas fundamentais:
1. Axioma 1: O desempenho do sujeito numa tarefa (item do teste) se explica em função
de um conjunto de factores ou traços latentes (aptidões, habilidades etc.). O
desempenho é o efeito e os traços latentes são a causa.
2. Axioma 2: A relação entre o desempenho na tarefa e o conjunto dos traços latentes
pode ser descrita por uma equação monotónica crescente, chamada de CCI (Função
Característica do Item ou Curva Característica do Item) e exemplificada na Figura 2,
onde se observa que sujeitos com aptidão maior terão maior probabilidade de
responder correctamente ao item e vice-versa (θi é a aptidão e Pi (θ) a probabilidade
de resposta correta dada ao item).
Teoria clássica dos testes (TCT): consiste em elaborar estratégias (estatísticas) para
controlar ou avaliar a magnitude do erro (E). Os erros são devidos a toda uma gama de
factores estranhos, tais como defeitos do próprio teste, estereótipos e vieses do sujeito,
factores históricos e ambientais aleatórios.
O modelo da teoria clássica dos testes TCT foi elaborado por Spearman e detalhado
por Gulliksen, o modelo é o seguinte:
Onde:
T é o escorre total, ou seja, escore bruto ou empírico do sujeito, que é a soma dos
pontos obtidos no teste.
V é escore verdadeiro, que seria a magnitude real daquilo que o teste quer medir no
sujeito e que seria o próprio T se não houvesse o erro de medida.
E é o erro cometido nesta medida
Diferença entre TRI e TCT
A TCT se preocupa em explicar o resultado final total, isto é, a soma das respostas
dadas a uma série de itens, expressa no chamado escore total (T). Por outro lado, a TRI se
interessa especificamente por cada um dos itens e quer saber qual é a probabilidade e quais
são os factores que afectam esta probabilidade de cada item individualmente ser acertado ou
errado (em testes de aptidão) ou de ser aceito ou rejeitado (em testes de preferência:
personalidade, interesses, atitudes). Dessa forma, a TCT tem interesse em produzir testes de
qualidade, enquanto a TRI se interessa por produzir tarefas (itens) de qualidade. No final,
temos ou testes válidos (TCT) ou itens válidos (TRI), itens com os quais se poderão construir
tantos testes válidos quantos se quiser ou o número de itens permitir.
Os parâmetros dos testes: validade e precisão
Validade dos testes
A validade diz respeito ao aspecto da medida ser congruente com a propriedade
medida dos objectos e não com a exactidão com que a mensuração, que descreve esta
propriedade do objecto, é feita.
Processo de validação de um teste: inicia com a formulação de definições detalhadas
do traço ou constructo, derivadas da teoria psicológica, pesquisa anterior, ou observação
sistemática e análises do domínio relevante do comportamento. Os itens do teste são então
preparados para se adequarem às definições do constructo. Análises empíricas dos itens
seguem, seleccionando-se finalmente os itens mais eficazes (i.é., válidos) da amostra inicial
de itens.
Técnicas de validação
Validade de constructo;
Validade de critério;
Validade do conteúdo;
Precisão dos testes
A fidedignidade ou a precisão de um teste diz respeito à característica que ele deve
possuir, a de saber, a de medir sem erros, donde os nomes precisão, confiabilidade ou
fidedignidade. Medir sem erros significa que o mesmo teste, medindo os mesmos sujeitos em
ocasiões diferentes, ou testes equivalentes, medindo os mesmos sujeitos na mesma ocasião,
produzem resultados idênticos, isto é, a correlação entre estas duas medidas deve ser de 1. A
análise da precisão de um instrumento psicológico quer mostrar precisamente o quanto ele se
afasta do ideal da correlação 1, determinando um coeficiente que, quanto mais próximo de 1,
menos erro o teste comete ao ser utilizado.
Na TCT o coeficiente de fidedignidade, tt r , é definido estatisticamente como a
correlação entre os escores dos mesmos sujeitos em duas formas paralelas de um teste, T1 e
T2. Assim o coeficiente de fidedignidade se define como função da co-variância [Cov(T1,T2)]
entre as formas do teste pelas variâncias das mesmas, isto é,
Onde:
rtt : coeficiente de fidedignidade;
: Variância verdadeira do teste
ST : Variância total do teste.
Técnicas estatísticas para decidir a precisão
Correlação: Usada no caso do teste e re-teste e das formas paralelas de um teste. Aqui
os sujeitos são submetidos ao mesmo teste em duas ocasiões diferentes ou respondendo a duas
formas paralelas do mesmo teste.
Análise da consistência interna: um conjunto de técnicas estatísticas, que se reduzem
a duas situações:
Divisão do teste em parcelas: comumente em feita em duas metades, com a
subsequente correcção pela fórmula de predição de Spearman-Brown e;
Várias técnicas do coeficiente alfa, sendo o mais conhecido o alfa de Cronbach.
Validade e confiabilidade dos instrumentos de colecta de dados
Validade
A validade num estudo científico refere-se ao grau em que um instrumento pode medir
a variável que pretende medir ou seja, a condição pela qual um instrumento pode produzir o
efeito esperado, portanto, ao elaborar o instrumento de produção de dados é importante ter
certeza de que ele produzira efeitos desejados ou seja irá realmente medir aquilo que se deseja
para lograr os objectivos do estudo.
Critérios específicos de validade em pesquisas qualitativas
Credibilidade;
Autenticidade;
Crítica;
Integridade;
Clareza;
Vivacidade;
Criatividade;
Profundidade;
Congruência;
Sensitividade.
Técnicas utilizadas para verificar a validade em estudos qualitativos
Considerações de design
Geração dos dados
Análise
Apresentação
Erro de medição
O erro sistemático é o mais problemático uma vez que o seu controlo pode ser um
pouco difícil e está relacionado as limitações humanas, físicas e dos instrumentos, podendo
afectar fortemente a validade e utilidade dos testes e ou das análises de dados. Este erro ocorre
tanto em pesquisas qualitativas quanto em quantitativas e pode ser corrigido voltando
novamente ao campo, colhendo novamente os dados, preparando os instrumentos de colecta
de dados com rigorosidade, fazendo analises minuciosas dos dados, caso de opiniões, nãos se
parecer que forma influenciadas pelo pesquisador, dentre outras formas correctivas.
O erro aleatório é um erro controlável, advém da disparidade entre os dados reais e os
observados. Afectam directamente a confiabilidade de uma medida, mas pode ser corrigida
tecnicamente, minimizando o desvio (desvio padrão) entre o valor observado e o real.
Geralmente os erros alectórios caracteriza-se por uma variável aleatória de média zero e uma
variância 2 e os seus valores não correlacionar um com o outro.
Confiabilidade
A confiabilidade de um estudo científico refere-se ao grau de fidelidade de que seus
resultados se aproximam ou relacionam as informações reais. A confiabilidade nas pesquisas
qualitativas pressupõe a consistência nas articulações das dimensões teóricas, metodológicas e
epistemológicas do estudo de modo que se possa captar, compreender e interpretar a realidade
social, pois, esta abordagem de pesquisa está intimamente ligada as questões antropológicas e
sociológicas enquanto que nas abordagens quantitativas, a confiabilidade esta ligada a
questões de replicação e generalização.
Confiabilidade nas pesquisas quantitativas
A confiabilidade nas pesquisas quantitativas está intimamente ligada a questão de
replicação de generalização dos resultados, pois, entende-se que em experimentos de mesma
natureza aplicando-se mesmos instrumentos, os resultados devem ser iguais ou muito
parecidos, portanto, falar de confiabilidade nas pesquisas quantitativas referimo-nos à
consistência ou estabilidade de uma medida, que deve garantir a mínima distancia entre os
dados colhidos e o verdadeiro valor da população. Assim, para garantir a confiabilidade
podem ser utilizadas as seguintes medidas:
Desvio padrão: refere-se a distância entre o valor observado e o verdadeiro valor;
Re-teste: refere-se a uma técnica usada para conferir a confiabilidade quando o
instrumento é aplicado duas vezes para um mesmo grupo de indivíduos e em período
de tempo;
Formas equivalente: é uma técnica usada para conferir a confiabilidade de um
instrumento, porém, aplica-se duas ou mais versões de instrumentos similares aos
mesmos indivíduos, dentro de um espaço de tempo curto;
Metades partidas (split-half): é uma técnica apropriada quando o instrumento é
aplicado uma vez, porém, o instrumento deve ser elaborado de maneiras que seja
constituído de pares de questões com mesmo nível de entendimento, característica e
dificuldade;
Confiabilidade a partir de avaliadores: uma técnica usada quando dois avaliadores
aplicam o mesmo instrumento;
Coeficiente alfa de Cronbach: uma técnica usada quando aplicação do instrumento é
única. Os parâmetros do coeficiente variam de 0 a 100%, devendo o instrumento
mostra-se confiável se o coeficiente for superior a 70%;
Coeficiente Kuder-Richardson (KR-20): técnica usada quando a aplicação do
instrumento é única, porém, as respostas devem ser dicotómicas.
Confiabilidade nas pesquisas qualitativas
Descrição detalhada da profundidade das situações delimitadas, do recorte espaço
temporal de realização do estudo, bem como evidenciar as categorias de análises em
discussão;
Tempo de permanência no campo deve ser suficiente de modo que se possa capturar
as dinâmicas sociais de forma longitudinal e transversal;
Saturação teórica, permitindo óptimas articulações teóricas;
Triangulação dos dados, permitindo a utilização de diferentes estratégias de coleta e de
análise de dados;
Reprodução e avaliação das análises, permitindo a divulgação e avaliação das análises
entre os pares;
Transparência no que tange a descrição detalhada de todos os procedimentos
utilizados na pesquisa empírica e na construção teórica;
Limitação da pesquisa;
Coerência entre os dados empíricos e a teoria que está sendo construída;
Exploração dos significados e dos fenómenos relacionados ao campo onde o estudo é
conduzido;
Reflexividade, o que permite a articulação das proposições de estudos à realidade
social onde o mesmo é conduzido.