Notas de estudo sobre o teste qui-quadrado

Este artigo fornece uma nota de estudo sobre o teste do qui-quadrado.

O teste X 2 (letra grega X 2 Pronunciada como Ki-quadrado) é um método de avaliar se as freqüências que foram empiricamente observadas diferem significativamente daquelas que seriam esperadas sob um certo conjunto de suposições teóricas. Por exemplo, suponha que a preferência política e o local de residência ou natividade tenham sido cruzados e os dados resumidos na seguinte tabela de contingência 2 × 3.

Vê-se na tabela que as proporções de pessoas urbanas são 38/48 = 0, 79, 20/46 = 0, 34 e 12/18 = 0, 67 (arredondadas a duas casas decimais) para os três partidos políticos do país. Então, queremos saber se essas diferenças são estatisticamente significativas.

Para tanto, podemos propor uma hipótese nula que pressupõe que não há diferenças entre os três partidos políticos em relação ao natividade. Isto significa que as proporções de pessoas urbanas e rurais devem ser as mesmas para cada um dos três partidos políticos.

Com base no pressuposto de que a hipótese nula está correta, podemos calcular um conjunto de frequências que seriam esperadas, dados esses totais marginais. Em outras palavras, podemos calcular o número de pessoas que mostram preferência pelo Partido do Congresso, que esperamos com base na suposição acima, ser urbanas e comparar esse número com o realmente observado.

Se a hipótese nula for verdadeira, podemos calcular uma proporção comum como:

38 + 20 + 12/48 + 46 + 18 = 70/112 = 0, 625

Com essa proporção estimada, esperamos que 48 x (0, 625) = 30 pessoas filiadas ao Congresso, 46 x (0, 625) = 28, 75 pessoas afiliadas ao Partido Janata e 18 x (0, 625) = 11, 25 pessoas afiliadas a Lok Dal dentre as 70 urbanites. Subtraindo estas figuras das figuras observadas respectivas dos tamanhos respectivos das três amostras, encontramos 48 - 30 = 18 afiliado ao Congresso, 46 ​​- 28.75 = 17.25 afiliado a Janata e 18 - 11.25 = 6.25 pessoas afiliadas a Lok Dal de 42 pessoas das áreas rurais.

Estes resultados são mostrados na tabela a seguir, onde as freqüências esperadas são. mostrado entre parênteses.

Para testar a tenacidade da hipótese nula, comparamos as freqüências esperadas e observadas. A comparação é baseada na seguinte estatística X 2 .

X 2 = Σ (O-E) 2 / E

onde O significa frequências observadas e E para as frequências esperadas.

Graus de Liberdade :

O número de graus de liberdade significa o número de restrições independentes impostas a nós em uma tabela de contingência.

O exemplo a seguir ilustrará o conceito:

Vamos supor que os dois atributos A e B sejam independentes, nesse caso, o

freqüência esperada ou a célula AB seria 40 × 30/60 = 20. Uma vez que isso é identificado, as freqüências das três células restantes são automaticamente fixadas. Assim, para célula, αB a freqüência esperada deve ser 40 - 20 = 20, similarmente, para a célula AB ela deve ser 30 - 20 = 10 e para αB ela deve ser 10.

Isso significa que, para a tabela 2 × 2, temos apenas uma opção, enquanto não temos liberdade nas três células restantes. Assim, os graus de liberdade (df) podem ser calculados pela fórmula:

df - (c - 1) (r - 1)

onde df representa os graus de liberdade, c para o número de colunas er para o número de linhas.

Assim, na tabela 2 x 3 (Tabela 18.54)

df = (3 - 1) (2 - 1) = 2 x 1 = 2

Nível de significância :

Como afirmado anteriormente, o teste do qui-quadrado é usado para examinar se a diferença entre frequências observadas e esperadas é devida às flutuações amostrais e, portanto, insignificante ou contrária, se a diferença é devida a algum outro motivo e como tal significativo.

Antes de inferir que a diferença é significativa, os pesquisadores estabelecem uma hipótese, muitas vezes referida como uma hipótese nula (simbolizada por H o ), em contraste com a hipótese de pesquisa (H 1 ) que é configurada como uma alternativa para H o .

Geralmente, embora nem sempre, a hipótese nula afirma que não há diferença entre vários grupos ou nenhuma relação entre variáveis, enquanto uma hipótese de pesquisa pode prever uma relação positiva ou negativa.

Em outras palavras, a hipótese nula assume que há ausência de erros não amostrais e a diferença é devida apenas ao acaso. Então a probabilidade da ocorrência de tal diferença é determinada.

A probabilidade indica a extensão da confiança que podemos colocar na inferência desenhada. Os valores da tabela do qui-quadrado estão disponíveis em vários níveis de probabilidade. Esses níveis são chamados níveis de significância. Podemos descobrir da tabela os valores do qui-quadrado em certos níveis de significância.

Geralmente (no problema das ciências sociais), o valor do qui-quadrado a 0, 05 ou 0, 01 níveis de significância dos graus de liberdade determinados é visto da tabela e é comparado com o valor observado do qui-quadrado. Se o valor observado ou y 1 for maior que o valor da tabela em 0, 05, isso significa que a diferença é significativa.

Grau de Liberdade :

Para usar o teste do qui-quadrado, o próximo passo é calcular os graus de liberdade: suponha que tenhamos uma tabela de contingência de 2 x 2 como a da figura 1.

Sabemos que a linha e a coluna totalizam rt 1 e rt 2 - e c t 1 e c t 2 . O número de graus de liberdade pode ser definido como o número de valores de células que podemos especificar livremente.

Na Fig. 1, uma vez que especificamos o único valor da Linha 1 (indicado por check na figura), o segundo valor nessa linha e os valores da segunda linha (denotados por X) já estão determinados; nós não somos livres para especificá-los porque sabemos os totais das linhas e os totais das colunas. Isso mostra que em uma tabela de contingência 2 x 2 estamos livres para especificar apenas um valor.

Procedimento :

Computação para Qui-quadrado:

Qui-quadrado como um teste de bondade:

Na seção anterior, usamos o qui-quadrado como teste de independência; é aceitar ou rejeitar uma hipótese nula. Os testes x também podem ser usados ​​para decidir se existe uma diferença significativa entre uma distribuição de frequência observada e uma distribuição de frequência teórica.

Desta forma, podemos determinar quão bom é o ajuste das frequências observadas e esperadas. Ou seja, o ajuste seria considerado bom se não houvesse divergência significativa entre os dados observados e esperados quando a curva das freqüências observadas fosse sobreposta à curva das freqüências esperadas.

Devemos lembrar, no entanto, que mesmo que as proporções nas células permaneçam inalteradas, o valor do qui-quadrado varia diretamente com o número total de casos (N). Se dobrarmos o número de casos, o valor do qui-quadrado será duplicado; se triplicarmos o número de casos, também triplicamos o qui-quadrado e assim por diante.

As implicações deste fato podem ser ilustradas por um exemplo dado abaixo:

No presente exemplo, o valor do qui-quadrado é 3, 15. Com base nisso, naturalmente inferiríamos que o relacionamento não é significativo.

Agora, suponha que os dados foram coletados em 500 casos com os seguintes resultados:

O valor do qui-quadrado, calculado a partir das figuras, é agora 6, 30, que é o dobro do valor obtido no exemplo anterior. O valor 6, 30 é estatisticamente significativo. Se tivéssemos expressado os resultados em termos de porcentagens, não haveria diferença na interpretação.

Os exemplos acima ilustram um ponto muito importante, isto é, que o qui-quadrado é diretamente proporcional a N. Portanto, precisaríamos de uma medida que não fosse afetada apenas por uma mudança no número de casos. A medida phi (ǿ) fornece essa facilidade, isto é, a propriedade que desejamos em nossa medida. Essa medida é simplesmente uma razão entre o valor do qui-quadrado e o total numérico dos casos estudados.

A medida phi (ø) é definida como:

Ø = √x 2 / n

isto é, a raiz quadrada do qui-quadrado dividido pelo número de casos.

Assim, aplicando esta fórmula aos dois exemplos citados acima, obtemos, no primeiro caso:

Assim, a medida ø ao contrário do qui-quadrado, dá o mesmo resultado quando as proporções nas células comparáveis ​​são idênticas.

G. Udny Yule propôs ainda outro coeficiente de associação usualmente designado como “Q” (mais conhecido como Yule's Q), que mede a associação em? x 2 mesa. O coeficiente de associação (Q) é obtido calculando-se a razão entre a diferença e a soma dos produtos cruzados das células diagonais, se as células da tabela 2 × 2 forem designadas como na seguinte tabela:

acbc / ad + be

onde a, b, c e d referem-se às freqüências de célula.

O coeficiente de associação Q varia entre menos um e mais um (+1), uma vez que é menor ou maior que o anúncio. Q atinge seus limites de +1 sempre que qualquer uma das células é zero, isto é, a associação está completa (a correlação é perfeita). Q é zero quando as variáveis ​​são independentes (ou seja, quando não há associação), ou seja, quando ad. = ser e. Q = 0

A aplicação da fórmula acima é ilustrada no seguinte exemplo:

Vamos calcular o coeficiente de associação de Yule entre estado civil e desempenho em exame com base nos dados apresentados na tabela a seguir:

Substituindo os valores acima na fórmula do Yule:

Assim, há uma ligeira associação negativa entre estado civil e desempenho no exame.

Podemos olhar para o problema de outro ponto de vista também.

A porcentagem de alunos casados ​​que falharam é = 60 × 100/150 = 40.

A percentagem de estudantes não casados ​​que falharam é = 100 × 100/350 = 28, 57 (Aprox.)

Assim, 40% dos estudantes casados ​​e quase 29% dos estudantes solteiros falharam no exame. Portanto, o baixo desempenho dos estudantes pode ser atribuído ao estado civil.

As inferências causais podem ser estabelecidas de maneira muito segura em situações experimentais. Consideramos esse problema ao lidar com projetos experimentais. Nas ciências sociais, é muito difícil criar um experimento, então a maioria dos estudos não é experimental. Procedimentos analíticos, no entanto, foram concebidos para inferir sobre relações causais em estudos não experimentais.

Na medida em que a maioria das pesquisas sociais envolve um estudo das amostras retiradas da "população" e procura desenhar generalizações para essa "população", é necessário, no interesse da ciência, saber até que ponto as generalizações assim tiradas são justificado.

Suponha que, em um estudo com amostras de estudantes do sexo masculino e feminino, nossos resultados mostram diferenças significativas entre as duas amostras em termos do número de horas dedicadas aos estudos.

Podemos perguntar se as diferenças observadas refletem as verdadeiras diferenças entre os estudantes masculinos e femininos ou se as duas 'populações' de estudantes são de fato semelhantes em termos das horas que dedicam aos estudos, mas as amostras extraídas dessas 'populações' para o estudo pode ter diferido até este ponto por 'chance'.

Diversos procedimentos estatísticos foram elaborados para nos permitir responder a essa pergunta em termos das declarações de probabilidade.

Quando comparamos amostras ou estudamos a diferença entre grupos experimentais e de controle, normalmente desejamos testar algumas hipóteses sobre a natureza da verdadeira diferença entre as 'populações' supostamente representadas pelas amostras em estudo.

Nas ciências sociais, geralmente estamos preocupados com hipóteses relativamente cruas (por exemplo, as alunas dedicam mais tempo aos estudos do que os alunos do sexo masculino).

Normalmente não estamos em posição de considerar hipóteses mais específicas ou exatas (por exemplo, que especificam em termos exatos a diferença entre as duas 'populações'). Suponha que nossos dados mostrem que a amostra de alunas dedica uma média de quatro horas aos estudos, enquanto a amostra de alunos do sexo masculino, apenas duas horas.

Claramente, as descobertas de nossas amostras estão em sintonia com a hipótese, ou seja, estudantes do sexo feminino dedicam mais tempo aos seus estudos do que suas contrapartes masculinas. Mas devemos constantemente ter em mente a possibilidade de que os achados baseados em nossas amostras podem não ser exatamente os mesmos que os achados que poderíamos ter obtido se tivéssemos estudado duas 'populações' no total.

Agora, queremos estimar se ainda teríamos observado mais tempo gasto em estudos entre as alunas, se tivéssemos estudado a 'população total'. Tal estimativa é possível se testarmos a 'hipótese nula'.

A 'hipótese nula' afirma que as 'populações' não diferem em termos de características em estudo. Neste caso, uma 'hipótese nula' declararia que na maior 'população' de estudantes como um todo, os subgrupos dos estudantes do sexo feminino e masculino não diferem em relação ao tempo que dedicam aos seus estudos.

Várias técnicas estatísticas, chamadas de testes de significância, foram concebidas para nos ajudar a estimar a probabilidade de que nossas duas amostras possam ter diferido na medida em que ocorrem, por acaso, mesmo que não haja diferença entre as duas "populações" correspondentes e alunas em relação ao tempo dedicado aos estudos.

Entre os vários métodos de teste de significância, a decisão sobre qual método será apropriado para um estudo específico depende da natureza das medidas usadas e da distribuição das características (por exemplo, horas de estudo, número de filhos, expectativas salariais, etc.). ).

A maioria desses testes de significância assume que as medidas constituem escala de intervalo e que a distribuição da característica se aproxima de uma curva normal. Na pesquisa social, essas suposições raramente correspondem à realidade. Desenvolvimentos estatísticos recentes, no entanto, surgem com algum tipo de solução para isso, na forma de testes não-paramétricos que não se baseiam nessas suposições.

Devemos tentar entender, neste ponto, a razão pela qual a "hipótese nula" deve ser testada quando nosso interesse real é testar uma hipótese (hipótese alternativa, como é chamada) que afirma que há uma diferença entre as duas "populações". representado pelas amostras.

O motivo é fácil de apreciar. Uma vez que não conhecemos a verdadeira imagem na 'população', o melhor que podemos fazer é fazer inferências sobre isso com base em nossa descoberta de amostras.

Se estamos comparando duas amostras, há, claro, duas possibilidades:

(1) As populações representadas pela amostra são iguais ou

(2) Eles são diferentes.

Nossas amostras de duas 'populações' são diferentes em relação a alguns atributos; horas dedicadas aos estudos em nosso exemplo. Claramente, isso pode acontecer se as duas “populações” representadas pelas amostras diferirem, de fato, em relação ao referido atributo.

Isso, no entanto, não constitui uma evidência definitiva de que essas "populações" diferem, já que há sempre a possibilidade de as amostras não corresponderem exatamente às "populações" que pretendem representar.

Devemos, portanto, dar espaço para a possibilidade de que o elemento da probabilidade, que está envolvido na selecção de uma amostra, possa ter-nos dado amostras que diferem umas das outras, embora as duas "populações" das quais são extraídas não diferem de facto.

A questão que podemos querer perguntar, portanto, é:

"Poderíamos ter tido amostras diferentes umas das outras na medida em que o fazem, mesmo que as 'populações' das quais são extraídas não sejam diferentes?" Esta é precisamente a questão a que uma "hipótese nula" responde.

A "hipótese nula" ajuda-nos a estimar quais são as chances de que as duas amostras sejam diferentes em relação a essa extensão que teriam sido tiradas de duas "populações" que são de fato semelhantes: 5 em 100? 1 em 100? como queiras.

Se o teste estatístico de significância sugere que é improvável que duas amostras diferentes dessa extensão possam ter sido tiradas de 'populações' que são de fato semelhantes, podemos concluir que as duas 'populações' provavelmente diferem umas das outras.

Um ponto a ter em mente aqui é que todos os testes estatísticos de significância e, portanto, todas as generalizações das amostras para as populações baseiam-se na suposição de que as amostras não são selecionadas de maneira que o viés pudesse ter entrado no processo de coleta das amostras.

Em outras palavras, a suposição é que a amostra que nós selecionamos foi desenhada de tal maneira que todos os casos ou itens na 'população' tenham uma chance igual ou especificável de serem incluídos na amostra.

Se esta suposição não for justificada, os testes de significância tornam-se sem sentido e inaplicáveis. Em outras palavras, os testes de significância se aplicam somente quando o princípio de probabilidade foi empregado na seleção da amostra.

Voltando à nossa ilustração, suponha que nossos achados não mostram nenhuma diferença entre as duas amostras: o que significa que tanto os estudantes masculinos quanto femininos em nossa amostra deduzem tempo igual aos seus estudos.

Podemos então dizer que as duas “populações” de estudantes masculinos e femininos são semelhantes em termos desse atributo? Naturalmente, não podemos afirmar isso com alguma certeza, uma vez que existe a possibilidade de as amostras serem semelhantes quando as populações realmente diferem.

Mas, voltando ao caso em que as duas amostras diferem, podemos afirmar que as duas populações que elas representam provavelmente diferem se pudermos rejeitar a 'hipótese nula'; isto é, se pudermos mostrar que é improvável que a diferença entre as duas amostras apareça se as 'populações' acima não forem diferentes.

Mas, novamente, há alguma chance de estarmos errados em rejeitar a "hipótese nula", já que é da natureza da probabilidade que eventos altamente improváveis ​​às vezes possam ocorrer.

Há outro lado também. Assim como podemos estar errados em rejeitar a "hipótese nula", também é provável que estejamos errados em aceitar a "hipótese nula". Ou seja, mesmo que nosso teste estatístico de significância indique que as diferenças amostrais podem facilmente ter surgido por acaso, embora as "populações" sejam semelhantes, pode ser verdade que as "populações" diferem de fato.

Em outras palavras, sempre nos deparamos com o risco de fazer qualquer um dos dois tipos de erro:

(1) Podemos rejeitar a 'hipótese nula' quando, de fato, é verdade,

(2) Podemos aceitar a 'hipótese nula' quando na verdade é falsa.

O primeiro tipo de erro, podemos chamar o erro Tipo I. Isso consiste em inferir que as duas "populações" diferem quando, na verdade, são semelhantes.

O segundo tipo de erro pode ser chamado de erro do tipo II. Isso consiste em inferir que as duas "populações" são semelhantes quando, na verdade, diferem.

O risco de fazer o erro Tipo I é determinado pelo nível de significância que estamos preparados para aceitar em nossos testes estatísticos, por exemplo, 0, 05, 0, 01, 0, 001, etc. (ou seja, 5 em 100, 1 em 100 e 1 em 1000). Assim, se decidirmos, por exemplo, que as populações realmente diferem sempre que um teste de significância mostra que a diferença entre as duas amostras deveria ocorrer por acaso, não mais que 5 vezes em 100.

Isso significa que se as duas 'populações' representadas pela amostra fossem de fato semelhantes (em termos de um determinado atributo), então estamos aceitando 5 chances em 100 de que estaremos errados em rejeitar a 'hipótese nula'. Podemos, é claro, minimizar o risco de cometer erro do Tipo I, fazendo nosso critério para rejeitar a hipótese nula, mais rigorosa e rígida.

Podemos, por exemplo, decidir o nível de significância de 0, 01, ou seja, rejeitaríamos a 'hipótese nula' apenas se o teste mostrasse que a diferença nas duas 'amostras' poderia ter aparecido por acaso apenas uma vez em cem.

Em essência, o que estamos dizendo é que rejeitaremos a 'hipótese nula' se o teste mostrar que dentre cem amostras de um tamanho designado selecionado a partir das respectivas 'populações' empregando o princípio da probabilidade, apenas uma amostra mostrará diferença em termos dos atributos, na medida em que isso é visto nas duas amostras em estudo.

O critério para rejeitar a "hipótese nula" pode ser ainda mais rigoroso elevando ainda mais o nível de significância. Mas a dificuldade aqui é que os erros do Tipo I e do Tipo II são tão relacionados entre si que, quanto mais nos protegemos contra um erro do Tipo I, mais vulneráveis ​​ficamos para cometer um erro do Tipo II.

Tendo determinado a extensão do risco de erro do tipo I que estamos dispostos a executar, a única maneira de reduzir a possibilidade de erro do Tipo II é tomar amostras maiores e usar testes estatísticos que façam o uso máximo da informação relevante disponível.

A situação em relação ao erro do Tipo II pode ser ilustrada de maneira muito precisa por meio de uma “curva característica de abertura”. O comportamento dessa curva depende do tamanho da amostra. Quanto maior a amostra, menos provável é que aceitemos uma hipótese que sugere um estado de coisas extremamente distante do estado da realidade.

Na medida em que a relação entre os erros Tipo I e Tipo II é inversa, é necessário encontrar um equilíbrio razoável entre os dois tipos de risco.

Nas ciências sociais, quase se tornou uma prática ou convenção estabelecida rejeitar a 'hipótese nula' quando o teste indica que a diferença entre as amostras não ocorreria por acaso mais de 5 vezes em 100. Mas as convenções são úteis quando há Não é outro guia razoável.

A decisão de como o equilíbrio entre os dois tipos de erro deve ser atingido deve ser tomada pelo pesquisador. Em alguns casos, é mais importante ter certeza de rejeitar uma hipótese quando ela é falsa do que falhar em aceitá-la quando for verdadeira. Em outros casos, o inverso pode ser verdadeiro.

Por exemplo, em alguns países, considera-se mais importante rejeitar uma hipótese de culpa quando ela é falsa do que não aceitar essa hipótese quando ela é verdadeira, ou seja, uma pessoa é considerada inocente desde que haja uma dúvida razoável. sobre sua culpa. Em alguns outros países, uma pessoa acusada de um crime é considerada culpada até o momento em que demonstrou sua falta de culpa.

Em muitas pesquisas, é claro, não existe uma base clara para decidir se um erro do Tipo I ou do Tipo II seria mais dispendioso e, portanto, o investigador faz uso do nível convencional na determinação da significância estatística. Mas, pode haver alguns estudos em que um tipo de erro seria claramente mais caro e prejudicial do que o outro.

Suponha que, em uma organização, tenha sido sugerido que um novo método de divisão do trabalho seria mais eficaz e suponha também que esse método exigiria muitas despesas.

Se um experimento constituído de dois grupos de pessoal - um operando como grupo experimental e outro, como grupo de controle - é montado para testar se o novo método é realmente benéfico para os objetivos organizacionais e se é previsto que o novo método implicaria muitas despesas, a organização não desejaria adotá-la a menos que houvesse garantia considerável de sua superioridade.

Em outras palavras, seria caro fazer um erro Tipo 1, isto é, concluir que o novo método é melhor quando não é verdade.

Se o novo método implicasse despesas que eram mais ou menos idênticas às do método antigo, então o erro do tipo II seria indesejável e mais prejudicial, uma vez que pode levar à falha da administração em adotar o novo método quando ele é de fato superior e como tal, tem benefícios de longo alcance em estoque para a organização.

Qualquer generalização da amostra para a "população" é simplesmente uma declaração de probabilidade estatística. Digamos que decidimos trabalhar com um nível de significância de 0, 05. Isso significa que rejeitaremos a 'hipótese nula' somente se a diferença amostral da magnitude que observamos pudermos ocorrer por acaso não mais que 5 vezes em 100.

É claro que aceitaremos a 'hipótese nula' se for possível esperar que essa diferença ocorra por acaso em mais de 5 vezes de 100. Agora, a pergunta é: nossa descoberta representa uma daquelas 5 vezes em que tal diferença pode ter ocorrido? apareceu por acaso?

Esta questão não pode ser respondida definitivamente com base em uma descoberta isolada. Pode, no entanto, ser possível para nós dizer algo sobre isso quando examinamos os padrões dentro de nossas descobertas.

Suponha que estamos interessados ​​em testar os efeitos de um filme sobre as atitudes em relação a um determinado programa governamental, digamos, planejamento familiar. Temos, digamos, tomado cuidado para manter as condições desejadas para a experimentação no máximo.

Agora, suponha que usemos como uma medida de atitudes em relação ao programa, apenas um item, a atitude em relação ao espaçamento de crianças e descubra que aqueles que viram o filme são mais favoráveis ​​a essa questão do que aqueles que não viram o filme.

Agora, suponha que o teste estatístico mostre que a diferença não teria aparecido por acaso devido a flutuações amostrais aleatórias mais de uma vez em vinte. Logicamente, isso também significa que pode ter aparecido por acaso uma vez em vinte (ou 5 vezes em 100). Como já apontamos, não temos uma maneira definida de saber se nossa amostra é uma entre as cinco em 100. Agora, o que de melhor podemos fazer?

Digamos que nós tenhamos feito 40 perguntas diferentes aos entrevistados, que são indicadores razoáveis ​​da atitude em relação ao programa governamental de bem-estar familiar. Se estivermos usando um nível de confiança de 5% e se fizermos 100 perguntas, podemos esperar encontrar diferenças estatisticamente significativas atribuíveis ao acaso em 5 delas.

Assim, de nossas 40 perguntas sobre vários itens, podemos esperar encontrar diferenças estatisticamente significativas em dois deles. Mas, suponhamos que, em 25 das 40 perguntas, os que viram o filme tivessem atitudes mais favoráveis ​​em comparação com aqueles que não viram o filme.

Podemos, sendo este o caso, sentir-nos muito mais seguros ao concluir que existe uma verdadeira diferença de atitudes (embora o teste estatístico indique que a diferença pode ter surgido por acaso em cada questão 5 vezes em 100).

Agora vamos supor que, das 40 perguntas, as respostas a apenas uma, ou seja, sobre o espaçamento das crianças, mostraram uma diferença estatisticamente significativa entre os dois grupos, aqueles expostos ao filme e os que não). Essa diferença também poderia ter ocorrido por acaso.

Por outro lado, pode ser que o conteúdo do filme realmente influencie opiniões sobre este ponto, mas não sobre qualquer outro (como o relacionado a operações de esterilidade). Mas, a menos que nossa hipótese tenha predito de antemão especificamente que o filme teria maior probabilidade de afetar as atitudes em relação ao espaçamento de crianças do que as atitudes em relação a qualquer uma das outras questões, não estamos justificados em fazer essa interpretação.

Tal interpretação, isto é, uma invocada para explicar os achados depois que eles surgem, é conhecida como a interpretação “pós-factum”, porque envolve explicações fornecidas para justificar os achados, quaisquer que sejam. Depende da engenhosidade do pesquisador, que explicação ele pode inventar para justificar essas descobertas. Ele pode, portanto, justificar até as descobertas opostas.

Merton muito lucidamente salientou que as interpretações pós-factuais são projetadas para "explicar" as observações. O método da explicação pós-factual é completamente flexível. Se o pesquisador descobrir que os desempregados tendem a ler menos livros do que antes, isso pode ser “explicado” pela hipótese de que a ansiedade resultante do desemprego afeta a concentração e, portanto, a leitura se torna difícil.

Se, no entanto, se observar que os desempregados lêem mais livros do que antes (quando empregados), uma nova explicação pós-factual pode ser invocada; a explicação é que os desempregados têm mais lazer e, portanto, leem mais livros.

O teste crítico sobre 'uma relação obtida (entre variáveis) não é a lógica e explicação pós-factual; é antes a capacidade de prevê-lo ou prever outros relacionamentos com base nele. Assim, nosso achado anteriormente imprevisível de uma diferença de atitudes em relação ao espaçamento de crianças, mesmo que estatisticamente significativo, não pode ser considerado como estabelecido pelo estudo que realizamos.

Como as declarações estatísticas são declarações de probabilidade, nunca podemos confiar totalmente na evidência estatística para decidir se aceitaremos ou não uma hipótese como verdadeira.

A confiança na interpretação de um resultado de pesquisa requer não apenas confiança estatística na confiabilidade do achado (ou seja, que as diferenças provavelmente não ocorreram por acaso), mas, além disso, algumas evidências sobre a validade dos pressupostos da pesquisa.

Essa evidência é necessariamente indireta. Vem da congruência dos achados da pesquisa com outros conhecimentos que resistiram ao teste do tempo e, portanto, sobre os quais há considerável segurança.

Mesmo na investigação mais rigorosamente controlada, o estabelecimento de confiança na interpretação dos resultados ou na imputação de relações causais requer a replicação da pesquisa e o relacionamento dos achados com os de outros estudos.

É necessário notar que, mesmo quando os testes estatísticos e os achados de vários estudos sugerem que há de fato uma diferença consistente entre dois grupos ou uma relação consistente entre duas variáveis, isso ainda não constitui a evidência da razão para a relação.

Se quisermos extrair inferências causais (por exemplo, X produz Y), devemos atender a pressupostos além daqueles necessários para estabelecer a existência de um relacionamento. É também digno de nota que um resultado não é social ou psicologicamente significativo apenas porque é estatisticamente significativo. Muitas diferenças estatisticamente significativas podem ser triviais na linguagem social prática.

Por exemplo, uma diferença média de menos de um ponto de QI entre as pessoas urbanas e rurais pode ser estatisticamente significativa, mas não é assim no dia-a-dia prático. Pelo contrário, há casos em que uma diferença pequena, mas confiável, tem grande significado prático.

Em uma pesquisa em grande escala, por exemplo, uma diferença de meio ou um por cento pode representar centenas de milhares de pessoas e a conscientização da diferença pode ser importante para decisões políticas significativas. Portanto, o pesquisador, além de se preocupar com a significância estatística de suas descobertas, também deve se preocupar com seus significados sociais e psicológicos.

Inferindo Relacionamentos Causais:

Devido a dificuldades óbvias, tais projetos experimentais rígidos raramente podem ser resolvidos em investigações científicas sociais. A maioria das investigações em ciências sociais é de caráter não experimental.

Em tais estudos, existem certos obstáculos empíricos na maneira de determinar se uma relação entre variáveis ​​é causal ou não. Tem sido repetidamente mencionado que uma das tarefas mais difíceis na análise de dados de comportamento social é o estabelecimento de relações de causa e efeito.

Uma situação problemática deve sua origem e o processo de se tornar não apenas um fator, mas um complexo de uma variedade de fatores e seqüências.

O processo de desenredar esses elementos representa um grande desafio para a imaginação sociológica e coloca em teste a habilidade dos pesquisadores. É perigoso seguir uma explicação de "pista única" que leva à causa. É imperativo procurar toda uma bateria de fatores causais que geralmente desempenham um papel significativo na criação de situações sociais complexas.

Como bem observou Karl Pearson, “nenhum fenômeno ou estágio em seqüência tem apenas uma causa; todos os estágios antecedentes são causas sucessivas; quando afirmamos cientificamente as causas, estamos realmente descrevendo os estágios sucessivos de uma rotina de experiência ”.

Yule e Kendall reconheceram o fato de que as estatísticas “devem aceitar para análise, dados sujeitos à influência de uma série de causas e devem tentar descobrir a partir dos próprios dados quais causas são as mais importantes e quanto do efeito observado é devido a o funcionamento de cada um. ”

Paul Lazarsfeld traçou as fases envolvidas na técnica que ele chama de "discernir". Ele defende seu uso na determinação de relações causais entre variáveis. Lazarsfeld estabelece este procedimento:

(a) Verificando uma suposta ocorrência como abaixo:

Para verificar essa ocorrência, é necessário verificar se a pessoa realmente experimentou as supostas situações. Se sim, como a ocorrência se manifesta e sob quais condições, em sua vida imediata?

Quais razões são avançadas para a crença de que existe uma interconexão específica entre duas variáveis, por exemplo, perda de emprego e perda de autoridade? Quão correto é o raciocínio da pessoa neste caso específico?

(b) Tentando descobrir se a suposta condição é consistente com fatos objetivos da vida passada dessa pessoa.

(c) Teste todas as explicações possíveis para a condição observada.

(d) Decidir as explicações que não estão de acordo com o padrão dos acontecimentos.

É perfeitamente compreensível que a maioria das dificuldades ou obstáculos ao estabelecimento de relações causais afete mais intensamente os estudos não experimentais. Em estudos não experimentais em que o interesse está em estabelecer relações causais entre duas variáveis, o investigador deve encontrar substitutos para salvaguardas que são claramente incorporadas nos estudos experimentais.

Muitas dessas salvaguardas entram no momento do planejamento da coleta de dados, na forma de fornecer a coleta de informações sobre um número de variáveis ​​que podem muito bem ser as condições alternativas para produzir o efeito hipotético.

Ao introduzir essas variáveis ​​adicionais na análise, o pesquisador aproxima alguns dos controles inerentes aos experimentos. No entanto, o desenho de inferências de causalidade sempre permanece um tanto perigoso em estudos não experimentais.

Discutiremos agora alguns dos problemas e as estratégias para superá-los, relacionando-os a inferências sobre causalidade em estudos não experimentais. Se um estudo não experimental aponta para uma relação ou associação entre duas variáveis, digamos X e Y, e se o interesse da pesquisa é em relações causais e não no simples fato de associação entre variáveis, a análise levou apenas o primeiro passo.

O pesquisador deve considerar (além da associação entre X e Y) se Y (efeito) pode ter ocorrido antes de X (a causa hipotética), caso em que Y não pode ser o efeito de X.

Além dessa consideração, o pesquisador deve ponderar sobre a questão se outros fatores além de X (a causa hipotética) podem ter produzido Y (o efeito hipotético). Isso geralmente é resolvido através da introdução de variáveis ​​adicionais na análise e examinando como a relação entre X e Y é afetada por essas variáveis ​​adicionais.

Se a relação entre X e Y persistir mesmo quando outras variáveis ​​presumivelmente eficazes e possivelmente alternativas forem introduzidas, a hipótese de que X é a causa de Y permanece sustentável.

Por exemplo, se a relação entre comer uma determinada fruta da estação (X) e fria (Y) não mudar mesmo quando outras variáveis, como idade, temperatura, estado de digestão, etc., forem introduzidas na análise, podemos aceitar a hipótese de que X leva a Y como sustentável.

Mas é possível, em um número pequeno de casos, que a introdução de outras variáveis ​​adicionais possa mudar a relação entre X e Y. Pode reduzir para eliminar totalmente a relação entre X e Y ou pode melhorar o relacionamento em um grupo e reduzi-lo noutro.

Se a relação entre X (ingestão de fruta da época) e Y (frio) é aumentada num subgrupo caracterizado por Z (mau estado de digestão) e reduzido no subgrupo não caracterizado por Z (estado normal de digestão), nós pode concluir que Z é a condição contingente para a relação entre X e Y.

Isto significa, em outras palavras, que fomos capazes de especificar a condição (Z) sob a qual a relação entre X e Y é válida. Agora, se a introdução de Z na análise reduz ou elimina totalmente a relação entre X e Y, estaremos seguros em concluir que X não é um produtor de Y, isto é, a relação entre X e Y é 'espúria' ou que nós rastreamos o processo pelo qual X leva a Y (isto é, através de Z).

Voltemos a considerar a situação em que podemos legitimamente concluir que a relação entre X e Y é espúria.

Uma relação aparente entre duas variáveis ​​X e Y é considerada espúria se a sua variação concomitante deriva não de uma conexão entre elas, mas do fato de que cada uma delas (X e Y) está relacionada a alguma terceira variável (Z) ou uma combinação de variáveis ​​que não servem como um link no processo pelo qual X leva a Y.

A situação que caracteriza uma relação espúria pode ser diagramada como abaixo:

O objetivo aqui é determinar a causa de Y, a variável dependente (digamos, a expectativa monetária dos graduados universitários). A relação (linha tracejada) entre X a variável independente (digamos, as notas obtidas pelos alunos) e a expectativa monetária dos graduados (Y) foi observada no decorrer da análise dos dados.

Outra variável (Z) é introduzida para ver como a relação entre X e Y se comporta com a entrada desse terceiro fator. Z é o terceiro fator (digamos, o nível de renda dos pais dos alunos). Descobrimos que a introdução desse fator reduz a relação entre X e Y.

Ou seja, verifica-se que a relação entre maior nota no exame e maiores expectativas monetárias não se sustenta, mas é consideravelmente reduzida quando introduzimos a terceira variável, ou seja, o nível de renda dos pais.

Tal introdução de Z traz à luz o fato de que não X, mas Z, pode provavelmente ser um fator determinante de Y. Portanto, a relação entre X e Y (mostrada no diagrama por uma linha pontilhada) é espúria, enquanto a relação entre Z e Y são reais. Vamos ilustrar isso com a ajuda de dados hipotéticos.

Suponhamos que, no decorrer da análise de dados em um estudo, tenha sido observada uma correlação significativa entre os graus ou divisões (I, II, III) que os alunos asseguraram no exame e o salário que esperam para um trabalho que eles podem ser nomeados para.

Viu-se, por exemplo, que geralmente os primeiros divisores entre os estudantes esperavam uma remuneração maior em comparação aos segundos divisores e os segundos divisores esperavam mais em comparação aos terceiros divisores.

A tabela a seguir ilustra a situação hipotética:

Vê-se claramente da tabela que há uma base para supor que as notas dos alunos determinam suas expectativas sobre os salários. Agora, suponhamos que o pesquisador de alguma forma ache a ideia de que o nível de renda dos pais (X) possa ser uma das variáveis ​​importantes que determinam ou influenciam as expectativas dos estudantes sobre os salários (Y). Assim, Z é introduzido na análise.

Suponha que a tabela a seguir represente o relacionamento entre as variáveis:

Nota:

A HML na linha horizontal, dividindo cada categoria das notas dos estudantes, corresponde respectivamente a alto nível de renda dos pais, nível moderado de renda dos pais e baixo nível de renda dos pais. A tabela acima mostra claramente que a relação entre X e Y tornou-se menos significativa em comparação com a relação entre Z e Y.

To get a clearer picture, let us see the following table (a version of Table B omitting the categories of X) showing the relationship between Z and, ie, parental income level and students' monetary expectations:

We can very clearly see from the table that, irrespective of their grades, the students' monetary expectations are very strongly affected by the parental levels of income (Z).

We see that an overwhelming number of students (ie, 91.5%) having high monetary expectations are from the high parental income group, 92% having moderate monetary expectations are from moderate parental income group and lastly, 97% having low monetary expectations are from the low parental income group.

Comparing this picture with the picture represented by Table A, we may say that the relation between X and Y is spurious, that is, the grade of the students did not primarily determine the level of the monetary expectations of the students.

It is noted in Table A that students getting a higher grade show a significant tendency toward higher monetary expectations whereas the lower grade students have a very marked concentration in the lower monetary expectation bracket.

But when we introduce the third variable of parental income, the emerging picture becomes clear enough to warrant the conclusion that the real factor responsible differential levels of monetary expectations is the level of parental income.

In Table C, we see a very strong and formidable concentration of cases of students corresponding to the three under mentioned combinations, viz., of higher monetary expectations and higher parental income, of moderate monetary expectations and moderate parental income and of lower monetary expectations and lower parental income, ie, 5%, 92.1% and 1% respectively.

Tracing the Process Involved and a Relationship Among Variables: As was stated earlier, if a third factor Z reduces or eliminates the relationship between the independent variable X and the dependent variable Y, we may conclude either that the relationship between X and Y is spurious, or that we have been able to trace the process by which X leads to Y.

We shall now consider the circumstances that would warrant the conclusion that the process of relationship between X and Y has been traced through a third factor Z.

Suppose, in a study the investigators found that smaller communities had a higher average intimacy score, the intimacy score being a measure of the intimacy of association between members of a community arrived at by using an intimacy scale.

Suppose, they also found that the middle-sized communities had a lesser intimacy score compared to the small-sized communities and big-sized communities had the least average intimacy score. Such a finding suggests that the size of the community determines the intimacy of association among members of the community.

In other words, the observations warrant the conclusion that the members living in a small-sized community have a greater intimacy of association, whereas the big-sized communities are characterized by a lesser intimacy of association among the members.

The following table presents the hypothetical data:

In the second column of the table, samples corresponding to each of the communities have been shown.

In the second column of the table, samples corresponding to each of the communities have been shown. In column 3, the average intimacy scores corresponding to types of communities calculated on the basis of the responses given to certain items on a scale relating to the day-to-day associations among members have been shown.

It is seen from the table that the average intimacy scores vary inversely with the size of the community, ie, smaller the size, the greater the intimacy score and conversely, larger the size, the lower the intimacy score.

Now suppose, the investigators got the idea that the three types of communities would differ in terms of opportunities they offer for interaction among members, in as much as the living arrangements, residential patterning, commonly-shared utilities etc., would promote such association.

Thus, the investigators would introduce the third factor into analysis of the interaction-potential, ie, the extent to which the circumstances persons live in are likely to provide opportunities for interaction among themselves.

In order to check the hypothesis that it was largely through differences in residential patterning, living arrangements, commonly shared amenities etc., that the three types of communities produced differences in interaction among members of a community, the investigators would consider the size of community and interaction-potential jointly in relation to the average intimacy score.

The infraction-potential is thus the third variable Z introduced into the analysis. The interaction-potential is classified, let us say, into a low interaction-potential (b) medium interaction potential, and (c) high interaction- potential.

The following table represents the hypothetical data:

Reading across the rows in the table, we see that the interaction-potential is strongly related to the intimacy score of the community members, whatever the size of the community.

That is, whether we consider the row for small-sized communities, for the middle-sized communities, or for the big-sized communities, there is in each case an increase in the average intimacy score with an increase in interaction-potential. Moreover, reading the entries across the rows, it becomes clear that the size of the community and the interaction-potential bear a significant correlation.

For example, approximately two-thirds of respondents in a small-sized community are living under conditions of high interaction-potential; we also find that a much smaller proportion of the moderate-sized community residents are living under high interaction-potential conditions and a very small proportion of the big-sized community residents under high interaction-potential conditions.

Now, we read the intimacy scores down the columns only to find that the relationship between the type of community and intimacy of association has been considerably reduced. In fact, for people living under high interaction potential conditions, no definite relationship between the size of the community and the intimacy score obtains.

From this set of relationships, the investigators may conclude that the inverse relationship between the size of the community and the intimacy score does hold good, but that one of the major ways in which a particular type of community encourages intimacy among its members is by offering opportunities that increase the rate of interaction amongst them.

In other words, the small-sized communities are characterized by a higher average intimacy score because their small size provides a setting for many opportunities for high degree of interaction among members. Big-sized communities, on the other hand, are characterized by a relatively lower intimacy score.

But the lower intimacy score is attributable not to the size of the community per se but to the fact that a big-sized community cannot offer opportunities for higher interaction among members as the small-sized communities do.

Hence, the investigators rather than concluding that the relationship between the size of the community and the average intimacy score among members is spurious, might conclude that they have been able to trace the process by which X {ie, the type of community) influences Y (the intimacy score).

The former warranted the conclusion that the relation between the variables X and Y was spurious and the latter the conclusion that the process from X to Y may be traced through Z (X to Z to Y). In both cases, the introduction of a third variable Z reduced or eliminated the relationship between them (X and Y).

One difference may, however, be noted. In the first example, the variable Z (ie, income level of parents) was clearly prior in time to the other two variables (grade of students in the examination and monetary expectations of students).

In the second example, the third variable Z (interaction-potential afforded by the communities) did not occur before the assumed causal variable (size of community). It was concurrent with it and might be thought of as starting after it.

The time-sequence of the variables, thus, is an important consideration in deciding whether an apparent causal relationship is spurious. That is, if the third variable Z, which removes or eliminates the relationship between the originally related variables X and Y, we conclude usually that the apparent causal relationship between variables X and Y is spurious.

But if the third variable Z is known or assumed to have occurred at the same times as X or after X, it may be in order to conclude that the process by which X leads to Y has been traced.Thus, to have certain measure of confidence in causal relationship inferred from studies that are non-experimental in character, it is necessary to subject them to the critical test of eliminating the other possibly relevant variables.

For this reason, it is important to collect in the course of study, data on such possibly influential variables other than those with which the hypothesis of the study are centrally concerned.

It was stated earlier that the introduction of a third variable into the analysis may have the effect of intensifying the relationship within one sub-group and of reducing the same in another sub-group. If such be the case, we say that we have specified a condition (Z) under which the relationship between X and Y holds.

Let us now illustrate the process of specification. Suppose, in a community study, we happen to identify a relationship between income and educational level.

This is shown in the table given below:

We see in the table that the relationship between education and income is a fairly marked one. Higher the education, generally, higher the percentage of cases earning a yearly income of Rs.5, 000/- and above. However, we may decide that the relationship requires further specification.

That is, we may wish to know more about the conditions under which this relationship obtains. Suppose, the thought strikes us that the fact of the respondents living in urban-industrial community might positively affect the advantages of education for remunerative employment and hence its reflection in income.

On this assumption, we introduce the third factor Z, ie, those respondents who live in the urban industrial community and those who live in the rural non-industrial community, into the analysis and see how it affects the initial relationship between X and Y (ie, education and income).

Suppose we get a picture as shown in the following table:

We can see clearly that the Table B reflects a very different relationship between income and education for the people living in the rural-non-industrial community as compared to the one for those living in the urban-industrial community. We see that for those living in the industrial cities, the relationship between education and income is somewhat higher than the original relationship.

But, for those living in the rural non- industrial communities the relationship in the above table is considerably lower than the initial relationship.

Thus, the introduction of the third factor and the break-down of the original relationship on the basis of the third factor (Z) has helped to specify a condition under which the relationship between X and Y is more pronounced as also the condition under which the relation is less pronounced.

Similarly suppose, we find in the course of a study that people who belong to the higher income category have generally lesser number of children compared to those in the lower income category. Suppose, we feel (on the basis of a theoretic orientation) that the factor of city-dwelling could be important in affecting the relationship.

Introducing this factor, suppose, we find that the original relationship between level of income and number of children becomes more pronounced in the city and that it becomes less pronounced among the rural people, than we have identified a condition Z (ie, city- dwelling) under which the relation becomes decisively enhanced or pronounced.

Interpreting the Findings of a Study:

Thus far, we have concerned ourselves mainly with the procedures that together comprise, what we call customarily, the analysis of data. The researcher's task, however, is incomplete if he stops by presenting his findings in the form of empirical generalizations which he is able to arrive at through the analysis of data.

A researcher who, for example, winds up his research exercise just by stating that “the unmarried people have a higher incidence of suicide as compared to the married people” is hardly fulfilling his overall obligation to science, though the empirical generalization he has set forth does have some value by itself.

The researcher in the larger interest of science must also seek to show that his observation points to certain under-laying relations and processes which are initially hidden to the eye. In other words, the researcher must show that his observation has a meaning, much broader and deeper, than the one it appears to have on the surface level.

To return to our example of suicide, the researcher should be able to show that his observation that “the unmarried people are characterized by suicide” reflects, in fact, the deeper relationship between social cohesion and rate of suicide (Durkheim's theory).

Once the researcher is able to expose the relations and processes that underlie his concrete findings he can establish abstract relationships between his findings and various others.

In essence then, the researcher's work goes well beyond the collection and analysis of data. His task extends to interpreting the findings of his study. It is through interpretation that the researcher can understand the real significance of his findings, ie, he can appreciate why the findings are what they are.

As was stated earlier, interpretation is the search for broader and more abstract meanings of the research findings. This search involves viewing the research findings in the light of other established knowledge, a theory or a principle. This search has two major aspects.

The first aspect involves the effort to establish continuity in research through linking the results of a given study with those of another. It is through interpretation that the researcher can unravel or comprehend the abstract principle beneath the concrete empirical observations.

This abstract common denominator having been discerned, the researcher can easily proceed to link his findings up with those of other studies conducted in diverse settings, diverse in matters of detail but reflecting the same abstract principle at the level of findings.

Needless to say that the researcher can on the basis of the recognition of the abstract theoretic principle underlying his finding, make various predictions about the concrete world of events quite unrelated seemingly to the area of his findings. Thus, fresh inquiries may be triggered off to test predictions and understandably, such studies would have a relationship with the researcher's initial study.

In a somewhat different sense, interpretation is necessarily involved in the transition from exploratory to experimental research. The interpretation of the findings of the former category of researches often leads to hypotheses for the latter.

Since, an exploratory study does not have a hypothesis to start with, the findings or conclusions of such a study have to be interpreted on a 'post-factum' interpretation is often a hazardous game fraught with dangerous implications. Such an interpretation involves a search for a godfather in the nature of some theory or principle that would adopt (ie, explain) the findings of the study.

This quest often turns out to be an exercise on the part of the researcher to justify his findings by locating some suitable theory to fit his findings. As a result quite so often contradictory conclusions may find their 'godfathers' in diverse theories.

This aspect of post-factum interpretation, comprising attempts at rationalizing the research findings, should be clearly borne in mind when proceeding with it. On occasions there is, however, no other alternative to it.

Secondly, interpretation leads to the establishment of explanatory concepts. As has been pointed out, interpretation of findings involves efforts to explain why the observations or findings are, what they are. In accomplishing this task, theory assumes central importance.

It is a sensitizer and a guide to the underlying factors and processes (explanatory bases) beneath the findings. Underneath the researcher's observations in the course of a study, lies a set of factors and processes which might explain his observations of the empirical world. Theoretical interpretation uncovers these factors.

The researcher's task is to explain the relations he has observed in the course of his study, by exposing the underlying processes which afford him a deeper understanding of these relations and point to the role of certain basic factors operating in the problem area of his study.

Thus, interpretation serves a twofold purpose. First, it gives an understanding of the general factors that seem to explain what has been observed in the course of a study and secondly, it provides a theoretical conception which can serve in turn as a guide for further research.

It is in this manner that science comes to cumulatively disengage more successfully the basic, processes which shape the portion of the empirical world with which a researcher is concerned.

Interpretation is so inextricably intertwined with analysis that it should more properly be conceived of as a special aspect of analysis rather than a separate or distinct operation. In closing, we are tempted to quote Prof. C. Wright Mills who has stated the very essence of what all is involved in the analysis (involving interpretation) of data.

Says Mills, “So you will discover and describe, setting up types for the ordering what you have found out, focusing and organizing experience by distinguishing items by name. This search for order will cause you to seek patterns and trends and find relations that may be typical and causal. You will search in short, for the meaning of what you have come upon or what may be interpreted as a visible token of something that seems involved in whatever you are trying to understand; you will pare it down to essentials; then carefully and systematically you will relate these to one another in order to form a sort of working model….”

“But always among all details, you will be searching for indicators that might point to the main drift, to the underlying forms and tendencies of the range of society in its particular period of time.” After a piece of research is terminated, the statement that raises an array of new questions and problems may be made.

Some of the new questions constitute the groundwork for new research undertakings and formulation of new theories which will either modify or replace old ones. This is indeed, what research means. It serves to open new and more wider avenues of intellectual adventure and simulates the quest for more knowledge as well as greater wisdom in its use.