INSTRUMENTOS DE RECOLECCIÓN DE DATOS
Según Fidias G. Arias (1999) nos dice que los instrumentos son los medios materiales que se emplean para recoger y almacenar información. Ejemplo: fichas, formatos de cuestionario, guías de entrevista, lista de cotejo, grabadores, escalas de actitudes u opinión (tipo likert), etc.
IInstrumentos de Recolección de Datos
Cuantitativos
Cualitativos
v Observación
v Observación
v Análisis de contenido
v Entrevistas
v Cuestionarios
v Biografías e historias de vida
v Escala de actitudes
v Documentos, registros
v Grupos de enfoque
INSTRUMENTOS DE RECOLECCIÓN DE DATOS CUALITATIVOS
Los datos cualitativos consisten en la descripción detallada de situaciones, eventos, personas, comportamientos observables, citas textuales de la gente sobre sus experiencias, actitudes, creencias y pensamientos.
Estos datos cualitativos pueden recogerse utilizando instrumentos como: grabación de entrevistas individuales, videos de observaciones de eventos particulares, testimonios escritos de las personas con respecto al tema a investigar, fotografías, historias de vida, documentos escritos como: actas, recortes de prensa.
Los instrumentos que más se utilizan en los datos cualitativos son:
Entrevistas individuales: se define como una conversación, verbal, cara a cara y tiene como propósito conocer lo que piensa o siente una persona con respecto un tema en particular.
Esta clase de entrevista permite preguntar sobre cuestiones más complejas con mayor detenimiento, produce por parte del entrevistado mayor participación.
Entrevistas a grupos focales: Es rápida, oportuna, válida y poco costosa, también constituye una fuente importante de información para comprender las actitudes y creencias, saber cultural, y las percepciones de una comunidad.
Esta entrevista es un medio para recolectar en poco tiempo información cualitativa, por lo general con grupos de 6 a 12 personas, y se divide en 2 componentes esenciales.
· El contenido de la información (lo que se dice).
· El proceso de la comunicación (como se dice).
Para realizar una entrevistas focales, el responsable debe manejar entrevistas individuales y saber técnicas para la dinámica en grupo.
Observación: Constituye un conjunto de técnicas que permiten al investigador adquirir conocimientos por medio de la observación directa y el registro de fenómenos.
En la observación será necesario tener en cuenta dos aspectos importante que pueden influir en el resultado obtenido tras la misma, es el ocultamiento y la intervención. En el ocultamiento el individuo observado puede percatarse de la presencia del observador y distorsionar la conducta. La intervención denota el grado en que el investigador, a diferencia de un observador pasivo, estructura el ámbito de observación en respuesta a las necesidades del estudio.
Los métodos de observación varían según su estructura, así tenemos la observación no estructurada que emplea el procedimiento de la observación participante en la que el investigador actúa como observador y se familiariza con el lugar para posteriormente volverse participante activo.
Los métodos de observación estructurada imponen una serie de limitantes al observador, con el propósito de incrementar su precisión y objetividad, a fin de obtener una representación adecuada del fenómeno de interés.
El papel del entrevistador es muy importante, porque él es un facilitador del proceso de comunicación entre dos personas, su papel es inducir profundidad y detalle en las opiniones del entrevistado, debe inspirar confianza, escuchar activamente y atender el comportamiento verbal y no verbal de la persona que habla.
Según Patton: la entrevista cualitativa puede tomar las siguientes formas:Entrevista informal conversacional, entrevista estructurada con una guía y entrevista estandarizada.
La entrevista informal conversacional: las preguntas se formulan en torno a un asunto que se explora ampliamente sin utilizar un guía que delimite el proceso.
La entrevista estructurada con un guía: procura un marco de referencia a partir del cual se plantean los temas pertinentes al estudio y posibilita un proceso de recolección, y facilita un mejor manejo de la información.
La entrevista estandarizada: Organiza y formaliza el proceso de recolección, este tipo de entrevistas es pertinente cuando hay más de una persona responsable de recolectar información.
Una vez definida la modalidad de pregunta el investigador debe tomar una decisión para relacionar el tipo de pregunta, la secuencia, el nivel de detalles, y la duración de la entrevista.
Los tipos de preguntas pueden ser:
· Preguntas sobre experiencias o comportamientos: lo que hacen o ha hecho una persona.
· Pregunta sobre sentimientos: respuestas emocionales de las personas.
· Preguntas sobre opinión: lo que ellos piensan.
· Preguntas sobre conocimientos: lo que las personas saben específicamente.
· Preguntas sobre sensaciones: lo que ven, oyen, tocan.
· Preguntas de carácter histórico: características del informante.
Es recomendable comenzar las entrevistas con preguntas descriptivas, sobre comportamientos, actividades, o experiencias, temas que requieran poca memoria e interpretación y sean fáciles de contestar.
Se recomienda plantear preguntas abiertas para que la persona entrevistada responda en sus propios términos y seleccione sus propias categorías.
También se debe evitar hacer preguntas dicótomas, porque inducen respuestas de sí o no.
Al realizar la entrevista de debe iniciar con la presentación del investigador y explicar el objetivo de la misma, dar a conocer los temas a tratar en la entrevista.
La calidad de los datos de una entrevista depende estrechamente de las aptitudes de relación interpersonal del entrevistador, quien debe procurar crear un clima tranquilo para la entrevista y entablar con los informantes un nivel satisfactorio de comunicación.
Ref: http://html.rincondelvago.com/recoleccion-de-datos-cualitativos.html
INSTRUMENTOS DE RECOLECCIÓN DE DATOS CUANTITATIVOS
ANÁLISIS DE CONTENIDO
La técnica del análisis de contenido está destinada a formular, a partir de ciertos datos, inferencias reproducibles y válidas que puedan aplicarse a su contexto.
Como técnica de investigación, esta herramienta proporciona conocimientos, nuevas intelecciones y una representación de los hechos, estos resultados deben ser reproducibles para que sea fiable.
El análisis de contenido se caracteriza por investigar el significado simbólico de los mensajes, los que no tienen un único significado, los mensajes y las comunicaciones simbólicas tratan, en general, de fenómenos distintos de aquellos que son directamente observados".
Esta técnica ha sido generalizada y alcanza a analizar incluso las formas no lingüísticas de comunicación, claro que para que sea fiable, debe realizarse en relación al contexto de los datos.
Ref: http://www.angelfire.com/tv2/tesis/Analisisdecontenido.htm
CUESTIONARIO
El cuestionario es el instrumento más utilizado para recolectar información de manera clara y precisa. Consiste en un conjunto de preguntas formuladas en base a una o más variables a medir, donde se utiliza un formulario impreso estandarizado de preguntas, en el cual el contestante llena por sí mismo. El contenido de las preguntas de un cuestionario puede ser tan variado como los aspectos que mida. La selección de los temas para la realización del cuestionario, depende de los objetivos que se haya planteado el investigador al inicio de la investigación, de los eventos de estudios y de los indicios identificados en el proceso de operacionalización. En el cuestionario deben incluirse solo las preguntas que estén directamente relacionadas con las preguntas de investigación o con el control de variables en caso de investigaciones confirmatorias. No deben añadirse preguntas cuyas respuestas puedan ser obtenidas con mayor precisión utilizando otro tipo de instrumentos.
Ref: http://www.rena.edu.ve/cuartaEtapa/metodologia/Tema13.html
ESCALA DE ACTITUDES
Se trata de instrumentos utilizados en las Ciencias Sociales para medir características muy diversas de los fenómenos sociales en la forma más objetiva posible. La base de este procedimiento consiste en pedir al sujeto que señale, dentro de una serie graduada de ítems, aquellos que acepta o prefiere. Frente a los tests, las escalas de actitudes presentan dos polos extremos y no existe una respuesta válida.
Ref:http://www.uam.es/personal_pdi/stmaria/jmurillo/Metodos/Materiales/Apuntes%20Cuestionario.pdf
DIFERENCIA ENTRE DATOS E INFORMACIÓN
Los datos son símbolos que describen condiciones, hechos, situaciones o valores. Los datos se caracterizan por no contener ninguna información. Un dato puede significar un número, una letra, un signo ortográfico o cualquier símbolo que represente una cantidad, una medida, una palabra o una descripción. La importancia de los datos está en su capacidad de asociarse dentro de un contexto para convertirse en información. Por si mismos los datos no tienen capacidad de comunicar un significado y por tanto no pueden afectar el comportamiento de quien los recibe. Para ser útiles, los datos deben convertirse en información para ofrecer un significado, conocimiento, ideas o conclusiones. En sentido general, la información es un conjunto organizado de datos, que constituyen un mensaje sobre un determinado ente o fenómeno. Los datos se perciben mediante los sentidos, éstos los integran y generan la información necesaria para producir el conocimiento que es el que finalmente permite tomar decisiones para realizar las acciones cotidianas que aseguran la existencia social.
DATOS SECUNDARIOS
Son aquellos que se han publicado con anterioridad y recolectado con propósitos diferentes de los de satisfacer las necesidades específicas de la investigación inmediata. Los datos secundarios dan la pauta para determinar durante el proceso de datos, sí estos ya existen.
Ref:http://catarina.udlap.mx/u_dl_a/tales/documentos/bad/brunet_ca/capitulo3.pdf
Son registros escritos que proceden también de un contacto con la práctica, pero que ya han sido elegidos y procesados por otros investigadores.
Los datos primarios y secundarios no son dos clases esencialmente diferentes de información, sino partes de una misma secuencia: todo dato secundario ha sido primario en sus orígenes, y todo dato primario, a partir del momento en que el investigador concluye su trabajo, se convierte en dato secundario para los demás.
Ref:http://www.monografias.com/trabajos16/recoleccion-datos/recoleccion-datos.shtml
Los datos secundarios suelen encontrarse diseminados, ya que el material escrito corrientemente se dispersa en múltiples archivos y fuentes de información. Pese a esto las bibliotecas son la mejor opción que se presenta al investigador, en especial en cuanto se refiere a libros, revistas científicas y boletines informativos. Tampoco deben dejarse de registrar otros lugares que pueden reunir información de este tipo: archivos y bibliotecas privadas, de organismos e instituciones estatales o de empresas, librerías, puestos de venta de periódicos, etc.
MÉTODOS DE ANÁLISIS DE INFORMACIÓN
Para el análisis de los datos es necesario definir una técnica de análisis, como podrían ser el análisis cualitativo y análisis cuantitativo, que son necesarios para la recolección de los datos que se obtendrán a lo largo de la investigación.
Luego de recopilados los datos que se obtendrán como resultado de las diferentes técnicas aplicadas es necesario analizarlos de forma clara para así poder determinar cuales son los requerimientos y necesidades de los estudiantes y publico en general.
Según Sabino el análisis cuantitativo se define como: “una operación que se efectúa, con toda la información numérica resultante de la investigación. Esta, luego del procesamiento que ya se le habrá hecho, se nos presentará como un conjunto de cuadros y medidas, con porcentajes ya calculados”
Según http://www.ciudadpolitica.com/modules/smartfaq/faq.php?faqid=32: se define el análisis cuantitativo como: “aquel busca acercar, a través de la recolección, estudio y análisis de grandes cantidades de datos mediante técnicas y tecnología estadística, a las disciplinas sociales hacia las ciencias exactas”
Según Sampieri, Fernández y Baptista (2003): el análisis cuantitativo consiste en: “registrar sistemáticamente comportamientos o conductas a los cuales, generalmente, se les codifica con números para darle tratamiento estadístico.” (p.450)
Según Sabino Sampieri, Fernández y Baptista (2003), el análisis cualitativo se define como: “un método busca obtener información de sujetos, comunidades, contextos, variables o situaciones en profundidad, asumiendo una postura reflexiva y evitando a toda costa no involucrar sus creencias o experiencia: (p 451-452). Según Sabino: El análisis cualitativo se refiere al que procedemos a hacer con la información de tipo verbal que, de un modo general se ha recogido mediante fichas de uno u otro tipo. Es preciso tomar cada uno de los grupos que hemos así formado para proceder a analizarlos. El análisis se efectúa cotejando los datos que se refieren a un mismo aspecto y tratando de evaluar la fiabilidad de cada información.
MÉTODOS ESTADÍSTICOS
1. Analizar variables individuales
2. Analizar las relaciones entre variables
Una vez recibidos los datos y antes de someterlos al análisis, suele ser útil llevar a cabo algunas operaciones preliminares. Esto puede incluir:
apartar los datos que son obviamente erróneos o irrelevantes. Esto ha de ser hecho con precaución: no debiéramos borrar datos que son solamente "anómalos" y no armonizan con nuestras hipótesis. Pueden también demostrar que la hipótesis es defectuosa.
normalizar o reducir nuestros datos significa que eliminamos la influencia de algún factor bien conocido pero sin interés. Por ejemplo, podemos eliminar el efecto de la inflación dividiendo todos los precios por el índice de precios de la fecha de la compra.
En el análisis propiamente dicho de los datos, el propósito es extraer una invariante o estructura que nos interese a partir de los datos. Esto no significa que introduzcamos los datos en un ordenador y esperemos que el ordenador nos muestre qué estructuras pueden encontrarse en ellos. Los ordenadores no son lo bastante listos para eso.
En lugar de ello, es habitual que ya en un momento tan temprano como el inicio del proyecto, el investigador tenga un modelo matemático que aplicará a los datos. Este modelo también proporciona las hipótesis eventuales para el proyecto de investigación, o al menos actúa como una hipótesis de trabajo inicialmente no exacta que se puntualizará durante el análisis.
Los datos empíricos pueden entonces analizarse del modo siguiente: primero, el investigador dispone los datos de acuerdo con el modelo y después considera en qué grado el marco es adecuado a los datos o si ha de buscarse un modelo que se adapte mejor.
En otras palabras, el investigador suele primero decidir qué tipo de patrón es el que está buscando en los datos. Esto determinará los métodos para un análisis matemático. Así, la primera cuestión a la hora de elegir el método de análisis es: ¿Queremos usar las variables medidas para clasificar casos o individuos? ¿O deseamos analizar variables inconexas, o bien las relaciones entre diversas variables?
Otra decisión importante se refiere al propósito final de su proyecto. ¿Usted desea describir cómo es el actual (o anterior) estado de su objeto, o usted desea descubrir cómo el objeto debe ser: qué grado de las cualidades medidas sería óptimo?.
Analizar variables individuales
A continuación hay una lista de algunos métodos habituales para el análisis estadístico de una sola variable. Los métodos han sido dispuestos de acuerdo con la escala de medición de la variable.
-
Escala nominal
Escala ordinal
Escala de intervalo
Escala de proporción
Métodos de presentación de los datos
- Tabulación ; Presentación gráfica -
Medias:
- La moda -
-
- La mediana -
-
-
- Media aritmética -
Medidas de dispersión:
-
- Desviación de cuartil -
-
- El rango -
-
-
- Desviación estándar -
Presentación gráfica de una variable
Un modo simple de presentar una distribución de valores es mostrar cada valor como un punto en una escala. Si hay un gran número de valores, puede ser mejor clasificarlos primero y entonces presentar la frecuencia de cada clase como un histograma. Si nuestros estudios tienen que ver con personas, ocurrirá con bastante frecuencia que nuestras mediciones estarán distribuidas de acuerdo con cierta curva, la llamada curva de Gauss que es, por consiguiente, llamada la distribución normal.
A veces querremos poner el énfasis no en la distribución absoluta, sino en la proporcional o de porcentaje. Un diagrama apropiado para esto es el gráfico de sectores, también llamado "de torta" o "de queso":
Medias
Una media es una estadística que caracteriza el valor típico de nuestros datos y elimina la dispersión aleatoria de valores. Para cada una de las distintas escalas de medición hay un tipo adecuado de media,
la moda
la mediana
la media aritmética.
Moda es el valor más común en nuestro conjunto de datos.
Mediana es el valor en el medio de la selección, si todos los valores están dispuestos del menor al mayor.
Media (aritmética) es la suma de todos los valores dividido por su número, o
De entre las medias que se han presentado más arriba, el investigador puede elegir habitualmente aquella que muestra mejor el valor típico de la variable. La media aritmética es el más popular, pero puede ofrecer un cuadro equivocado por ejemplo en datos que incluyen un valor que difieren en gran medida de los otros.
Se puede también, si es necesario, acudir a una estadística para describir la cantidad de desviación.
Al elegir la media más apropiada, debemos tener en cuenta la escala que fue usada en la recolección de los datos. Si la escala era nominal, la única media posible es la moda. Si la escala fue ordinal, podemos usar la mediana o la moda.
Finalmente, si la media fue calculada a partir de una muestra, debemos examinar su representatividad estadística, o qué probable es que la misma media sea cierta en la población de la que la muestra se extrajo. Una comprobación apropiada para esto es la prueba t.
Indicar la dispersión de los datos
Una vez que hemos calculado el valor medio, puede ser a veces interesante describir a qué distancia en torno a la media están diseminados los valores singulares. Para este fin, podemos elegir entre diversas estadísticas. La elección depende del tipo de media que hayamos usado:
En conexión con la moda la dispersión de valores raramente es interesante.
En lugar de ello, si hemos calculado una mediana, muchas veces querremos señalar la diseminación de valores en torno a ella. Una forma adecuada para esto es la desviación de cuartiles. Un "cuartil más alto" es aquel valor que es sobrepasado por el 25% del conjunto de todas las mediciones; del mismo, modo el 25% de todos los valores son más bajos que el "cuartil bajo". La desviación media de los cuartiles a partir de la mediana es llamada desviación de cuartiles y es calculada con facilidad dividiendo por la mitad la diferencia de los cuartiles.
Una estadística alternativa y muy simple es el rango: la diferencia entre el mayor y el menor valor.
En conexión con la media aritmética muchas veces querremos calcular la desviación estándar. Si los valores se miden a partir de una población, la formula será,
Sin embargo, si la desviación estándar sólo se refiere a una muestra, la formula es,
En ambas fórmulas, n es el número de los valores, y los valores de cada variable sustituirán a x uno tras otro. Raramente un investigador se molestará en realizar por sí mismo el cálculo, porque el algoritmo necesario para esto existe incluso en calculadoras de bolsillo.
A la raíz cuadrada de la desviación estándar se llama varianza, y también ésta es usada con frecuencia para describir y analizar la dispersión.
Si la estadística de dispersión se ha calculado a partir de una muestra, su representatividad estadística debe también calcularse al final. La prueba t es adecuada para esto.
Analizar las relaciones entre variables
Si dos variables evolucionan modo tal que en alguna medida se siguen entre ellas, podemos decir que existe una asociación o covarianza estadística entre ellas. Por ejemplo, la altura y peso de la gente están estadísticamente asociadas: aunque el peso de nadie esté causado por su altura ni la altura por el peso es, no obstante, habitual que las personas altas pesen más que las personas bajas. Por otro lado los datos habitualmente incluyen también excepciones, lo que significa que una asociación estadística es inherentemente estocástica.
La ciencia de la estadística ofrece numerosos métodos para revelar y presentar las asociaciones entre dos y hasta más variables. Los medios más simples son los medios de presentación gráfica y tabulación. La intensidad de la asociación entre variables puede también describirse como una estadística especial, como el coeficiente de contingencia y una correlación para lo que hay varios métodos de análisis disponibles.
Si, al analizar los datos, se descubre alguna asociación entre las variables, el investigador quisiera a menudo saber la razón de esta asociación en el mundo empírico, es decir él quisiera explicar esta asociación. Los tipos usuales de explicación se enumeran en la página Descripción y Explicación. Común a todos es que dan la causa del fenómeno se está estudiando que. Cuando las medidas se han hecho de una serie de estos fenómenos, es usual que una serie de medidas, llamada variable independiente, se hace así de la causa presumida, y una otra serie de medidas, la variable dependiente, del efecto presumido en el fenómeno.
Nota que no hay métodos en el análisis estadístico para la tarea de descubrir la explicación causal para una asociación estadística. Una fuerte correlación entre, digamos, A y B, puede deberse a cuatro razones alternativas:
A es la causa de B.
B es la causa de A.
Tanto A como B son causadas por C.
A y B no tienen nada que ver con uno al otro. Su asociación en los datos analizados está una coincidencia.
El investigador debe encontrar así la causalidad o la otra explicación para la asociación de las variables en alguna otra parte que en las medidas. En muchos casos, la teoría original del investigador puede proporcionar una explicación; si no, el investigador debe usar su sentido común para clarificar la causa.
A continuación mencionamos algunos métodos usuales de análisis estadístico que pueden usarse al estudiar la interdependencia entre una o más variables. Los métodos han sido dispuestos siguiendo a qué escala de medición corresponden la mayor parte de las variables.
Meta de análisis
Escala nominal
Escala ordinal
Escala de intervalo
Escala de proporción
Presentar datos y su estructura a grandes rasgos
Tabulación ; Gráficos
Medir la fuerza de la asociación entre dos variables
Coeficiente de contingencia
-
Correlación ordinal
-
-
Correlación r de Pearson
Encontrar qué variables entre varios son asociadas:
Calcular contingencias o correlaciones para todos los pares de variables ; análisis factorial
Transcribir una asociación estadística en una función matemática:
-
-
Análisis de regresión
Tabulación
La tabulación es una forma habitual de presentar las asociaciones entre dos o más variables. Una tabla tiene la ventaja de que en ella puede disponerse bien una cantidad extensa de datos y se conservan las cifras exactas. Una desventaja es que una tabla grande no es ilustrativa: raras veces revela algo más que las más obvias regularidades o interdependencias entre datos.
Algunas abreviaturas convencionales usadas en tablas se presentan bajo el encabezado Clasificar.
Presentación gráfica
Los productos, como objetos de estudio, son presentados con frecuencia como imágenes, que son una forma de presentación gráfica.
Si el investigador desea resaltar algunos rasgos comunes o patrones generales que ha encontrado en un grupo de objetos, puede combinar varios objetos en un gráfico. En el diagrama, Sture Balgård muestra cómo los edificios viejos en Härnösand siguen proporciones uniformes de anchura y altura con sólo algunas excepciones. Al inventar métodos ilustrativos de presentación de los hallazgos del estudio de productos, la más seria restricción es la imaginación del investigador.
Con frecuencia, no obstante, la apariencia del objeto en sí no es importante y sólo interesan los valores numéricos de sus mediciones. Si se considera así, lo primero que debiéramos plantearnos al elegir el tipo de gráficos es cuál es la estructura que queremos mostrar de los datos. Por supuesto tenemos que no "mentir con ayuda de la estadística", pero siempre es admisible elegir un estilo de presentación realce los patrones importantes al eliminar o dejar en segundo plano las relaciones y estructuras que no nos interesan.
Si nuestros datos consisten en solamente unas pocas mediciones, es posible mostrarlos todos como un diagrama de dispersión. Podemos exhibir los valores de dos variables sobre los ejes de abscisas y ordenadas, y adicionalmente unas cuantas variables más utilizando los colores o formas de los puntos. En el diagrama de la derecha, la variable z tiene dos valores que se indican respectivamente por un cuadrado y un signo +.
Si la variación es demasiado pequeña para que aparezca claramente, podemos darle énfasis eliminando partes de una o ambas escalas, véanse los ejemplos. Simplemente eliminamos la parte que no nos interesa, sea por la parte superior o por la inferior. La parte descartada debe estar vacía de valores medidos empíricamente. Para asegurarnos que el lector se da cuenta de la operación, es mejor mostrarlo no sólo en las escalas, sino también en la cuadrícula de fondo del diagrama.
Por otro lado, si el rango de variación de nuestros datos es muy amplio, podemos plantearnos usar una escala logarítmica en uno o ambos ejes. La escala logarítmica es apropiada solamente en una escala de proporción.
Si tenemos cientos de mediciones, es probable que no queramos mostrarlas todas en forma de diagrama de dispersión. Una posibilidad en este caso es clasificar los casos y presentarlos como un histograma.
El histograma puede adaptarse para presentar hasta cuatro o cinco variables. Podemos hacer esto variando las anchuras de las columnas, sus colores, sus tramados y por una representación tridimensional. Todas estas variaciones se crean fácilmente con un programa de hoja de cálculo como Excel, pero no deben ser usadas sólo como adorno.
Los patrones que rellenan o marcan las columnas del histograma pueden ser elegidos de forma que simbolicen una de las variables. Por ejemplo, las columnas que describen el número de automóviles pueden estar formadas por una pila de automóviles unos sobre otros. Esto es correcto, con tal de que no variemos el tamaño de los símbolos usados en un histograma. De otro modo, la interpretación se le haría difícil al lector (¿se vincula el número de automóviles a la longitud, el área o el volumen de los símbolos de los automóviles?)
El investigador suele estar interesado en las relaciones de dos o más variables antes que en las parejas de mediciones tomadas separadamente. La forma normal de presentar dos o más variables interdependientes es la curva. Esto implica una variable continua (es decir, en que el número de posibles valores es infinito).
No debemos producir una curva a partir de mediciones que no son valores de la misma variable. Por ejemplo, los atributos de un objeto son variables diferentes. Ejemplos de ello son las evaluaciones personales que los investigadores suelen reunir con la ayuda de escalas semánticas diferenciales del tipo de la mostrada abajo:
Estime las características de su dormitorio. Tache un recuadro en cada línea.
Claro
_
_
_
_
_
_
_
Oscuro
Ruidoso
_
_
_
_
_
_
_
Tranquilo
Limpio
_
_
_
_
_
_
_
Sucio
Grande
_
_
_
_
_
_
_
Pequeño
Carecería ahora de sentido el presentar las distintas evaluaciones del dormitorio como un solo "perfil" como en el diagrama de la izquierda (aunque encontremos con frecuencia este tipo de presentaciones ilógicas en informes de investigación.) Si queremos a toda costa poner el acento en que las variables han de ir juntas (por ejemplo porque todas son evaluaciones del mismo objeto), un método apropiado podría ser, por ejemplo, un grupo de histogramas (como el de la derecha).
Todos los diagramas mostrados arriba pueden combinarse con mapas y otras presentaciones topológicas. Por ejemplo, la variación en las diferentes áreas del país suele mostrarse como un cartograma que distinga los diferentes distritos con distintos colores o tramas. Otra forma es el cartopictograma en que pequeños diagramas de sectores ("de tarta" o "queso") o de columnas han sido colocados en el mapa. Las conexiones entre distintas áreas suele ser con frecuencia mostradas con filas cuyo grosor indica el número de conexiones.
Contingencia y correlación
La covarianza estadística entre dos variables suele ser analizada haciendo una tabla o una presentación gráfica, pero también hay disponibles estadísticas especiales para indicar su intensidad. Los medios disponibles para el análisis de los vínculos entre las variables dependen de con qué tipo de escala se han medido las variables. Vea la tabla que se presentó anterior.
Cociente de contingencia puede aplicarse a todo tipo de variables incluyendo aquellas que se han medido solo con una escala de clasificación. Una estadística alternativa es Chi cuadrado.
Correlación ordinal es adecuada cuando al menos una de las variables se han medido con una escala ordinal. La otra puede ser u ordinal o aritmética.
Para variables sobre escalas aritméticas, el método usual es la correlación estándar, mejor dicho la correlación del momento-producto o correlación de Pearson.
Las formulas para calcular las estadísticas de contingencia no se muestran aquí porque llevar a cabo los cálculos manualmente sería poco práctico y los investigadores habitualmente los hacen con un ordenador.
La correlación del momento-producto suele abreviarse con la letra r. Si el coeficiente de correlación es bajo, por ejemplo algo entre -0.3 y +0.3, las dos variables no tienen mucho que ver entre sí (más exactamente, no tienen casi ninguna covariación lineal). Si es alto, en otras palabras, si su valor se aproxima ya sea a +1 o a -1, esto significa que la relación entre las dos variables se aproxima a la ecuación y = ax + b. El signo del coeficiente de correlación no es importante; el signo siempre es idéntico al signo del coeficiente a en la ecuación de arriba.
Debajo, se puede ver tres diagramas de dispersión que demuestren tres conjuntos diferentes de datos de dos variables. Cada conjunto consiste en ocho pares de valores. Las correlaciones entre las dos variables se han calculado y se demuestran bajo cada diagrama. Se puede ver que no hay correlación entre las variables en el conjunto en la izquierda, y los otros dos conjuntos demuestran las correlaciones de 0,5 y 1,0.
A pesar del hecho que el análisis de correlación es capaz de manejar solamente dos variables, puede utilizarlo para el análisis inicial de un gran número de variables, cuando no tenemos una idea clara de las relaciones mutuas entre ellas. Es fácil para un ordenador calcular una matriz de correlación entre todos los pares potenciales de variables. Podemos entonces elegir esos pares que presentan las correlaciones más fuertes, y continuar examinándolos con otras herramientas de análisis más refinadas.
Un aspecto débil del análisis de correlación es que no puede detectar otras relaciones lineales entre las variables. Por ejemplo, una relación que obedece a la ecuación y = ax2 pasaría inadvertida. Sin embargo, algunos de los nuevos programas de análisis son capaces de detectar incluso esta y algunas otras asociaciones habituales de variables. Además, se puede intentar:
sustituir los valores de una variable con sus valores cuadrados, su raíz cuadrada o con alguna otra modificación, y hacer de nuevo la matriz de correlación. La computadora toma el cuidado del cálculo.
hacer un diagrama de dispersión de las dos variables que usted piensa quizás tenga una relación, y mirar si el patrón resultante sigue una forma de cualquier función matemática apropiada.
Una vez que usted haya encontrado un par de variables con una correlación o contingencia fuerte usted puede continuar, por ejemplo, con las operaciones siguientes:
Considere, en base de su teoría, cuál variable del par es independiente (es decir la razón) y cuál es el dependiente (la consecuencia), y si la relación puede implicar todavía más variables.
Descubra el patrón exacto de la relación. Los métodos posibles para esto incluyen los análisis de serie temporal y de regresión.
Si la correlación se calcula a partir de una muestra, debemos recordar probar su representatividad estadística con la prueba t.
Análisis de regresión
El investigador suele tener razones teóricas o prácticas para creer que determinada variable es causalmente dependiente de una o más variables distintas. Si hay bastantes datos empíricos sobre estas variables, el análisis de regresión clasico o "multivariate" es un método apropiado para desvelar el patrón exacto de esta asociación.
El análisis de la regresión encuentra la ecuación linear que se desvía lo menos posible de las observaciones empíricas. Por ejemplo, en el diagrama a la derecha, los puntos simbolizan las observaciones donde se han medido dos variables, y la línea representa la ecuación y = 8x + 45, obtenido con análisis de la regresión de modo que la suma de las diferencias cuadradas de los valores medidos de y llegue a ser mínima.
El esquema contiene sólo cuatro observaciones. Es demasiado poco para producir una ecuación plausible porque las observaciones podrían ser el resultado de coincidencia sólo, sin ninguna dependencia verdadera entre las variables. Si usted quiere hallazgos plausibles o "estadísticamente significativos" se necesitaría mucho más, quizás 40 observaciones multiplicados por el número de las variables independientes.
El algoritmo de análisis de regresión construye una ecuación, que tiene el siguiente patrón con una o más variables independientes. Además, da los parámetros a1 , a2 etc. y b valores tales que la ecuación corresponde a los valores empíricos con tanta precisión como es posible.
y = a1x1 + a2x2 + a3x3 + ... + b
En la ecuación, y = la variable dependiente
x1 , x2 etc. = variables independientes
a1 , a2 etc. = parámetros
b = constante.
Una desventaja del algoritmo del análisis de regresión es que puede discernir relaciones sólo lineales entre las variables. Así no puede manejar tales formatos usuales de ecuación como y = ax2 + bx + c. Esta dificultad, sin embargo, puede ser evitado por reemplazar temporalmente la variable no lineal con una transformación conveniente de ello, tal como su cuadrado, raíz cuadrada, el inverso, o logaritmo.
Si tenemos amplios datos con muchas variables, al principio del análisis no estaremos tal vez seguros de qué variables están mutuamente conectadas y cuales debieran así ser incluidas en la ecuación. Podríamos primero estudiar esto con una matriz de correlación, o podemos dejar al programa de análisis de regresión elegir las variables "correctas" (x1 , x2 etc.) para la ecuación. "Correctas" son aquellas variables que mejoran la exactitud del ajuste entre la ecuación y los valores empíricos.
Cuando una de las variables independientes es tiempo, y especialmente cuando tenemos una serie de tiempo de medidas en intervalos iguales, el análisis de regresión es una herramienta conveniente para revelar una tendencia o un desarrollo a largo plazo en una serie de tiempo, considera estudio histórico. Esta tendencia se puede a menudo utilizar para pronosticar el desarrollo futuro de la variable dependiente.
En el análisis clásico de la regresión la ecuación deseada contiene solamente una variable dependiente. En el caso que más que uno variable dependiente se parecen ser implicadas, una herramienta conveniente para su análisis es la correlación canónica, no discutida aquí.
Finalmente, la herramienta correcta para calcular la representatividad estadística de la ecuación obtenida por el análisis de regresión está la prueba t.
Análisis factorial
Todas las preguntas en un cuestionario se pueden considerar como variables, los valores de las cuales son encontrados estudiando las respuestas que cada pregunta recibe. Generalmente la mayor parte de las preguntas conciernen más o menos el mismo tema, y es por lo tanto normal que algunas de estas variables resultan tener una alta correlación mutua. El investigador ahora pudo desear descubrir si hay "variables de fondo" o los factores latentes que combinan algunas variables originales. Si se podría encontrar estas variables del fondo, los datos contenidos en los cuestionarios serían comprimidos grandemente y llegarían a ser más fáciles de comprender. El análisis factorial es el método normal de encontrar estas variables latentes.
Por ejemplo, en un estudio acerca de la ropa de gente finlandesa joven, Sinikka Ruohonen (2001, p. 97) examinó con un cuestionario las actividades del ocio de los respondedores, y descubrió que había una alta correlación entre pasar tiempo en conciertos, en galerías de arte, en teatros y en bibliotecas y también en lectura de libros. Todos éstos tenían una correlación negativa con mirar la televisión o las competiciónes deportivas. Ruohonen dio el nombre de "factor cultural" a esto factor. Él se asoció además con educación alta de madre y padre, y con independencia de las opiniones de otros al comprar ropas.
Otro factor que Ruohonen encontró y nombró "estético-social", incluyó objetivos de seleccionar ropas: destacar sus buenos o belleza, retratar confianza en sí mismo y personalidad, llamar atención, demostrar camaradería, valores comunes e ideologías. Este factor correlacionó también, en poco grado, con interés en la ecología, con se hacer la ropa por una misma, y no llevar pieles.
Un tercer factor, "gastar" contuvo varios indicadores de gastar dinero comprando la ropa, los cosméticos y las joyas, tan bien como el aprecio del estilo, de la calidad y de la moda.
Con la ayuda de un análisis factorial, las variables de combinación o factores latentes tras los atributos medidos pueden detectarse y especificarse, y el análisis también dice lo estrechamente que estos factores están vinculados con las variables originalmente verificadas. A veces se sitúa también una condición suplementaria sobre los factores, concretamente que no deben tener correlación alguna entre ellos y estén por lo tanto en "ángulo recto" uno con respecto a otro (= "rotación ortogonal" de los factores durante el análisis). Esta opción, no obstante, suele disminuir la correlación con las variables originales.
Un inconveniente del método del análisis factorial es que su uso formalmente correcto pero desconsiderado puede producir fácilmente los factores elegantes y matemáticamente exactos que sin embargo no tienen ningún significado empírico sensato. En el estudio citado arriba, Ruohonen evitó este callejón sin salida con el medio de entrevistar algunos respondedores desde una u otra extremidad de un factor, los cuales eran capaces clarificar sus actitudes y estilos de vida y dar el motivo para sus opiniones que difieren del promedio.
Es posible continuar el análisis factorial agrupando los respondedores (u otros casos empíricos) en grupos en base de sus valores en los factores que se encontraron en el análisis. Esta operación sufre de la misma inconveniencia que arriba: es difícil dar una explicación empírica a estos grupos artificiales y encontrar cualquier rastro de su existencia verdadera en empiria. Además, la dispersión de casos a lo largo de cada factor sigue casi siempre la distribución normal de Gauss, que significa que la mayoría de casos están cerca del punto medio y el investigador no puede encontrar ninguna división distinta en grupos. Esta trampa del investigador se discute también en la página Clasificación.
Ref : http://www2.uiah.fi/projects/metodi/
MÉTODOS CUALITATIVOS
Se habla de métodos cualitativos en plural. No hay una cosa única que podamos denominar metodología cualitativa. Se trata de una diversidad de caminos en el marco de la investigación social.
Esa diversidad de opciones viene dada tanto por la naturaleza de cada método empleado, como por la diversidad de paradigmas, modelos y procedimientos que le dan sustento. No hay unidad en cuanto a qué son y cómo se operacionalizan los llamados métodos cualitativos.
Se trata de una búsqueda abierta de conocimiento comprometido con la verdad y con el bienestar de los seres humanos. Implica un compromiso entre las personas, una interacción y una negociación constante. Los principales métodos cualitativos son: Investigación-acción, método etnográfico, método biográfico (Historias de Vida), Método comparativo constante, evaluación iluminativa.
Veámoslos con mayor detalle:
a) Investigación acción: Se trata de una investigación que intenta promover que un colectivo social identifique problemas y busque las vías de solucionarlos, mediante procedimientos de acción sistemática y reflexión sostenida. Cultores de este
método son: John Elliott, Shirley Grundy, W. Carr y Kemmis, etc.
b) Método biográfico, o historias de vida: Se refiere un camino sociológico, en el cual se interpreta uno o varios relatos de vida, para interpretar aspectos globales de la vida social, tales como movilidad social, inmigración, estructura de empleos, etc. Este método requiere de una doble hermenéutica, donde el entrevistado interpreta su vida, y el investigador interpreta esa interpretación. Representantes: Franco Ferrarotti, Daniel Bertoux, y en Venezuela, Víctor Córdova.
c) Evaluación iluminativa: Se trata de la aplicación de los métodos cualitativos en el contexto de la evaluación educativa. Los miembros de una institución educativa intentan comprender, desde las perspectivas personales, las profundidades de una situación. Desde allí, se planificará y desarrollará un conjunto de acciones compartidas, dirigidas a la solución de problemas específicos. Sustentadores de esta corriente: Guba y Lincoln.
d) Método comparativo constante: Se trata de estudiar grupos humanos concretos, sobre cuyo comportamiento se generará una explicación razonable. Para ello, se hace un cuidadoso acopio de los datos, llevándolos cada vez más hacia una progresiva generalización, una elaboración teórica. Creadores de este camino: B. Glasser y A. Strauss.
e) Método etnográfico: Se trata de una descripción con profundidad de un grupo humano, con el fin de detectar estructuras que no se ven a simple vista. Para ello, se parte de la determinación de los puntos de vista de las personas involucradas con la situación y, a partir de allí, ir develando poco a poco las relaciones que subyacen a ese grupo humano. Representantes: J.P. Goetz y M.D. LeCompte, Alain Coulon.
Estos métodos, a pesar de su diversidad, comparten las siguientes características:
1. El procesamiento de los datos se realiza, predominantemente, atendiendo más a las cualidades que a las cantidades, por medio del estudio del lenguaje, de las descripciones detalladas, de los procesos de codificación y categorización. (Lógica inclusiva, formal o dialéctica; análisis de lenguaje (discurso, contenido).
2. Buscan la comprensión totalizante (holística) de un evento dado, intentando una visión global que esté por encima de los detalles y los fragmentos.
3. Tendencia a la totalidad (círculo hermenéutico). Relación partes-todo. El proceso sigue principalmente una vía inductiva, de los datos a la teoría (aún cuando pueden aceptar un camino deductivo en algún momento del proceso).
4. Es necesario considerar la intersubjetividad, la posibilidad de objetivar el mundo subjetivo de las personas, de interpretar los significados que ellos dan a los acontecimientos, Los significados no son absolutos, sino negociados, puestos en común y discutidos con los actores de los eventos.
Ref:http://www.monografias.com/trabajos27/metodos-cualitativos/metodos-cualitativos.shtml
FACTIBILIDAD DEL PROYECTO
Según El manual de trabajos de Grado de Especialización y Maestría y Tesis Doctorales de la Universidad Pedagógica Experimental Libertados 2006 define El Proyecto Factible como aquel que consiste en la investigación, elaboración y desarrollo de una propuesta de un modelo operativo viable para solucionar problemas, requerimientos o necesidades de organizaciones o grupos sociales; puede referirse a la formulación de políticas. Programas, tecnologías, métodos o procesos. El Proyecto debe tener apoyo en una investigación de tipo documental, de campo o un diseño que incluya ambas modalidades.
El Proyecto Factible comprende las siguientes etapas generales: diagnóstico, planteamiento y fundamentación teórica de la propuesta; procedimiento metodológico, actividades y recursos necesarios para su ejecución de la propuesta y la evaluación tanto del proceso como de sus resultados.
Ref:http://www.google.co.ve/search?hl=es&q=Factores+que+definen+la+factibilidad+de+proyectos&meta=&aq=o&oq=
JUSTIFICACIÓN
El porqué de la elección de este tema es sencillamente para desarrollar a fondo y conocer el merchandising como medio publicitario y el impacto de este en los consumidores; definir sus beneficios hacia el consumidor, comerciantes y vendedores; además de la evolución de los sistemas de compras. Conocer hasta qué punto la implementación o no del merchandising contribuirá en el éxito o fracaso en los puntos de venta.
El merchandising como medio publicitario es visto como un área con mucho potencial para explotar con el uso de material p.o.p ya sean móviles, afiches, flashes, entre otros.
Estudiaremos el impacto que produce en los consumidores que pudiesen ser: curiosidad, aceptación, necesidad, confianza, rechazo, en definitiva un sin fin de apreciaciones que se observarán a la lo largo de la recolección de datos.
Como datos secundarios tenemos una guía facilitada por McCormick de Venezuela (2004) la cual tiene un amplio campo de influencia y prestar servicios a todos los involucrados en el proceso de compra. ¿Cómo ayuda a cada uno de los involucrados?
v Al comerciante, al vendedor y al consumidor.
Además de algunas fuentes consultadas en internet para la obtención de las bases teóricas como lo es: Wikipedia Enciclopedia Libre. (2009). (On line). Disponible en: http://es.wikipedia.org/wiki/Publicidad
El estudio se basará en una investigación de campo de carácter descriptivo que según Fidias G. Arias (1999) define a la Investigación de Campo como la recolección de datos directamente de la realidad donde ocurren los hechos, sin manipular o controlar alguna variable y a la Investigación Descriptiva la define como la caracterización de un hecho, fenómeno o grupo con el fin de establecer su estructura o comportamiento. La técnica que utilizaremos para la recolección de datos es la encuesta a través del instrumento del cuestionario, conformado por ítems cerradas, donde tendremos como población unas 1200 personas de las cuales tomaremos a un 30% de esta como muestra representativa de la presente investigación.
¿Por qué la encuesta?
Por su bajo costo
Información más exacta (mejor calidad).
Es posible introducir métodos científicos objetivos de medición para corregir errores.
Mayor rapidez en la obtención de resultados.
Técnica más utilizada y que permite obtener información de casi cualquier tipo de población.
Permite obtener información sobre hechos pasados de los encuestados.
Gran capacidad para estandarizar datos, lo que permite su tratamiento informático y el análisis estadístico.
Relativamente barata para la información que se obtiene con ello.
Te ayuda a conocer lo que quisieras conocer de la persona o personas encuestadas
La muestra será tomada en la cadena de supermercados Central Madeirense ubicada en el Centro Comercial Ciudad La Cascada ubicada en el Km 21 de la Carretera Panamericana, Carrizal, Estado Miranda. Cabe destacar que Fidias G. Arias (1999) define a la Población como al conjunto para la cual serán válidas las conclusiones que se obtengan: a los elementos o unidades (personas, instituciones o cosas) involucradas en la investigación y la Muestra la define como el subconjunto representativo de un universo o población.
Con respecto a las Técnicas e Instrumentos de Recolección de datos según Fidias G. Arias (1999) nos dice que son las distintas formas o maneras de obtener la información. Son ejemplos de técnicas; la observación directa, la encuesta en sus dos modalidades (entrevista o cuestionario), el análisis documental, análisis de contenido, entre otras y los instrumentos son los materiales que se emplean para recoger y almacenar la información. Ejemplo: fichas, formato de cuestionario, guías de entrevista, lista de cotejo, grabadores, escalas de actitudes u opinión (tipo likert), entre otros.
La técnica que utilizaremos para la recolección de datos es de carácter cuantitativo, en nuestro caso será la encuesta a través del instrumento del cuestionario, donde tendremos como población unas 1200 personas (que son el promedio de personas que visitan un fin de semana el supermercado según información suministrada por el gerente de dicho supermercado), de las cuales tomaremos a un 30% de ellas como muestra representativa de la presente investigación. La muestra será tomada en la cadena de supermercados Central Madeirense ubicada en el Centro Comercial Ciudad La Cascada ubicada en el Km 21 de la Carretera Panamericana, Carrizal, Estado Miranda.
El método de análisis de información que emplearemos será de carácter estadístico el cual se realizará a través del cuadro de distribución de frecuencias el cual nos permitirá tabular el número de repeticiones de cada ítem obtenidos en las encuestas.
Factores de Factibilidad
1.- Factor Material: Nuestra investigación se llevará a cabo en las mismas instalaciones de la cadena de supermercados Central Madeirense ubicada en el C.C La Cascada, en la cual tomaremos las encuestas durante un fin de semana dado que son los días más frecuentados y nos facilitará la obtención de información.
2.- Factor Financiero: La inversión de dinero la haremos básicamente en el material para elaborar el instrumento de recolección de datos y su respectivo análisis.
3.- Factor Humano: Para emprender esta investigación contaremos con 2 personas y la colaboración del gerente del supermercado para el suministro de cierta información indispensable para llevar a cabo nuestro proyecto de investigación.
4.- Factor Geográfico y Etnográfico: Dado que el patrón de consumo y comportamiento de consumo de la población es por lo general rutinario y fieles a sus marcas, en este caso, encontraremos que las personas que compran en este supermercado serán las aledañas a la zona como por ejemplo de la comunidad de Carrizal, Montaña Alta, Los Teques y San Antonio.
5.- Accesibilidad de la Información: En este aspecto no se presentará mayor incoveniente, dado que la información que necesitaremos para desarrollar la investigación no es de las más confidenciales para esta empresa y por otro lado, hasta los momentos han sido muy colaboradores cuando hemos solicitado su ayuda para suministrarnos información sobre los aspectos que nos competen para la realización de nuestra investigación.
República Bolivariana de Venezuela
Ministerio del Poder Popular para la Educación Superior
Instituto Universitario de Tecnología de Administración Industrial
Sede: Altos Mirandinos
Cátedra: Investigación de Mercados Aplicada a la Publicidad
Profesor: Ismael Viloria Verónica Infante C.I: 14.216.664
Yilbert Maaz C.I: 17.744.604
Los Teques, 11 de Enero de 2010
sábado, 23 de enero de 2010
Suscribirse a:
Enviar comentarios (Atom)
No hay comentarios:
Publicar un comentario